Ticket #21: emulation support - vsys requirement checking when attaching a TunInterfa...
[nepi.git] / src / nepi / testbeds / planetlab / node.py
1 #!/usr/bin/env python
2 # -*- coding: utf-8 -*-
3
4 from constants import TESTBED_ID
5 import plcapi
6 import operator
7 import rspawn
8 import time
9 import os
10 import collections
11
12 from nepi.util import server
13
14 class Node(object):
15     BASEFILTERS = {
16         # Map Node attribute to plcapi filter name
17         'hostname' : 'hostname',
18     }
19     
20     TAGFILTERS = {
21         # Map Node attribute to (<tag name>, <plcapi filter expression>)
22         #   There are replacements that are applied with string formatting,
23         #   so '%' has to be escaped as '%%'.
24         'architecture' : ('arch','value'),
25         'operating_system' : ('fcdistro','value'),
26         'pl_distro' : ('pldistro','value'),
27         'min_reliability' : ('reliability%(timeframe)s', ']value'),
28         'max_reliability' : ('reliability%(timeframe)s', '[value'),
29         'min_bandwidth' : ('bw%(timeframe)s', ']value'),
30         'max_bandwidth' : ('bw%(timeframe)s', '[value'),
31     }    
32     
33     DEPENDS_PIDFILE = '/tmp/nepi-depends.pid'
34     DEPENDS_LOGFILE = '/tmp/nepi-depends.log'
35     
36     def __init__(self, api=None):
37         if not api:
38             api = plcapi.PLCAPI()
39         self._api = api
40         
41         # Attributes
42         self.hostname = None
43         self.architecture = None
44         self.operating_system = None
45         self.pl_distro = None
46         self.site = None
47         self.emulation = None
48         self.min_reliability = None
49         self.max_reliability = None
50         self.min_bandwidth = None
51         self.max_bandwidth = None
52         self.min_num_external_ifaces = None
53         self.max_num_external_ifaces = None
54         self.timeframe = 'm'
55         
56         # Applications and routes add requirements to connected nodes
57         self.required_packages = set()
58         self.required_vsys = set()
59         
60         # Testbed-derived attributes
61         self.slicename = None
62         self.ident_path = None
63         self.server_key = None
64         self.home_path = None
65         
66         # Those are filled when an actual node is allocated
67         self._node_id = None
68     
69     def build_filters(self, target_filters, filter_map):
70         for attr, tag in filter_map.iteritems():
71             value = getattr(self, attr, None)
72             if value is not None:
73                 target_filters[tag] = value
74         return target_filters
75     
76     @property
77     def applicable_filters(self):
78         has = lambda att : getattr(self,att,None) is not None
79         return (
80             filter(has, self.BASEFILTERS.iterkeys())
81             + filter(has, self.TAGFILTERS.iterkeys())
82         )
83     
84     def find_candidates(self, filter_slice_id=None):
85         fields = ('node_id',)
86         replacements = {'timeframe':self.timeframe}
87         
88         # get initial candidates (no tag filters)
89         basefilters = self.build_filters({}, self.BASEFILTERS)
90         if filter_slice_id:
91             basefilters['|slice_ids'] = (filter_slice_id,)
92         
93         # keyword-only "pseudofilters"
94         extra = {}
95         if self.site:
96             extra['peer'] = self.site
97             
98         candidates = set(map(operator.itemgetter('node_id'), 
99             self._api.GetNodes(filters=basefilters, fields=fields, **extra)))
100         
101         # filter by tag, one tag at a time
102         applicable = self.applicable_filters
103         for tagfilter in self.TAGFILTERS.iteritems():
104             attr, (tagname, expr) = tagfilter
105             
106             # don't bother if there's no filter defined
107             if attr in applicable:
108                 tagfilter = basefilters.copy()
109                 tagfilter['tagname'] = tagname % replacements
110                 tagfilter[expr % replacements] = getattr(self,attr)
111                 tagfilter['node_id'] = list(candidates)
112                 
113                 candidates &= set(map(operator.itemgetter('node_id'),
114                     self._api.GetNodeTags(filters=tagfilter, fields=fields)))
115         
116         # filter by vsys tags - special case since it doesn't follow
117         # the usual semantics
118         if self.required_vsys:
119             newcandidates = collections.defaultdict(set)
120             
121             vsys_tags = self._api.GetNodeTags(
122                 tagname='vsys', 
123                 node_id = list(candidates), 
124                 fields = ['node_id','value'])
125             
126             vsys_tags = map(
127                 operator.itemgetter(['node_id','value']),
128                 vsys_tags)
129             
130             required_vsys = self.required_vsys
131             for node_id, value in vsys_tags:
132                 if value in required_vsys:
133                     newcandidates[value].add(node_id)
134             
135             # take only those that have all the required vsys tags
136             newcandidates = reduce(
137                 lambda accum, new : accum & new,
138                 newcandidates.itervalues(),
139                 candidates)
140         
141         # filter by iface count
142         if self.min_num_external_ifaces is not None or self.max_num_external_ifaces is not None:
143             # fetch interfaces for all, in one go
144             filters = basefilters.copy()
145             filters['node_id'] = list(candidates)
146             ifaces = dict(map(operator.itemgetter('node_id','interface_ids'),
147                 self._api.GetNodes(filters=basefilters, fields=('node_id','interface_ids')) ))
148             
149             # filter candidates by interface count
150             if self.min_num_external_ifaces is not None and self.max_num_external_ifaces is not None:
151                 predicate = ( lambda node_id : 
152                     self.min_num_external_ifaces <= len(ifaces.get(node_id,())) <= self.max_num_external_ifaces )
153             elif self.min_num_external_ifaces is not None:
154                 predicate = ( lambda node_id : 
155                     self.min_num_external_ifaces <= len(ifaces.get(node_id,())) )
156             else:
157                 predicate = ( lambda node_id : 
158                     len(ifaces.get(node_id,())) <= self.max_num_external_ifaces )
159             
160             candidates = set(filter(predicate, candidates))
161             
162         return candidates
163
164     def assign_node_id(self, node_id):
165         self._node_id = node_id
166         self.fetch_node_info()
167     
168     def fetch_node_info(self):
169         info = self._api.GetNodes(self._node_id)[0]
170         tags = dict( (t['tagname'],t['value'])
171                      for t in self._api.GetNodeTags(node_id=self._node_id, fields=('tagname','value')) )
172
173         self.min_num_external_ifaces = None
174         self.max_num_external_ifaces = None
175         self.timeframe = 'm'
176         
177         replacements = {'timeframe':self.timeframe}
178         for attr, tag in self.BASEFILTERS.iteritems():
179             if tag in info:
180                 value = info[tag]
181                 setattr(self, attr, value)
182         for attr, (tag,_) in self.TAGFILTERS.iteritems():
183             tag = tag % replacements
184             if tag in tags:
185                 value = tags[tag]
186                 setattr(self, attr, value)
187         
188         if 'peer_id' in info:
189             self.site = self._api.peer_map[info['peer_id']]
190         
191         if 'interface_ids' in info:
192             self.min_num_external_ifaces = \
193             self.max_num_external_ifaces = len(info['interface_ids'])
194         
195         if 'ssh_rsa_key' in info:
196             self.server_key = info['ssh_rsa_key']
197
198     def validate(self):
199         if self.home_path is None:
200             raise AssertionError, "Misconfigured node: missing home path"
201         if self.ident_path is None or not os.access(self.ident_path, os.R_OK):
202             raise AssertionError, "Misconfigured node: missing slice SSH key"
203         if self.slicename is None:
204             raise AssertionError, "Misconfigured node: unspecified slice"
205
206     def install_dependencies(self):
207         if self.required_packages:
208             # TODO: make dependant on the experiment somehow...
209             pidfile = self.DEPENDS_PIDFILE
210             logfile = self.DEPENDS_LOGFILE
211             
212             # Start process in a "daemonized" way, using nohup and heavy
213             # stdin/out redirection to avoid connection issues
214             (out,err),proc = rspawn.remote_spawn(
215                 "yum -y install %(packages)s" % {
216                     'packages' : ' '.join(self.required_packages),
217                 },
218                 pidfile = pidfile,
219                 stdout = logfile,
220                 stderr = rspawn.STDOUT,
221                 
222                 host = self.hostname,
223                 port = None,
224                 user = self.slicename,
225                 agent = None,
226                 ident_key = self.ident_path,
227                 server_key = self.server_key,
228                 sudo = True
229                 )
230             
231             if proc.wait():
232                 raise RuntimeError, "Failed to set up application: %s %s" % (out,err,)
233     
234     def wait_dependencies(self, pidprobe=1, probe=10, pidmax=10):
235         if self.required_packages:
236             pidfile = self.DEPENDS_PIDFILE
237             
238             # get PID
239             pid = ppid = None
240             for probenum in xrange(pidmax):
241                 pidtuple = rspawn.remote_check_pid(
242                     pidfile = pidfile,
243                     host = self.hostname,
244                     port = None,
245                     user = self.slicename,
246                     agent = None,
247                     ident_key = self.ident_path,
248                     server_key = self.server_key
249                     )
250                 if pidtuple:
251                     pid, ppid = pidtuple
252                     break
253                 else:
254                     time.sleep(pidprobe)
255             else:
256                 raise RuntimeError, "Failed to obtain pidfile for dependency installer"
257         
258             # wait for it to finish
259             while rspawn.RUNNING is rspawn.remote_status(
260                     pid, ppid,
261                     host = self.hostname,
262                     port = None,
263                     user = self.slicename,
264                     agent = None,
265                     ident_key = self.ident_path,
266                     server_key = self.server_key
267                     ):
268                 time.sleep(probe)
269         
270     def is_alive(self):
271         # Make sure all the paths are created where 
272         # they have to be created for deployment
273         (out,err),proc = server.popen_ssh_command(
274             "echo 'ALIVE'",
275             host = self.hostname,
276             port = None,
277             user = self.slicename,
278             agent = None,
279             ident_key = self.ident_path,
280             server_key = self.server_key
281             )
282         
283         if proc.wait():
284             return False
285         elif not err and out.strip() == 'ALIVE':
286             return True
287         else:
288             return False
289     
290