f7f5ddabb2ed33cb7a4780042ec0e8ba31a702b9
[sfa.git] / sfa / client / sfascan.py
1 import sys, os.path
2 import pickle
3 import time
4 import socket
5 import traceback
6 from urlparse import urlparse
7
8 try:
9     import pygraphviz
10 except:
11     print 'Warning, could not import pygraphviz, test mode only'
12
13 from optparse import OptionParser
14
15 from sfa.client.return_value import ReturnValue
16 from sfa.client.sfi import Sfi
17 from sfa.util.sfalogging import logger, DEBUG
18 from sfa.client.sfaserverproxy import SfaServerProxy
19
20 def url_hostname_port (url):
21     if url.find("://")<0:
22         url="http://"+url
23     parsed_url=urlparse(url)
24     # 0(scheme) returns protocol
25     default_port='80'
26     if parsed_url[0]=='https': default_port='443'
27     # 1(netloc) returns the hostname+port part
28     parts=parsed_url[1].split(":")
29     # just a hostname
30     if len(parts)==1:
31         return (url,parts[0],default_port)
32     else:
33         return (url,parts[0],parts[1])
34
35 ### a very simple cache mechanism so that successive runs (see make) 
36 ### will go *much* faster
37 ### assuming everything is sequential, as simple as it gets
38 ### { url -> (timestamp,version)}
39 class VersionCache:
40     # default expiration period is 1h
41     def __init__ (self, filename=None, expires=60*60):
42         # default is to store cache in the same dir as argv[0]
43         if filename is None:
44             filename=os.path.join(os.path.dirname(sys.argv[0]),"sfascan-version-cache.pickle")
45         self.filename=filename
46         self.expires=expires
47         self.url2version={}
48         self.load()
49
50     def load (self):
51         try:
52             infile=file(self.filename,'r')
53             self.url2version=pickle.load(infile)
54             infile.close()
55         except:
56             logger.debug("Cannot load version cache, restarting from scratch")
57             self.url2version = {}
58         logger.debug("loaded version cache with %d entries %s"%(len(self.url2version),self.url2version.keys()))
59
60     def save (self):
61         try:
62             outfile=file(self.filename,'w')
63             pickle.dump(self.url2version,outfile)
64             outfile.close()
65         except:
66             logger.log_exc ("Cannot save version cache into %s"%self.filename)
67     def clean (self):
68         try:
69             retcod=os.unlink(self.filename)
70             logger.info("Cleaned up version cache %s, retcod=%d"%(self.filename,retcod))
71         except:
72             logger.info ("Could not unlink version cache %s"%self.filename)
73
74     def show (self):
75         entries=len(self.url2version)
76         print "version cache from file %s has %d entries"%(self.filename,entries)
77         key_values=self.url2version.items()
78         def old_first (kv1,kv2): return int(kv1[1][0]-kv2[1][0])
79         key_values.sort(old_first)
80         for key_value in key_values:
81             (url,tuple) = key_value
82             (timestamp,version) = tuple
83             how_old = time.time()-timestamp
84             if how_old<=self.expires:
85                 print url,"-- %d seconds ago"%how_old
86             else:
87                 print "OUTDATED",url,"(%d seconds ago, expires=%d)"%(how_old,self.expires)
88     
89     # turns out we might have trailing slashes or not
90     def normalize (self, url):
91         return url.strip("/")
92         
93     def set (self,url,version):
94         url=self.normalize(url)
95         self.url2version[url]=( time.time(), version)
96     def get (self,url):
97         url=self.normalize(url)
98         try:
99             (timestamp,version)=self.url2version[url]
100             how_old = time.time()-timestamp
101             if how_old<=self.expires: return version
102             else: return None
103         except:
104             return None
105
106 ###
107 # non-existing hostnames happen...
108 # for better perfs we cache the result of gethostbyname too
109 class Interface:
110
111     def __init__ (self,url,mentioned_in=None,verbose=False):
112         self._url=url
113         self.verbose=verbose
114         cache=VersionCache()
115         key="interface:%s"%url
116         try:
117             (self._url,self.hostname,self.port)=url_hostname_port(url)
118             # look for ip in the cache
119             tuple=cache.get(key)
120             if tuple:
121                 (self.hostname, self.ip, self.port) = tuple
122             else:
123                 self.ip=socket.gethostbyname(self.hostname)
124         except:
125             msg="can't resolve hostname %s\n\tfound in url %s"%(self.hostname,self._url)
126             if mentioned_in:
127                 msg += "\n\t(mentioned at %s)"%mentioned_in
128             logger.warning (msg)
129             self.hostname="unknown"
130             self.ip='0.0.0.0'
131             self.port="???"
132
133         cache.set(key, (self.hostname, self.ip, self.port,) )
134         cache.save()
135         self.probed=False
136
137         # mark unknown interfaces as probed to avoid unnecessary attempts
138         if self.hostname=='unknown':
139             # don't really try it
140             self.probed=True
141             self._version={}
142
143
144     def url(self):
145         return self._url
146
147     # this is used as a key for creating graph nodes and to avoid duplicates
148     def uid (self):
149         return "%s:%s"%(self.ip,self.port)
150
151     # connect to server and trigger GetVersion
152     def get_version(self):
153         ### if we already know the answer:
154         if self.probed:
155             return self._version
156         ### otherwise let's look in the cache file
157         logger.debug("searching in version cache %s"%self.url())
158         cached_version = VersionCache().get(self.url())
159         if cached_version is not None:
160             logger.info("Retrieved version info from cache %s"%self.url())
161             return cached_version
162         ### otherwise let's do the hard work
163         # dummy to meet Sfi's expectations for its 'options' field
164         class DummyOptions:
165             pass
166         options=DummyOptions()
167         options.verbose=self.verbose
168         options.timeout=10
169         try:
170             client=Sfi(options)
171             client.read_config()
172             client.bootstrap()
173             key_file = client.private_key
174             cert_file = client.my_gid
175             logger.debug("using key %s & cert %s"%(key_file,cert_file))
176             url=self.url()
177             logger.info('issuing GetVersion at %s'%url)
178             # setting timeout here seems to get the call to fail - even though the response time is fast
179             #server=SfaServerProxy(url, key_file, cert_file, verbose=self.verbose, timeout=options.timeout)
180             server=SfaServerProxy(url, key_file, cert_file, verbose=self.verbose)
181             self._version=ReturnValue.get_value(server.GetVersion())
182         except:
183             logger.log_exc("failed to get version")
184             self._version={}
185         # so that next run from this process will find out
186         self.probed=True
187         # store in version cache so next processes will remember for an hour
188         cache=VersionCache()
189         cache.set(self.url(),self._version)
190         cache.save()
191         logger.debug("Saved version for url=%s in version cache"%self.url())
192         # that's our result
193         return self._version
194
195     @staticmethod
196     def multi_lines_label(*lines):
197         result='<<TABLE BORDER="0" CELLBORDER="0"><TR><TD>' + \
198             '</TD></TR><TR><TD>'.join(lines) + \
199             '</TD></TR></TABLE>>'
200         return result
201
202     # default is for when we can't determine the type of the service
203     # typically the server is down, or we can't authenticate, or it's too old code
204     shapes = {"registry": "diamond", "slicemgr":"ellipse", "aggregate":"box", 'default':'plaintext'}
205     abbrevs = {"registry": "REG", "slicemgr":"SA", "aggregate":"AM", 'default':'[unknown interface]'}
206
207     # return a dictionary that translates into the node's attr
208     def get_layout (self):
209         layout={}
210         ### retrieve cached GetVersion
211         version=self.get_version()
212         # set the href; xxx would make sense to try and 'guess' the web URL, not the API's one...
213         layout['href']=self.url()
214         ### set html-style label
215         ### see http://www.graphviz.org/doc/info/shapes.html#html
216         # if empty the service is unreachable
217         if not version:
218             label="offline"
219         else:
220             label=''
221             try: abbrev=Interface.abbrevs[version['interface']]
222             except: abbrev=Interface.abbrevs['default']
223             label += abbrev
224             if 'hrn' in version: label += " %s"%version['hrn']
225             else:                label += "[no hrn]"
226             if 'code_tag' in version: 
227                 label += " %s"%version['code_tag']
228             if 'testbed' in version:
229                 label += " (%s)"%version['testbed']
230         layout['label']=Interface.multi_lines_label(self.url(),label)
231         ### set shape
232         try: shape=Interface.shapes[version['interface']]
233         except: shape=Interface.shapes['default']
234         layout['shape']=shape
235         ### fill color to outline wrongly configured or unreachable bodies
236         # as of sfa-2.0 registry doesn't have 'sfa' not 'geni_api', but have peers
237         # slicemgr and aggregate have 'geni_api' and 'sfa'
238         if 'geni_api' not in version and 'peers' not in version:
239             layout['style']='filled'
240             layout['fillcolor']='gray'
241         return layout
242
243 class Scanner:
244
245     # provide the entry points (a list of interfaces)
246     def __init__ (self, left_to_right=False, verbose=False):
247         self.verbose=verbose
248         self.left_to_right=left_to_right
249
250     def graph (self,entry_points):
251         graph=pygraphviz.AGraph(directed=True)
252         if self.left_to_right: 
253             graph.graph_attr['rankdir']='LR'
254         self.scan(entry_points,graph)
255         return graph
256     
257     # scan from the given interfaces as entry points
258     def scan(self,interfaces,graph):
259         if not isinstance(interfaces,list):
260             interfaces=[interfaces]
261
262         # remember node to interface mapping
263         node2interface={}
264         # add entry points right away using the interface uid's as a key
265         to_scan=interfaces
266         for i in interfaces: 
267             graph.add_node(i.uid())
268             node2interface[graph.get_node(i.uid())]=i
269         scanned=[]
270         # keep on looping until we reach a fixed point
271         # don't worry about abels and shapes that will get fixed later on
272         while to_scan:
273             for interface in to_scan:
274                 # performing xmlrpc call
275                 logger.info("retrieving/fetching version at interface %s"%interface.url())
276                 version=interface.get_version()
277                 if not version:
278                     logger.info("<EMPTY GetVersion(); offline or cannot authenticate>")
279                 else: 
280                     for (k,v) in version.iteritems(): 
281                         if not isinstance(v,dict):
282                             logger.debug("\r\t%s:%s"%(k,v))
283                         else:
284                             logger.debug(k)
285                             for (k1,v1) in v.iteritems():
286                                 logger.debug("\r\t\t%s:%s"%(k1,v1))
287                 # proceed with neighbours
288                 if 'peers' in version: 
289                     for (next_name,next_url) in version['peers'].iteritems():
290                         next_interface=Interface(next_url,mentioned_in=interface.url())
291                         # locate or create node in graph
292                         try:
293                             # if found, we're good with this one
294                             next_node=graph.get_node(next_interface.uid())
295                         except:
296                             # otherwise, let's move on with it
297                             graph.add_node(next_interface.uid())
298                             next_node=graph.get_node(next_interface.uid())
299                             node2interface[next_node]=next_interface
300                             to_scan.append(next_interface)
301                         graph.add_edge(interface.uid(),next_interface.uid())
302                 scanned.append(interface)
303                 to_scan.remove(interface)
304             # we've scanned the whole graph, let's get the labels and shapes right
305             for node in graph.nodes():
306                 interface=node2interface.get(node,None)
307                 if interface:
308                     for (k,v) in interface.get_layout().iteritems():
309                         node.attr[k]=v
310                 else:
311                     logger.error("MISSED interface with node %s"%node)
312     
313
314 class SfaScan:
315
316     default_outfiles=['sfa.png','sfa.svg','sfa.dot']
317
318     def main(self):
319         usage="%prog [options] url-entry-point(s)"
320         parser=OptionParser(usage=usage)
321         parser.add_option("-d", "--dir", dest="sfi_dir",
322                           help="config & working directory - default is " + Sfi.default_sfi_dir(),
323                           metavar="PATH", default=Sfi.default_sfi_dir())
324         parser.add_option("-o","--output",action='append',dest='outfiles',default=[],
325                           help="output filenames (cumulative) - defaults are %r"%SfaScan.default_outfiles)
326         parser.add_option("-l","--left-to-right",action="store_true",dest="left_to_right",default=False,
327                           help="instead of top-to-bottom")
328         parser.add_option("-v", "--verbose", action="count", dest="verbose", default=0,
329                           help="verbose - can be repeated for more verbosity")
330         parser.add_option("-c", "--clean-cache",action='store_true',
331                           dest='clean_cache',default=False,
332                           help='clean/trash version cache and exit')
333         parser.add_option("-s","--show-cache",action='store_true',
334                           dest='show_cache',default=False,
335                           help='show/display version cache')
336         
337         (options,args)=parser.parse_args()
338         logger.enable_console()
339         # apply current verbosity to logger
340         logger.setLevelFromOptVerbose(options.verbose)
341         # figure if we need to be verbose for these local classes that only have a bool flag
342         bool_verbose=logger.getBoolVerboseFromOpt(options.verbose)
343     
344         if options.show_cache: 
345             VersionCache().show()
346             sys.exit(0)
347         if options.clean_cache:
348             VersionCache().clean()
349             sys.exit(0)
350         if not args:
351             parser.print_help()
352             sys.exit(1)
353             
354         if not options.outfiles:
355             options.outfiles=SfaScan.default_outfiles
356         scanner=Scanner(left_to_right=options.left_to_right, verbose=bool_verbose)
357         entries = [ Interface(entry,mentioned_in="command line") for entry in args ]
358         try:
359             g=scanner.graph(entries)
360             logger.info("creating layout")
361             g.layout(prog='dot')
362             for outfile in options.outfiles:
363                 logger.info("drawing in %s"%outfile)
364                 g.draw(outfile)
365             logger.info("done")
366         # test mode when pygraphviz is not available
367         except:
368             entry=entries[0]
369             print "GetVersion at %s returned %s"%(entry.url(),entry.get_version())
370