use session.delete(x) rather than del x
[sfa.git] / sfa / importer / sfa-import-plc.py
1 #!/usr/bin/python
2 #
3 ##
4 # Import PLC records into the SFA database. It is indended that this tool be
5 # run once to create SFA records that reflect the current state of the
6 # planetlab database.
7 #
8 # The import tool assumes that the existing PLC hierarchy should all be part
9 # of "planetlab.us" (see the root_auth and level1_auth variables below).
10 #
11 # Public keys are extracted from the users' SSH keys automatically and used to
12 # create GIDs. This is relatively experimental as a custom tool had to be
13 # written to perform conversion from SSH to OpenSSL format. It only supports
14 # RSA keys at this time, not DSA keys.
15 ##
16
17 import os
18 import getopt
19 import sys
20
21 from sfa.util.config import Config
22 from sfa.util.xrn import Xrn, get_leaf, get_authority, hrn_to_urn
23 from sfa.util.plxrn import hostname_to_hrn, slicename_to_hrn, email_to_hrn, hrn_to_pl_slicename
24
25 from sfa.trust.gid import create_uuid    
26 from sfa.trust.certificate import convert_public_key, Keypair
27
28 from sfa.plc.plshell import PlShell    
29
30 from sfa.storage.alchemy import dbsession
31 from sfa.storage.persistentobjs import RegRecord
32
33 from sfa.importer.sfaImport import sfaImport, _cleanup_string
34
35 def process_options():
36
37    (options, args) = getopt.getopt(sys.argv[1:], '', [])
38    for opt in options:
39        name = opt[0]
40        val = opt[1]
41
42
43 def load_keys(filename):
44     keys = {}
45     tmp_dict = {}
46     try:
47         execfile(filename, tmp_dict)
48         if 'keys' in tmp_dict:
49             keys = tmp_dict['keys']
50         return keys
51     except:
52         return keys
53
54 def save_keys(filename, keys):
55     f = open(filename, 'w')
56     f.write("keys = %s" % str(keys))
57     f.close()
58
59 def _get_site_hrn(interface_hrn, site):
60     # Hardcode 'internet2' into the hrn for sites hosting
61     # internet2 nodes. This is a special operation for some vini
62     # sites only
63     hrn = ".".join([interface_hrn, site['login_base']]) 
64     if ".vini" in interface_hrn and interface_hrn.endswith('vini'):
65         if site['login_base'].startswith("i2") or site['login_base'].startswith("nlr"):
66             hrn = ".".join([interface_hrn, "internet2", site['login_base']])
67     return hrn
68
69 # maybe could use a call to persistentobjs.init_tables somewhere
70 # however now import s expected to be done after service creation..
71 def main():
72
73     process_options()
74     config = Config()
75     if not config.SFA_REGISTRY_ENABLED:
76         sys.exit(0)
77     root_auth = config.SFA_REGISTRY_ROOT_AUTH
78     interface_hrn = config.SFA_INTERFACE_HRN
79     keys_filename = config.config_path + os.sep + 'person_keys.py' 
80     sfaImporter = sfaImport()
81     sfaImporter.create_top_level_records()
82     logger=sfaImporter.logger
83     logger.setLevelFromOptVerbose(config.SFA_API_LOGLEVEL)
84     shell = PlShell (config)
85     
86     # create dict of all existing sfa records
87     existing_records = {}
88     existing_hrns = []
89     key_ids = []
90     person_keys = {} 
91     for record in dbsession.query(RegRecord):
92         existing_records[ (record.hrn, record.type,) ] = record
93         existing_hrns.append(record.hrn) 
94             
95     # Get all plc sites
96     sites = shell.GetSites({'peer_id': None})
97     sites_dict = {}
98     for site in sites:
99         sites_dict[site['login_base']] = site 
100     
101     # Get all plc users
102     persons = shell.GetPersons({'peer_id': None, 'enabled': True}, 
103                                ['person_id', 'email', 'key_ids', 'site_ids'])
104     persons_dict = {}
105     for person in persons:
106         persons_dict[person['person_id']] = person
107         key_ids.extend(person['key_ids'])
108
109     # Get all public keys
110     keys = shell.GetKeys( {'peer_id': None, 'key_id': key_ids})
111     keys_dict = {}
112     for key in keys:
113         keys_dict[key['key_id']] = key['key']
114
115     # create a dict of person keys keyed on key_id 
116     old_person_keys = load_keys(keys_filename)
117     for person in persons:
118         pubkeys = []
119         for key_id in person['key_ids']:
120             pubkeys.append(keys_dict[key_id])
121         person_keys[person['person_id']] = pubkeys
122
123     # Get all plc nodes  
124     nodes = shell.GetNodes( {'peer_id': None}, ['node_id', 'hostname', 'site_id'])
125     nodes_dict = {}
126     for node in nodes:
127         nodes_dict[node['node_id']] = node
128
129     # Get all plc slices
130     slices = shell.GetSlices( {'peer_id': None}, ['slice_id', 'name'])
131     slices_dict = {}
132     for slice in slices:
133         slices_dict[slice['slice_id']] = slice
134
135     # special case for vini
136     if ".vini" in interface_hrn and interface_hrn.endswith('vini'):
137         # create a fake internet2 site first
138         i2site = {'name': 'Internet2', 'abbreviated_name': 'I2',
139                     'login_base': 'internet2', 'site_id': -1}
140         site_hrn = _get_site_hrn(interface_hrn, i2site)
141         logger.info("Importing site: %s" % site_hrn)
142         # import if hrn is not in list of existing hrns or if the hrn exists
143         # but its not a site record
144         if site_hrn not in existing_hrns or \
145            (site_hrn, 'authority') not in existing_records:
146             logger.info("Import: site %s " % site_hrn)
147             urn = hrn_to_urn(site_hrn, 'authority')
148             if not sfaImporter.AuthHierarchy.auth_exists(urn):
149                 sfaImporter.AuthHierarchy.create_auth(urn)
150             auth_info = sfaImporter.AuthHierarchy.get_auth_info(urn)
151             auth_record = RegRecord("authority", hrn=site_hrn, gid=auth_info.get_gid_object(),
152                                     pointer=site['site_id'], 
153                                     authority=get_authority(site_hrn))
154             logger.info("Import: Importing auth %s"%auth_record)
155             dbsession.add(auth_record)
156             dbsession.commit()
157
158     # start importing 
159     for site in sites:
160         site_hrn = _get_site_hrn(interface_hrn, site)
161         logger.info("Importing site: %s" % site_hrn)
162
163         # import if hrn is not in list of existing hrns or if the hrn exists
164         # but its not a site record
165         if site_hrn not in existing_hrns or \
166            (site_hrn, 'authority') not in existing_records:
167             try:
168                 urn = hrn_to_urn(site_hrn, 'authority')
169                 if not sfaImporter.AuthHierarchy.auth_exists(urn):
170                     sfaImporter.AuthHierarchy.create_auth(urn)
171                 auth_info = sfaImporter.AuthHierarchy.get_auth_info(urn)
172                 auth_record = RegRecord("authority", hrn=site_hrn, gid=auth_info.get_gid_object(),
173                                         pointer=site['site_id'], 
174                                         authority=get_authority(site_hrn))
175                 logger.info("Import: importing site: %s" % auth_record)  
176                 dbsession.add(auth_record)
177                 dbsession.commit()
178             except:
179                 # if the site import fails then there is no point in trying to import the
180                 # site's child records (node, slices, persons), so skip them.
181                 logger.log_exc("Import: failed to import site. Skipping child records") 
182                 continue 
183              
184         # import node records
185         for node_id in site['node_ids']:
186             if node_id not in nodes_dict:
187                 continue 
188             node = nodes_dict[node_id]
189             site_auth = get_authority(site_hrn)
190             site_name = get_leaf(site_hrn)
191             hrn =  hostname_to_hrn(site_auth, site_name, node['hostname'])
192             if len(hrn) > 64:
193                 hrn = hrn[:64]
194             if hrn not in existing_hrns or \
195                (hrn, 'node') not in existing_records:
196                 try:
197                     pkey = Keypair(create=True)
198                     urn = hrn_to_urn(hrn, 'node')
199                     node_gid = sfaImporter.AuthHierarchy.create_gid(urn, create_uuid(), pkey)
200                     node_record = RegRecord("node", hrn=hrn, gid=node_gid,
201                                             pointer=node['node_id'], 
202                                             authority=get_authority(hrn))    
203                     logger.info("Import: importing node: %s" % node_record)  
204                     dbsession.add(node_record)
205                     dbsession.commit()
206                 except:
207                     logger.log_exc("Import: failed to import node") 
208                     
209
210         # import slices
211         for slice_id in site['slice_ids']:
212             if slice_id not in slices_dict:
213                 continue 
214             slice = slices_dict[slice_id]
215             hrn = slicename_to_hrn(interface_hrn, slice['name'])
216             #slicename = slice['name'].split("_",1)[-1]
217             #slicename = _cleanup_string(slicename)
218             if hrn not in existing_hrns or \
219                (hrn, 'slice') not in existing_records:
220                 try:
221                     pkey = Keypair(create=True)
222                     urn = hrn_to_urn(hrn, 'slice')
223                     slice_gid = sfaImporter.AuthHierarchy.create_gid(urn, create_uuid(), pkey)
224                     slice_record = RegRecord("slice", hrn=hrn, gid=slice_gid, 
225                                              pointer=slice['slice_id'],
226                                              authority=get_authority(hrn))
227                     logger.info("Import: importing slice: %s" % slice_record)  
228                     dbsession.add(slice_record)
229                     dbsession.commit()
230                 except:
231                     logger.log_exc("Import: failed to  import slice")
232
233         # import persons
234         for person_id in site['person_ids']:
235             if person_id not in persons_dict:
236                 continue 
237             person = persons_dict[person_id]
238             hrn = email_to_hrn(site_hrn, person['email'])
239             if len(hrn) > 64:
240                 hrn = hrn[:64]
241
242             # if user's primary key has changed then we need to update the 
243             # users gid by forcing an update here
244             old_keys = []
245             new_keys = []
246             if person_id in old_person_keys:
247                 old_keys = old_person_keys[person_id]
248             if person_id in person_keys:
249                 new_keys = person_keys[person_id]
250             update_record = False
251             for key in new_keys:
252                 if key not in old_keys:
253                     update_record = True 
254
255             if hrn not in existing_hrns or \
256                (hrn, 'user') not in existing_records or update_record:
257                 try:
258                     if 'key_ids' in person and person['key_ids']:
259                         key = new_keys[0]
260                         try:
261                             pkey = convert_public_key(key)
262                         except:
263                             logger.warn('unable to convert public key for %s' % hrn)
264                             pkey = Keypair(create=True)
265                     else:
266                         # the user has no keys. Creating a random keypair for the user's gid
267                         logger.warn("Import: person %s does not have a PL public key"%hrn)
268                         pkey = Keypair(create=True) 
269                     urn = hrn_to_urn(hrn, 'user')
270                     person_gid = sfaImporter.AuthHierarchy.create_gid(urn, create_uuid(), pkey)
271                     person_record = RegRecord("user", hrn=hrn, gid=person_gid,
272                                               pointer=person['person_id'], 
273                                               authority=get_authority(hrn))
274                     logger.info("Import: importing person: %s" % person_record)
275                     dbsession.add (person_record)
276                     dbsession.commit()
277                 except:
278                     logger.log_exc("Import: failed to import person.") 
279     
280     # remove stale records    
281     system_records = [interface_hrn, root_auth, interface_hrn + '.slicemanager']
282     for (record_hrn, type) in existing_records.keys():
283         if record_hrn in system_records:
284             continue
285         
286         record = existing_records[(record_hrn, type)]
287         if record.peer_authority:
288             continue
289
290         # dont delete vini's internet2 placeholdder record
291         # normally this would be deleted becuase it does not have a plc record 
292         if ".vini" in interface_hrn and interface_hrn.endswith('vini') and \
293            record_hrn.endswith("internet2"):     
294             continue
295
296         found = False
297         
298         if type == 'authority':    
299             for site in sites:
300                 site_hrn = interface_hrn + "." + site['login_base']
301                 if site_hrn == record_hrn and site['site_id'] == record.pointer:
302                     found = True
303                     break
304
305         elif type == 'user':
306             login_base = get_leaf(get_authority(record_hrn))
307             username = get_leaf(record_hrn)
308             if login_base in sites_dict:
309                 site = sites_dict[login_base]
310                 for person in persons:
311                     tmp_username = person['email'].split("@")[0]
312                     alt_username = person['email'].split("@")[0].replace(".", "_").replace("+", "_")
313                     if username in [tmp_username, alt_username] and \
314                        site['site_id'] in person['site_ids'] and \
315                        person['person_id'] == record.pointer:
316                         found = True
317                         break
318         
319         elif type == 'slice':
320             slicename = hrn_to_pl_slicename(record_hrn)
321             for slice in slices:
322                 if slicename == slice['name'] and \
323                    slice['slice_id'] == record.pointer:
324                     found = True
325                     break    
326  
327         elif type == 'node':
328             login_base = get_leaf(get_authority(record_hrn))
329             nodename = Xrn.unescape(get_leaf(record_hrn))
330             if login_base in sites_dict:
331                 site = sites_dict[login_base]
332                 for node in nodes:
333                     tmp_nodename = node['hostname']
334                     if tmp_nodename == nodename and \
335                        node['site_id'] == site['site_id'] and \
336                        node['node_id'] == record.pointer:
337                         found = True
338                         break  
339         else:
340             continue 
341         
342         if not found:
343             try:
344                 record_object = existing_records[(record_hrn, type)]
345                 logger.info("Import: deleting record: %s" % record)
346                 dbsession.delete(record_object)
347                 dbsession.commit()
348             except:
349                 logger.log_exc("Import: failded to delete record")                    
350     # save pub keys
351     logger.info('Import: saving current pub keys')
352     save_keys(keys_filename, person_keys)                
353         
354 if __name__ == "__main__":
355     main()