- fix probable checkin of debug code
[plcapi.git] / PLC / Cache.py
index 10adeeb..61ebcfc 100644 (file)
@@ -4,7 +4,7 @@ from PLC.Filter import Filter
 from PLC.Table import Row, Table
 
 verbose_flag=False;
-#verbose_flag=True;
+verbose_flag=True;
 def verbose (*args):
     if verbose_flag:
        print (args)
@@ -30,14 +30,10 @@ class Cache:
 
     # an attempt to provide genericity in the caching algorithm
     
-    # the Peer object we are syncing with
-    def __init__ (self, api, peer, peer_server, auth):
-
-       import PLC.Peers
+    def __init__ (self, api, peer_id, peer_server, auth):
 
        self.api = api
-        assert isinstance(peer,PLC.Peers.Peer)
-        self.peer = peer
+        self.peer_id = peer_id
        self.peer_server = peer_server
        self.auth = auth
         
@@ -63,18 +59,19 @@ class Cache:
        def transcode (self, alien_id):
            """ transforms an alien id into a local one """
            # locate alien obj from alien_id
-           verbose ('entering transcode with alien_id',alien_id,)
+           verbose ('.entering transcode with alien_id',alien_id,)
            alien_object=self.alien_objects_byid[alien_id]
-           verbose ('located alien_obj',)
+           verbose ('..located alien_obj',)
            name = alien_object [self.class_key]
-           verbose ('got name',name,)
+           verbose ('...got name',name,)
            local_object=self.local_objects_byname[name]
-           verbose ('found local obj')
+           verbose ('....found local obj')
            local_id=local_object[self.primary_key]
-           verbose ('and local_id',local_id)
+           verbose ('.....and local_id',local_id)
            return local_id
            
 
+    # for handling simple n-to-n relation tables, like e.g. slice_node
     class XrefTable: 
 
        def __init__ (self, api, tablename, class1, class2):
@@ -113,16 +110,17 @@ class Cache:
     # classname: the type of objects we are talking about;       e.g. 'Slice'
     # peer_object_list list of objects at a given peer -         e.g. peer.GetSlices()
     # alien_xref_objs_dict : a dict {'classname':alien_obj_list} e.g. {'Node':peer.GetNodes()}
-    # his must match the keys in xref_specs
+    #    we need an entry for each class mentioned in the class's foreign_xrefs
     # lambda_ignore : the alien objects are ignored if this returns true
     def update_table (self,
                       classname,
                       alien_object_list,
                      alien_xref_objs_dict = {},
-                      lambda_ignore=lambda x:False):
+                      lambda_ignore=lambda x:False,
+                      report_name_conflicts = True):
         
-        peer = self.peer
-        peer_id = peer['peer_id']
+        verbose ("============================== entering update_table on",classname)
+        peer_id=self.peer_id
 
        attrs = class_attributes (classname)
        row_class = attrs['row_class']
@@ -134,11 +132,15 @@ class Cache:
 
        ## allocate transcoders and xreftables once, for each item in foreign_xrefs
        # create a dict 'classname' -> {'transcoder' : ..., 'xref_table' : ...}
-       accessories = dict(
-           [ (xref_classname,
-              {'transcoder':Cache.Transcoder (self.api,xref_classname,alien_xref_objs_dict[xref_classname]),
-               'xref_table':Cache.XrefTable (self.api,xref_spec['table'],classname,xref_classname)})
-             for xref_classname,xref_spec in foreign_xrefs.iteritems()])
+        xref_accessories = dict(
+            [ (xref['field'],
+               {'transcoder' : Cache.Transcoder (self.api,xref['class'],alien_xref_objs_dict[xref['class']]),
+                'xref_table' : Cache.XrefTable (self.api,xref['table'],classname,xref['class'])})
+              for xref in foreign_xrefs ])
+
+        # the fields that are direct references, like e.g. site_id in Node
+        # determined lazily, we need an alien_object to do that, and we may have none here
+        direct_ref_fields = None
 
         ### get current local table
         # get ALL local objects so as to cope with
@@ -146,12 +148,12 @@ class Cache:
        # (*) or naming conflicts
         local_objects = table_class (self.api)
         ### index upon class_key for future searches
-       #verbose ('local objects:',local_objects)
-       verbose ('class_key',class_key)
         local_objects_index = local_objects.dict(class_key)
+
        verbose ('update_table',classname,local_objects_index.keys())
 
        ### mark entries for this peer outofdate
+        new_count=0
         old_count=0;
        for local_object in local_objects:
            if local_object['peer_id'] == peer_id:
@@ -160,7 +162,6 @@ class Cache:
            else:
                local_object.uptodate=True
 
-        new_count=0
         # scan the peer's local objects
         for alien_object in alien_object_list:
 
@@ -171,18 +172,20 @@ class Cache:
                verbose('Ignoring',object_name)
                 continue
 
-           verbose ('update_table - Considering',object_name)
+           verbose ('update_table (%s) - Considering'%classname,object_name)
                 
             # create or update
             try:
                 ### We know about this object already
                 local_object = local_objects_index[object_name]
                if local_object ['peer_id'] is None:
-                   ### xxx send e-mail
-                   print '==================== We are in trouble here'
-                   print 'The %s object named %s is natively defined twice'%(classname,object_name)
-                   print 'Once on this PLC and once on peer %d'%peer_id
-                   print 'We dont raise an exception so that the remaining updates can still take place'
+                    if report_name_conflicts:
+                       ### xxx send e-mail
+                        print '!!!!!!!!!! We are in trouble here'
+                        print 'The %s object named %s is natively defined twice, '%(classname,object_name),
+                        print 'once on this PLC and once on peer %d'%peer_id
+                        print 'We dont raise an exception so that the remaining updates can still take place'
+                        print '!!!!!!!!!!'
                    continue
                 if local_object['peer_id'] != peer_id:
                     ### the object has changed its plc, 
@@ -190,6 +193,9 @@ class Cache:
                    ### we can assume the object just moved
                    ### needs to update peer_id though
                     local_object['peer_id'] = peer_id
+                # update all fields as per foreign_fields
+                for field in foreign_fields:
+                    local_object[field]=alien_object[field]
                verbose ('update_table FOUND',object_name)
            except:
                 ### create a new entry
@@ -198,24 +204,44 @@ class Cache:
                 # insert in index
                 local_objects_index[class_key]=local_object
                verbose ('update_table CREATED',object_name)
-
-            # go on with update
-            for field in foreign_fields:
-                local_object[field]=alien_object[field]
+                # update all fields as per foreign_fields
+                for field in foreign_fields:
+                    local_object[field]=alien_object[field]
+                # this is tricky; at this point we may have primary_key unspecified,
+                # but we need it for handling xrefs below, so we'd like to sync to get one
+                # on the other hand some required fields may be still missing so
+                #  the DB would refuse to sync in this case (e.g. site_id in Node)
+                # so let's fill them with 1 so we can sync, this will be overridden below
+                # lazily determine this set of fields now
+                if direct_ref_fields is None:
+                    direct_ref_fields=[]
+                    for xref in foreign_xrefs:
+                        field=xref['field']
+                        verbose('checking field %s for direct_ref'%field)
+                        if isinstance(alien_object[field],int):
+                            direct_ref_fields.append(field)
+                    verbose("FOUND DIRECT REFS",direct_ref_fields)
+                for field in direct_ref_fields:
+                    local_object[field]=1
+                verbose('Early sync on',local_object)
+                local_object.sync()
+                verbose('Early syncing of %s, reloading'%object_name)
+                # sigh: now we have to reload it because of side-effects, like e.g. on Slice.expires
+                local_object=table_class(self.api, {class_key:object_name})[0]
+                verbose('After reload',local_object)
 
             # this row is now valid
             local_object.uptodate=True
             new_count += 1
-            local_object.sync()
 
            # manage cross-refs
-           for xref_classname,xref_spec in foreign_xrefs.iteritems():
-               field=xref_spec['field']
-               alien_xref_obj_list = alien_xref_objs_dict[xref_classname]
+           for xref in foreign_xrefs:
+               field=xref['field']
+               alien_xref_obj_list = alien_xref_objs_dict[xref['class']]
                alien_value = alien_object[field]
+               transcoder = xref_accessories[xref['field']]['transcoder']
                if isinstance (alien_value,list):
-                   verbose ('update_table list-transcoding ',xref_classname,' aliens=',alien_value,)
-                   transcoder = accessories[xref_classname]['transcoder']
+                   verbose ('update_table list-transcoding ',xref['class'],' aliens=',alien_value,)
                    local_values=[]
                    for a in alien_value:
                        try:
@@ -224,19 +250,24 @@ class Cache:
                            # could not transcode - might be from another peer that we dont know about..
                            pass
                    verbose (" transcoded as ",local_values)
-                   xref_table = accessories[xref_classname]['xref_table']
-                   # newly created objects dont have xrefs yet
+                   xref_table = xref_accessories[xref['field']]['xref_table']
+                   # newly created objects dont have xref fields set yet
                    try:
-                       former_xrefs=local_object[xref_spec['field']]
+                       former_xrefs=local_object[xref['field']]
                    except:
                        former_xrefs=[]
                    xref_table.update_item (local_object[primary_key],
                                            former_xrefs,
                                            local_values)
                elif isinstance (alien_value,int):
+                   verbose ('update_table atom-transcoding ',xref['class'],' aliens=',alien_value,)
                    new_value = transcoder.transcode(alien_value)
                    local_object[field] = new_value
-                   local_object.sync()
+
+            ### this object is completely updated, let's save it
+            verbose('FINAL sync on %s:'%object_name,local_object)
+            local_object.sync()
+                    
 
        ### delete entries that are not uptodate
         for local_object in local_objects:
@@ -247,7 +278,105 @@ class Cache:
 
         ### return delta in number of objects 
         return new_count-old_count
+
+    # slice attributes exhibit a special behaviour
+    # because there is no name we can use to retrieve/check for equality
+    # this object is like a 3-part xref, linking slice_attribute_type, slice,
+    #    and potentially node, together with a value that can change over time.
+    # extending the generic model to support a lambda rather than class_key
+    #    would clearly become overkill
+    def update_slice_attributes (self,
+                                 alien_slice_attributes,
+                                 alien_nodes,
+                                 alien_slices):
+
+        from PLC.SliceAttributeTypes import SliceAttributeTypes
+        from PLC.SliceAttributes import SliceAttribute, SliceAttributes
+
+        # init
+        peer_id = self.peer_id
+        
+        # create transcoders
+        node_xcoder = Cache.Transcoder (self.api, 'Node', alien_nodes)
+        slice_xcoder= Cache.Transcoder (self.api, 'Slice', alien_slices)
+        # no need to transcode SliceAttributeTypes, we have a name in the result
+        local_sat_dict = SliceAttributeTypes(self.api).dict('name')
+               
+        # load local objects
+        local_objects = SliceAttributes (self.api,{'peer_id':peer_id})
+
+       ### mark entries for this peer outofdate
+        new_count = 0
+        old_count=len(local_objects)
+       for local_object in local_objects:
+            local_object.uptodate=False
+
+        for alien_object in alien_slice_attributes:
+
+            verbose('----- update_slice_attributes: considering ...')
+            verbose('   ',alien_object)
+
+            # locate local slice
+            try:
+                slice_id = slice_xcoder.transcode(alien_object['slice_id'])
+            except:
+                verbose('update_slice_attributes: unable to locate slice',
+                        alien_object['slice_id'])
+                continue
+            # locate slice_attribute_type
+            try:
+                sat_id = local_sat_dict[alien_object['name']]['attribute_type_id']
+            except:
+                verbose('update_slice_attributes: unable to locate slice attribute type',
+                        alien_object['name'])
+                continue
+            # locate local node if specified
+            try:
+                alien_node_id = alien_object['node_id']
+                if alien_node_id is not None:
+                    node_id = node_xcoder.transcode(alien_node_id)
+                else:
+                    node_id=None
+            except:
+                verbose('update_slice_attributes: unable to locate node',
+                        alien_object['node_id'])
+                continue
+
+            # locate the local SliceAttribute if any
+            try:
+                verbose ('searching name=', alien_object['name'],
+                         'slice_id',slice_id, 'node_id',node_id)
+                local_object = SliceAttributes (self.api,
+                                                {'name':alien_object['name'],
+                                                 'slice_id':slice_id,
+                                                 'node_id':node_id})[0]
                 
+                if local_object['peer_id'] != peer_id:
+                    verbose ('FOUND local sa - skipped')
+                    continue
+                verbose('FOUND already cached sa')
+                local_object['value'] = alien_object['value']
+            # create it if missing
+            except:
+                local_object = SliceAttribute(self.api,
+                                              {'peer_id':peer_id,
+                                               'slice_id':slice_id,
+                                               'node_id':node_id,
+                                               'attribute_type_id':sat_id,
+                                               'value':alien_object['value']})
+                verbose('CREATED new sa')
+            local_object.uptodate=True
+            new_count += 1
+            local_object.sync()
+
+        for local_object in local_objects:
+            if not local_object.uptodate:
+                local_object.delete()
+
+        self.api.db.commit()
+        ### return delta in number of objects 
+        return new_count-old_count
+
     def get_locals (self, list):
        return [x for x in list if x['peer_id'] is None]
 
@@ -259,36 +388,66 @@ class Cache:
        # requires to know remote peer's peer_id for ourselves, mmhh..
        # does not make any difference in a 2-peer deployment though
 
+        ### uses GetPeerData to gather all info in a single xmlrpc request
+
+        # xxx see also GetPeerData - peer_id arg unused yet
+        all_data = self.peer_server.GetPeerData (self.auth,0)
+
+       # refresh sites
+       all_sites = all_data['Sites']
+       plocal_sites = self.get_locals (all_sites)
+       nb_new_sites = self.update_table('Site', plocal_sites)
+
        # refresh keys
-       all_keys = self.peer_server.GetKeys(self.auth)
-       local_keys = self.get_locals (all_keys)
-       nb_new_keys = self.update_table('Key', local_keys)
+       all_keys = all_data['Keys']
+       plocal_keys = self.get_locals (all_keys)
+       nb_new_keys = self.update_table('Key', plocal_keys)
 
        # refresh nodes
-        all_nodes = self.peer_server.GetNodes(self.auth)
-       local_nodes = self.get_locals(all_nodes)
-        nb_new_nodes = self.update_table('Node', local_nodes)
+        all_nodes = all_data['Nodes']
+       plocal_nodes = self.get_locals(all_nodes)
+        nb_new_nodes = self.update_table('Node', plocal_nodes,
+                                        { 'Site' : all_sites } )
 
        # refresh persons
-       all_persons = self.peer_server.GetPersons(self.auth)
-       local_persons = self.get_locals(all_persons)
-       nb_new_persons = self.update_table ('Person', local_persons,
-                                           { 'Key': all_keys} )
+       all_persons = all_data['Persons']
+       plocal_persons = self.get_locals(all_persons)
+       nb_new_persons = self.update_table ('Person', plocal_persons,
+                                           { 'Key': all_keys, 'Site' : all_sites } )
+
+        # refresh slice attribute types
+        all_slice_attribute_types = all_data ['SliceAttibuteTypes']
+        plocal_slice_attribute_types = self.get_locals(all_slice_attribute_types)
+        nb_new_slice_attribute_types = self.update_table ('SliceAttributeType',
+                                                          plocal_slice_attribute_types,
+                                                          report_name_conflicts = False)
 
        # refresh slices
-        local_slices = self.peer_server.GetSlices(self.auth,{'peer_id':None})
+        all_slices = all_data['Slices']
+        plocal_slices = self.get_locals(all_slices)
 
        def is_system_slice (slice):
            return slice['creator_person_id'] == 1
 
-        nb_new_slices = self.update_table ('Slice', local_slices,
-                                          {'Node': all_nodes,
-                                           'Person': all_persons},
+        nb_new_slices = self.update_table ('Slice', plocal_slices,
+                                           {'Node': all_nodes, 'Person': all_persons, 'Site': all_sites},
                                           is_system_slice)
 
+        # refresh slice attributes
+        all_slice_attributes = all_data ['SliceAttributes']
+        plocal_slice_attributes = self.get_locals(all_slice_attributes)
+        nb_new_slice_attributes = self.update_slice_attributes (plocal_slice_attributes,
+                                                                all_nodes,
+                                                                all_slices)
+
+        ### returned as-is by RefreshPeer
         return {'plcname':self.api.config.PLC_NAME,
+               'new_sites':nb_new_sites,
                'new_keys':nb_new_keys,
                 'new_nodes':nb_new_nodes,
                'new_persons':nb_new_persons,
-                'new_slices':nb_new_slices}
+                'new_slice_attribute_types':nb_new_slice_attribute_types,
+                'new_slices':nb_new_slices,
+                'new_slice_attributes':nb_new_slice_attributes,
+                }