removing Peers
authorTony Mack <tmack@paris.CS.Princeton.EDU>
Tue, 2 Oct 2012 01:38:37 +0000 (21:38 -0400)
committerTony Mack <tmack@paris.CS.Princeton.EDU>
Tue, 2 Oct 2012 01:38:37 +0000 (21:38 -0400)
PLC/Methods/AddPeer.py [deleted file]
PLC/Methods/DeletePeer.py [deleted file]
PLC/Methods/GetPeers.py [deleted file]
PLC/Methods/RefreshPeer.py [deleted file]
PLC/Methods/UpdatePeer.py [deleted file]
PLC/Peers.py [deleted file]

diff --git a/PLC/Methods/AddPeer.py b/PLC/Methods/AddPeer.py
deleted file mode 100644 (file)
index 868ce11..0000000
+++ /dev/null
@@ -1,36 +0,0 @@
-#
-# Thierry Parmentelat - INRIA
-#
-
-from PLC.Method import Method
-from PLC.Parameter import Parameter, Mixed
-from PLC.Auth import Auth
-from PLC.Peers import Peer, Peers
-
-can_update = lambda (field, value): field in \
-             ['peername', 'peer_url', 'key', 'cacert', 'shortname', 'hrn_root']
-
-class AddPeer(Method):
-    """
-    Adds a new peer.
-
-    Returns the new peer_id (> 0) if successful, faults otherwise.
-    """
-
-    roles = ['admin']
-
-    peer_fields = dict(filter(can_update, Peer.fields.items()))
-
-    accepts = [
-        Auth(),
-        peer_fields
-        ]
-
-    returns = Parameter(int, "New peer_id (> 0) if successful")
-
-    def call(self, auth, peer_fields):
-        peer = Peer(self.api, peer_fields);
-        peer.sync()
-        self.event_objects = {'Peer': [peer['peer_id']]}
-
-        return peer['peer_id']
diff --git a/PLC/Methods/DeletePeer.py b/PLC/Methods/DeletePeer.py
deleted file mode 100644 (file)
index ed0cd79..0000000
+++ /dev/null
@@ -1,38 +0,0 @@
-from PLC.Faults import *
-from PLC.Method import Method
-from PLC.Parameter import Parameter, Mixed
-from PLC.Auth import Auth
-from PLC.Peers import Peer, Peers
-
-class DeletePeer(Method):
-    """
-    Mark an existing peer as deleted. All entities (e.g., slices,
-    keys, nodes, etc.) for which this peer is authoritative will also
-    be deleted or marked as deleted.
-
-    Returns 1 if successful, faults otherwise.
-    """
-
-    roles = ['admin']
-
-    accepts = [
-        Auth(),
-        Mixed(Peer.fields['peer_id'],
-              Peer.fields['peername'])
-        ]
-
-    returns = Parameter(int, "1 if successful")
-
-    def call(self, auth, peer_id_or_name):
-        # Get account information
-        peers = Peers(self.api, [peer_id_or_name])
-        if not peers:
-            raise PLCInvalidArgument, "No such peer"
-
-        peer = peers[0]
-        peer.delete()
-
-        # Log affected objects
-        self.event_objects = {'Peer': [peer['peer_id']]}
-
-        return 1
diff --git a/PLC/Methods/GetPeers.py b/PLC/Methods/GetPeers.py
deleted file mode 100644 (file)
index dca352a..0000000
+++ /dev/null
@@ -1,47 +0,0 @@
-#
-# Thierry Parmentelat - INRIA
-#
-
-from PLC.Faults import *
-from PLC.Method import Method
-from PLC.Parameter import Parameter, Mixed
-from PLC.Filter import Filter
-from PLC.Auth import Auth
-
-from PLC.Persons import Person
-from PLC.Peers import Peer, Peers
-
-class GetPeers (Method):
-    """
-    Returns an array of structs containing details about peers. If
-    person_filter is specified and is an array of peer identifiers or
-    peer names, or a struct of peer attributes, only peers matching
-    the filter will be returned. If return_fields is specified, only the
-    specified details will be returned.
-    """
-
-    roles = ['admin', 'node','pi','user']
-
-    accepts = [
-        Auth(),
-        Mixed([Mixed(Peer.fields['peer_id'],
-                     Peer.fields['peername'])],
-              Filter(Peer.fields)),
-        Parameter([str], "List of fields to return", nullok = True)
-        ]
-
-    returns = [Peer.fields]
-
-    def call (self, auth, peer_filter = None, return_fields = None):
-
-        peers = Peers(self.api, peer_filter, return_fields)
-
-        # Remove admin only fields
-        if not isinstance(self.caller, Person) or \
-                'admin' not in self.caller['roles']:
-            for peer in peers:
-                for field in ['key', 'cacert']:
-                    if field in peer:
-                        del peer[field]
-
-        return peers
diff --git a/PLC/Methods/RefreshPeer.py b/PLC/Methods/RefreshPeer.py
deleted file mode 100644 (file)
index d9a6249..0000000
+++ /dev/null
@@ -1,678 +0,0 @@
-#
-# Thierry Parmentelat - INRIA
-#
-import os
-import sys
-import fcntl
-import time
-
-from PLC.Debug import log
-from PLC.Faults import *
-from PLC.Method import Method
-from PLC.Parameter import Parameter, Mixed
-from PLC.Auth import Auth
-
-from PLC.Peers import Peer, Peers
-from PLC.Sites import Site, Sites
-from PLC.Persons import Person, Persons
-from PLC.KeyTypes import KeyType, KeyTypes
-from PLC.Keys import Key, Keys
-from PLC.BootStates import BootState, BootStates
-from PLC.Nodes import Node, Nodes
-from PLC.SliceInstantiations import SliceInstantiations
-from PLC.Slices import Slice, Slices
-
-#################### settings
-# initial version was doing only one final commit
-# * set commit_mode to False to get that behaviour
-# * set comit_mode to True to get everything synced at once
-# the issue with the 'one-commit-at-the-end' approach is 
-# that the db gets basically totally locked during too long
-# causing various issues/crashes in the rest of the system
-commit_mode=True
-
-# turn this to False only if both ends have the same db schema
-# compatibility mode is a bit slower but probably safer on the long run
-compatibility=True
-
-#################### debugging
-# for verbose output
-verbose=False
-# set to a filename for using cached data when debugging
-# WARNING: does not actually connect to the peer in this case
-use_cache=None
-# for debugging specific entries - display detailed info on selected objs 
-focus_type=None # set to e.g. 'Person'
-focus_ids=[]    # set to a list of ids (e.g. person_ids) - remote or local ids should work
-#### example
-#use_cache="/var/log/peers/getpeerdata.pickle"
-#verbose=True
-#focus_type='Person'
-#focus_ids=[621,1088]
-
-#################### helpers
-def message (to_print=None,verbose_only=False):
-    if verbose_only and not verbose:
-        return
-    print >> log, time.strftime("%m-%d-%H-%M-%S:"),
-    if to_print:
-        print >>log, to_print
-
-def message_verbose(to_print=None, header='VERBOSE'):
-    message("%s> %r"%(header,to_print),verbose_only=True)
-
-
-#################### to avoid several instances running at the same time
-class FileLock:
-    """
-    Lock/Unlock file
-    """
-    def __init__(self, file_path, expire = 60 * 60 * 2):
-        self.expire = expire
-        self.fpath = file_path
-        self.fd = None
-
-    def lock(self):
-        if os.path.exists(self.fpath):
-            if (time.time() - os.stat(self.fpath).st_ctime) > self.expire:
-                try:
-                    os.unlink(self.fpath)
-                except Exception, e:
-                    message('FileLock.lock(%s) : %s' % (self.fpath, e))
-                    return False
-        try:
-            self.fd = open(self.fpath, 'w')
-            fcntl.flock(self.fd, fcntl.LOCK_EX | fcntl.LOCK_NB)
-        except IOError, e:
-            message('FileLock.lock(%s) : %s' % (self.fpath, e))
-            return False
-        return True
-
-    def unlock(self):
-        try:
-            fcntl.flock(self.fd, fcntl.LOCK_UN | fcntl.LOCK_NB)
-            self.fd.close()
-        except IOError, e:
-            message('FileLock.unlock(%s) : %s' % (self.fpath, e))
-
-
-class RefreshPeer(Method):
-    """
-    Fetches site, node, slice, person and key data from the specified peer
-    and caches it locally; also deletes stale entries.
-    Upon successful completion, returns a dict reporting various timers.
-    Faults otherwise.
-    """
-
-    roles = ['admin']
-
-    accepts = [
-        Auth(),
-        Mixed(Peer.fields['peer_id'],
-              Peer.fields['peername']),
-        ]
-
-    returns = Parameter(int, "1 if successful")
-
-    ignore_site_fields=['peer_id', 'peer_site_id','last_updated', 'date_created',
-                        'address_ids', 'node_ids', 'person_ids', 'pcu_ids', 'slice_ids' ]
-    ignore_key_fields=['peer_id','peer_key_id', 'person_id']
-    ignore_person_fields=['peer_id','peer_person_id','last_updated','date_created',
-                          'roles','role_ids','key_ids','site_ids','slice_ids','person_tag_ids']
-    ignore_node_fields=['peer_id','peer_node_id','last_updated','last_contact','date_created',
-                        'node_tag_ids', 'interface_ids', 'slice_ids', 'nodegroup_ids','pcu_ids','ports']
-    ignore_slice_fields=['peer_id','peer_slice_id','created',
-                         'person_ids','slice_tag_ids','node_ids',]
-
-    def call(self, auth, peer_id_or_peername):
-        ret_val = None
-        peername = Peers(self.api, [peer_id_or_peername], ['peername'])[0]['peername']
-        file_lock = FileLock("/tmp/refresh-peer-%s.lock" % peername)
-        if not file_lock.lock():
-            raise Exception, "Another instance of RefreshPeer is running."
-        try:
-            ret_val = self.real_call(auth, peer_id_or_peername)
-        except Exception, e:
-            file_lock.unlock()
-            message("RefreshPeer caught exception - BEG")
-            import traceback
-            traceback.print_exc()
-            message("RefreshPeer caught exception - END")
-            raise Exception, e
-        file_lock.unlock()
-        return ret_val
-
-
-    def real_call(self, auth, peer_id_or_peername):
-        # Get peer
-        peers = Peers(self.api, [peer_id_or_peername])
-        if not peers:
-            raise PLCInvalidArgument, "No such peer '%s'" % unicode(peer_id_or_peername)
-        peer = peers[0]
-        peer_id = peer['peer_id']
-
-        # Connect to peer API
-        peer.connect()
-
-        timers = {}
-
-        # Get peer data
-        start = time.time()
-        message('RefreshPeer starting up (commit_mode=%r)'%commit_mode)
-        if not use_cache:
-            message('Issuing GetPeerData')
-            peer_tables = peer.GetPeerData()
-        else:
-            import pickle
-            if os.path.isfile(use_cache):
-                message("use_cache: WARNING: using cached getpeerdata")
-                peer_tables=pickle.load(file(use_cache,'rb'))
-            else:
-                message("use_cache: issuing getpeerdata")
-                peer_tables = peer.GetPeerData()
-                message("use_cache: saving in cache %s",use_cache)
-                pickle.dump(peer_tables,file(use_cache,'wb'))
-                
-        # for smooth federation with 4.2 - ignore fields that are useless anyway, and rewrite boot_state
-        boot_state_rewrite={'dbg':'safeboot','diag':'safeboot','disable':'disabled',
-                            'inst':'reinstall','rins':'reinstall','new':'reinstall','rcnf':'reinstall'}
-        for node in peer_tables['Nodes']:
-            for key in ['nodenetwork_ids','dummybox_id']:
-                if key in node:
-                    del node[key]
-            if node['boot_state'] in boot_state_rewrite: node['boot_state']=boot_state_rewrite[node['boot_state']]
-        for slice in peer_tables['Slices']:
-            for key in ['slice_attribute_ids']:
-                if key in slice:
-                    del slice[key]
-        timers['transport'] = time.time() - start - peer_tables['db_time']
-        timers['peer_db'] = peer_tables['db_time']
-        message_verbose('GetPeerData returned -> db=%d transport=%d'%(timers['peer_db'],timers['transport']))
-
-        def sync(objects, peer_objects, classobj, columns):
-            """
-            Synchronizes two dictionaries of objects. objects should
-            be a dictionary of local objects keyed on their foreign
-            identifiers. peer_objects should be a dictionary of
-            foreign objects keyed on their local (i.e., foreign to us)
-            identifiers. Returns a final dictionary of local objects
-            keyed on their foreign identifiers.
-            """
-
-            classname=classobj(self.api).__class__.__name__
-            primary_key=getattr(classobj,'primary_key')
-            # display all peer objects of these types while looping
-            secondary_keys={'Node':'hostname','Slice':'name','Person':'email','Site':'login_base'}
-            secondary_key=None
-            if classname in secondary_keys: secondary_key=secondary_keys[classname]
-
-            message_verbose('Entering sync on %s (%s)'%(classname,primary_key))
-
-            synced = {}
-
-            # Delete stale objects
-            for peer_object_id, object in objects.iteritems():
-                if peer_object_id not in peer_objects:
-                    object.delete(commit = commit_mode)
-                    message("%s %s %s deleted"%(peer['peername'],classname, object[primary_key]))
-
-            total = len(peer_objects)
-            count=1
-
-            # peer_object_id, peer_object and object are dynamically bound in the loop below...
-            # (local) object might be None if creating a new one
-            def in_focus():
-                if classname != focus_type: return False
-                return peer_object_id in focus_ids or \
-                    (object and primary_key in object and object[primary_key] in focus_ids)
-
-            def message_focus (message):
-                if in_focus():
-                    # always show remote
-                    message_verbose("peer_obj : %d [[%r]]"%(peer_object_id,peer_object),
-                                    header='FOCUS '+message)
-                    # show local object if a match was found
-                    if object: message_verbose("local_obj : <<%r>>"%(object),
-                                               header='FOCUS '+message);
-
-
-            # the function to compare a local object with its cadidate peer obj
-            # xxx probably faster when compatibility is False...
-            def equal_fields (object, peer_object, columns):
-                # fast version: must use __eq__() instead of == since
-                # peer_object may be a raw dict instead of a Peer object.
-                if not compatibility: return object.__eq__(peer_object)
-                elif not verbose:
-                    for column in columns:
-#                        if in_focus(): message ('FOCUS comparing column %s'%column)
-                        if object[column] != peer_object[column]: return False
-                    return True
-                else:
-                    result=True
-                    print 'COMPARING ',
-                    for column in columns:
-                        test= object[column] == peer_object[column]
-                        print column,test,
-                        if not test: result=False
-                    print '=>',result
-                    return result
-
-            # Add/update new/existing objects
-            for peer_object_id, peer_object in peer_objects.iteritems():
-                peer_object_name=""
-                if secondary_key: peer_object_name="(%s)"%peer_object[secondary_key]
-                message_verbose ('%s peer_object_id=%d %s (%d/%d)'%(classname,peer_object_id,peer_object_name,count,total))
-                count += 1
-                if peer_object_id in synced:
-                    message("Warning: %s Skipping already added %s: %r"%(
-                            peer['peername'], classname, peer_object))
-                    continue
-
-                if peer_object_id in objects:
-                    # Update existing object
-                    object = objects[peer_object_id]
-
-                    # Replace foreign identifier with existing local
-                    # identifier temporarily for the purposes of
-                    # comparison.
-                    peer_object[primary_key] = object[primary_key]
-
-                    if not equal_fields(object,peer_object, columns):
-                        # Only update intrinsic fields
-                        object.update(object.db_fields(peer_object))
-                        message_focus ("DIFFERENCES : updated / syncing")
-                        sync = True
-                        action = "changed"
-                    else:
-                        message_focus ("UNCHANGED - left intact / not syncing")
-                        sync = False
-                        action = None
-
-                    # Restore foreign identifier
-                    peer_object[primary_key] = peer_object_id
-                else:
-                    object=None
-                    # Add new object
-                    object = classobj(self.api, peer_object)
-                    # Replace foreign identifier with new local identifier
-                    del object[primary_key]
-                    message_focus ("NEW -- created with clean id - syncing")
-                    sync = True
-                    action = "added"
-
-                if sync:
-                    message_verbose("syncing %s %d - commit_mode=%r"%(classname,peer_object_id,commit_mode))
-                    try:
-                        object.sync(commit = commit_mode)
-                    except PLCInvalidArgument, err:
-                        # Skip if validation fails
-                        # XXX Log an event instead of printing to logfile
-                        message("Warning: %s Skipping invalid %s %r : %r"%(\
-                                peer['peername'], classname, peer_object, err))
-                        continue
-
-                synced[peer_object_id] = object
-
-                if action:
-                    message("%s: (%d/%d) %s %d %s %s"%(peer['peername'], count,total, classname, 
-                                                       object[primary_key], peer_object_name, action))
-
-            message_verbose("Exiting sync on %s"%classname)
-
-            return synced
-
-        ### over time, we've had issues with a given column being
-        ### added on one side and not on the other
-        ### this helper function computes the intersection of two list of fields/columns
-        def intersect (l1,l2): 
-            if compatibility: return list (set(l1).intersection(set(l2))) 
-            else: return l1
-
-        # some fields definitely need to be ignored
-        def ignore (l1,l2):
-            return list (set(l1).difference(set(l2)))
-
-        #
-        # Synchronize foreign sites
-        #
-
-        start = time.time()
-
-        message('Dealing with Sites')
-
-        # Compare only the columns returned by the GetPeerData() call
-        if peer_tables['Sites']:
-            columns = peer_tables['Sites'][0].keys()
-            columns = intersect (columns, Site.fields)
-        else:
-            columns = None
-
-        # Keyed on foreign site_id
-        old_peer_sites = Sites(self.api, {'peer_id': peer_id}, columns).dict('peer_site_id')
-        sites_at_peer = dict([(site['site_id'], site) for site in peer_tables['Sites']])
-
-        # Synchronize new set (still keyed on foreign site_id)
-        peer_sites = sync(old_peer_sites, sites_at_peer, Site, ignore (columns, RefreshPeer.ignore_site_fields))
-
-        for peer_site_id, site in peer_sites.iteritems():
-            # Bind any newly cached sites to peer
-            if peer_site_id not in old_peer_sites:
-                peer.add_site(site, peer_site_id, commit = commit_mode)
-                site['peer_id'] = peer_id
-                site['peer_site_id'] = peer_site_id
-
-        timers['site'] = time.time() - start
-
-        #
-        # XXX Synchronize foreign key types
-        #
-
-        message('Dealing with Keys')
-
-        key_types = KeyTypes(self.api).dict()
-
-        #
-        # Synchronize foreign keys
-        #
-
-        start = time.time()
-
-        # Compare only the columns returned by the GetPeerData() call
-        if peer_tables['Keys']:
-            columns = peer_tables['Keys'][0].keys()
-            columns = intersect (columns, Key.fields)
-        else:
-            columns = None
-
-        # Keyed on foreign key_id
-        old_peer_keys = Keys(self.api, {'peer_id': peer_id}, columns).dict('peer_key_id')
-        keys_at_peer = dict([(key['key_id'], key) for key in peer_tables['Keys']])
-
-        # Fix up key_type references
-        for peer_key_id, key in keys_at_peer.items():
-            if key['key_type'] not in key_types:
-                # XXX Log an event instead of printing to logfile
-                message("Warning: Skipping invalid %s key %r" % ( peer['peername'], key))
-                del keys_at_peer[peer_key_id]
-                continue
-
-        # Synchronize new set (still keyed on foreign key_id)
-        peer_keys = sync(old_peer_keys, keys_at_peer, Key, ignore (columns, RefreshPeer.ignore_key_fields))
-        for peer_key_id, key in peer_keys.iteritems():
-            # Bind any newly cached keys to peer
-            if peer_key_id not in old_peer_keys:
-                peer.add_key(key, peer_key_id, commit = commit_mode)
-                key['peer_id'] = peer_id
-                key['peer_key_id'] = peer_key_id
-
-        timers['keys'] = time.time() - start
-
-        #
-        # Synchronize foreign users
-        #
-
-        start = time.time()
-
-        message('Dealing with Persons')
-
-        # Compare only the columns returned by the GetPeerData() call
-        if peer_tables['Persons']:
-            columns = peer_tables['Persons'][0].keys()
-            columns = intersect (columns, Person.fields)
-        else:
-            columns = None
-
-        # Keyed on foreign person_id
-        old_peer_persons = Persons(self.api, {'peer_id': peer_id}, columns).dict('peer_person_id')
-
-        # artificially attach the persons returned by GetPeerData to the new peer
-        # this is because validate_email needs peer_id to be correct when checking for duplicates
-        for person in peer_tables['Persons']:
-            person['peer_id']=peer_id
-        persons_at_peer = dict([(peer_person['person_id'], peer_person) \
-                                for peer_person in peer_tables['Persons']])
-
-        # XXX Do we care about membership in foreign site(s)?
-
-        # Synchronize new set (still keyed on foreign person_id)
-        peer_persons = sync(old_peer_persons, persons_at_peer, Person, ignore (columns, RefreshPeer.ignore_person_fields))
-
-        # transcoder : retrieve a local key_id from a peer_key_id
-        key_transcoder = dict ( [ (key['key_id'],peer_key_id) \
-                                  for peer_key_id,key in peer_keys.iteritems()])
-
-        for peer_person_id, person in peer_persons.iteritems():
-            # Bind any newly cached users to peer
-            if peer_person_id not in old_peer_persons:
-                peer.add_person(person, peer_person_id, commit = commit_mode)
-                person['peer_id'] = peer_id
-                person['peer_person_id'] = peer_person_id
-                person['key_ids'] = []
-
-            # User as viewed by peer
-            peer_person = persons_at_peer[peer_person_id]
-
-            # Foreign keys currently belonging to the user
-            old_person_key_ids = [key_transcoder[key_id] for key_id in person['key_ids'] \
-                                  if key_transcoder[key_id] in peer_keys]
-
-            # Foreign keys that should belong to the user
-            # this is basically peer_person['key_ids'], we just check it makes sense
-            # (e.g. we might have failed importing it)
-            person_key_ids = [ key_id for key_id in peer_person['key_ids'] if key_id in peer_keys]
-
-            # Remove stale keys from user
-            for key_id in (set(old_person_key_ids) - set(person_key_ids)):
-                person.remove_key(peer_keys[key_id], commit = commit_mode)
-                message ("%s Key %d removed from person %s"%(peer['peername'], key_id, person['email']))
-
-            # Add new keys to user
-            for key_id in (set(person_key_ids) - set(old_person_key_ids)):
-                message ("before add_key, passing person=%r"%person)
-                message ("before add_key, passing key=%r"%peer_keys[key_id])
-                person.add_key(peer_keys[key_id], commit = commit_mode)
-                message ("%s Key %d added into person %s"%(peer['peername'],key_id, person['email']))
-
-        timers['persons'] = time.time() - start
-
-        #
-        # XXX Synchronize foreign boot states
-        #
-
-        boot_states = BootStates(self.api).dict()
-
-        #
-        # Synchronize foreign nodes
-        #
-
-        start = time.time()
-
-        message('Dealing with Nodes (1)')
-
-        # Compare only the columns returned by the GetPeerData() call
-        if peer_tables['Nodes']:
-            columns = peer_tables['Nodes'][0].keys()
-            columns = intersect (columns, Node.fields)
-        else:
-            columns = Node.fields
-
-        # Keyed on foreign node_id
-        old_peer_nodes = Nodes(self.api, {'peer_id': peer_id}, columns).dict('peer_node_id')
-        nodes_at_peer = dict([(node['node_id'], node) \
-                              for node in peer_tables['Nodes']])
-
-        # Fix up site_id and boot_states references
-        for peer_node_id, node in nodes_at_peer.items():
-            errors = []
-            if node['site_id'] not in peer_sites:
-                errors.append("invalid site %d" % node['site_id'])
-            if node['boot_state'] not in boot_states:
-                errors.append("invalid boot state %s" % node['boot_state'])
-            if errors:
-                # XXX Log an event instead of printing to logfile
-                message ("Warning: Skipping invalid %s node %r : " % (peer['peername'], node)\
-                             + ", ".join(errors))
-                del nodes_at_peer[peer_node_id]
-                continue
-            else:
-                node['site_id'] = peer_sites[node['site_id']]['site_id']
-
-        # Synchronize new set
-        peer_nodes = sync(old_peer_nodes, nodes_at_peer, Node, ignore (columns, RefreshPeer.ignore_node_fields))
-
-        for peer_node_id, node in peer_nodes.iteritems():
-            # Bind any newly cached foreign nodes to peer
-            if peer_node_id not in old_peer_nodes:
-                peer.add_node(node, peer_node_id, commit = commit_mode)
-                node['peer_id'] = peer_id
-                node['peer_node_id'] = peer_node_id
-
-        timers['nodes'] = time.time() - start
-
-        #
-        # Synchronize local nodes
-        #
-
-        start = time.time()
-        message('Dealing with Nodes (2)')
-
-        # Keyed on local node_id
-        local_nodes = Nodes(self.api).dict()
-
-        for node in peer_tables['PeerNodes']:
-            # Foreign identifier for our node as maintained by peer
-            peer_node_id = node['node_id']
-            # Local identifier for our node as cached by peer
-            node_id = node['peer_node_id']
-            if node_id in local_nodes:
-                # Still a valid local node, add it to the synchronized
-                # set of local node objects keyed on foreign node_id.
-                peer_nodes[peer_node_id] = local_nodes[node_id]
-
-        timers['local_nodes'] = time.time() - start
-
-        #
-        # XXX Synchronize foreign slice instantiation states
-        #
-
-        slice_instantiations = SliceInstantiations(self.api).dict()
-
-        #
-        # Synchronize foreign slices
-        #
-
-        start = time.time()
-
-        message('Dealing with Slices (1)')
-
-        # Compare only the columns returned by the GetPeerData() call
-        if peer_tables['Slices']:
-            columns = peer_tables['Slices'][0].keys()
-            columns = intersect (columns, Slice.fields)
-        else:
-            columns = None
-
-        # Keyed on foreign slice_id
-        old_peer_slices = Slices(self.api, {'peer_id': peer_id}, columns).dict('peer_slice_id')
-        slices_at_peer = dict([(slice['slice_id'], slice) \
-                               for slice in peer_tables['Slices']])
-
-        # Fix up site_id, instantiation, and creator_person_id references
-        for peer_slice_id, slice in slices_at_peer.items():
-            errors = []
-            if slice['site_id'] not in peer_sites:
-                errors.append("invalid site %d" % slice['site_id'])
-            if slice['instantiation'] not in slice_instantiations:
-                errors.append("invalid instantiation %s" % slice['instantiation'])
-            if slice['creator_person_id'] not in peer_persons:
-                # Just NULL it out
-                slice['creator_person_id'] = None
-            else:
-                slice['creator_person_id'] = peer_persons[slice['creator_person_id']]['person_id']
-            if errors:
-                message("Warning: Skipping invalid %s slice %r : " % (peer['peername'], slice) \
-                            + ", ".join(errors))
-                del slices_at_peer[peer_slice_id]
-                continue
-            else:
-                slice['site_id'] = peer_sites[slice['site_id']]['site_id']
-
-        # Synchronize new set
-        peer_slices = sync(old_peer_slices, slices_at_peer, Slice, ignore (columns, RefreshPeer.ignore_slice_fields))
-
-        message('Dealing with Slices (2)')
-        # transcoder : retrieve a local node_id from a peer_node_id
-        node_transcoder = dict ( [ (node['node_id'],peer_node_id) \
-                                   for peer_node_id,node in peer_nodes.iteritems()])
-        person_transcoder = dict ( [ (person['person_id'],peer_person_id) \
-                                     for peer_person_id,person in peer_persons.iteritems()])
-
-        for peer_slice_id, slice in peer_slices.iteritems():
-            # Bind any newly cached foreign slices to peer
-            if peer_slice_id not in old_peer_slices:
-                peer.add_slice(slice, peer_slice_id, commit = commit_mode)
-                slice['peer_id'] = peer_id
-                slice['peer_slice_id'] = peer_slice_id
-                slice['node_ids'] = []
-                slice['person_ids'] = []
-
-            # Slice as viewed by peer
-            peer_slice = slices_at_peer[peer_slice_id]
-
-            # Nodes that are currently part of the slice
-            old_slice_node_ids = [ node_transcoder[node_id] for node_id in slice['node_ids'] \
-                                   if node_id in node_transcoder and node_transcoder[node_id] in peer_nodes]
-
-            # Nodes that should be part of the slice
-            slice_node_ids = [ node_id for node_id in peer_slice['node_ids'] if node_id in peer_nodes]
-
-            # Remove stale nodes from slice
-            for node_id in (set(old_slice_node_ids) - set(slice_node_ids)):
-                slice.remove_node(peer_nodes[node_id], commit = commit_mode)
-                message ("%s node %s removed from slice %s"%(peer['peername'], peer_nodes[node_id]['hostname'], slice['name']))
-
-            # Add new nodes to slice
-            for node_id in (set(slice_node_ids) - set(old_slice_node_ids)):
-                slice.add_node(peer_nodes[node_id], commit = commit_mode)
-                message ("%s node %s added into slice %s"%(peer['peername'], peer_nodes[node_id]['hostname'], slice['name']))
-
-            # N.B.: Local nodes that may have been added to the slice
-            # by hand, are removed. In other words, don't do this.
-
-            # Foreign users that are currently part of the slice
-            #old_slice_person_ids = [ person_transcoder[person_id] for person_id in slice['person_ids'] \
-            #                if person_transcoder[person_id] in peer_persons]
-            # An issue occurred with a user who registered on both sites (same email)
-            # So the remote person could not get cached locally
-            # The one-line map/filter style is nicer but ineffective here
-            old_slice_person_ids = []
-            for person_id in slice['person_ids']:
-                if not person_transcoder.has_key(person_id):
-                    message ('WARNING : person_id %d in %s not transcodable (1) - skipped'%(person_id,slice['name']))
-                elif person_transcoder[person_id] not in peer_persons:
-                    message('WARNING : person_id %d in %s not transcodable (2) - skipped'%(person_id,slice['name']))
-                else:
-                    old_slice_person_ids += [person_transcoder[person_id]]
-
-            # Foreign users that should be part of the slice
-            slice_person_ids = [ person_id for person_id in peer_slice['person_ids'] if person_id in peer_persons ]
-
-            # Remove stale users from slice
-            for person_id in (set(old_slice_person_ids) - set(slice_person_ids)):
-                slice.remove_person(peer_persons[person_id], commit = commit_mode)
-                message ("%s user %s removed from slice %s"%(peer['peername'],peer_persons[person_id]['email'], slice['name']))
-
-            # Add new users to slice
-            for person_id in (set(slice_person_ids) - set(old_slice_person_ids)):
-                slice.add_person(peer_persons[person_id], commit = commit_mode)
-                message ("%s user %s added into slice %s"%(peer['peername'],peer_persons[person_id]['email'], slice['name']))
-
-            # N.B.: Local users that may have been added to the slice
-            # by hand, are not touched.
-
-        timers['slices'] = time.time() - start
-
-        # Update peer itself and commit
-        peer.sync(commit = True)
-
-        return timers
diff --git a/PLC/Methods/UpdatePeer.py b/PLC/Methods/UpdatePeer.py
deleted file mode 100644 (file)
index cd4c1ec..0000000
+++ /dev/null
@@ -1,50 +0,0 @@
-from PLC.Faults import *
-from PLC.Method import Method
-from PLC.Parameter import Parameter, Mixed
-from PLC.Auth import Auth
-from PLC.Peers import Peer, Peers
-
-can_update = lambda (field, value): field in \
-             ['peername', 'peer_url', 'key', 'cacert', 'shortname', 'hrn_root']
-
-class UpdatePeer(Method):
-    """
-    Updates a peer. Only the fields specified in peer_fields are
-    updated, all other fields are left untouched.
-
-    Returns 1 if successful, faults otherwise.
-    """
-
-    roles = ['admin']
-
-    peer_fields = dict(filter(can_update, Peer.fields.items()))
-
-    accepts = [
-        Auth(),
-        Mixed(Peer.fields['peer_id'],
-              Peer.fields['peername']),
-        peer_fields
-        ]
-
-    returns = Parameter(int, "1 if successful")
-
-    def call(self, auth, peer_id_or_name, peer_fields):
-        peer_fields = dict(filter(can_update, peer_fields.items()))
-
-        # Get account information
-        peers = Peers(self.api, [peer_id_or_name])
-        if not peers:
-            raise PLCInvalidArgument, "No such peer"
-        peer = peers[0]
-
-        if isinstance(self.caller, Peer):
-            if self.caller['peer_id'] != peer['peer_id']:
-                raise PLCPermissionDenied, "Not allowed to update specified peer"
-
-        peer.update(peer_fields)
-        peer.sync()
-
-        # Log affected objects
-        self.event_objects = {'Peer': [peer['peer_id']]}
-
-        return 1
diff --git a/PLC/Peers.py b/PLC/Peers.py
deleted file mode 100644 (file)
index 1fa515a..0000000
+++ /dev/null
@@ -1,311 +0,0 @@
-#
-# Thierry Parmentelat - INRIA
-#
-
-import re
-from types import StringTypes
-import traceback
-from urlparse import urlparse
-
-import PLC.Auth
-from PLC.Debug import log
-from PLC.Faults import *
-from PLC.Namespace import hostname_to_hrn
-from PLC.Parameter import Parameter, Mixed
-from PLC.Filter import Filter
-from PLC.Table import Row, Table
-from PLC.Sites import Site, Sites
-from PLC.Persons import Person, Persons
-from PLC.Keys import Key, Keys
-from PLC.Nodes import Node, Nodes
-from PLC.TagTypes import TagType, TagTypes
-from PLC.NodeTags import NodeTag, NodeTags
-from PLC.SliceTags import SliceTag, SliceTags
-from PLC.Slices import Slice, Slices
-
-class Peer(Row):
-    """
-    Stores the list of peering PLCs in the peers table.
-    See the Row class for more details
-    """
-
-    table_name = 'peers'
-    primary_key = 'peer_id'
-    join_tables = ['peer_site', 'peer_person', 'peer_key', 'peer_node', 'peer_slice']
-    fields = {
-        'peer_id': Parameter (int, "Peer identifier"),
-        'peername': Parameter (str, "Peer name"),
-        'peer_url': Parameter (str, "Peer API URL"),
-        'key': Parameter(str, "Peer GPG public key"),
-        'cacert': Parameter(str, "Peer SSL public certificate"),
-        'shortname' : Parameter(str, "Peer short name"),
-        'hrn_root' : Parameter(str, "Root of this peer in a hierarchical naming space"),
-        ### cross refs
-        'site_ids': Parameter([int], "List of sites for which this peer is authoritative"),
-        'person_ids': Parameter([int], "List of users for which this peer is authoritative"),
-        'key_ids': Parameter([int], "List of keys for which this peer is authoritative"),
-        'node_ids': Parameter([int], "List of nodes for which this peer is authoritative"),
-        'slice_ids': Parameter([int], "List of slices for which this peer is authoritative"),
-        }
-
-    def validate_peername(self, peername):
-        if not len(peername):
-            raise PLCInvalidArgument, "Peer name must be specified"
-
-        conflicts = Peers(self.api, [peername])
-        for peer in conflicts:
-            if 'peer_id' not in self or self['peer_id'] != peer['peer_id']:
-                raise PLCInvalidArgument, "Peer name already in use"
-
-        return peername
-
-    def validate_peer_url(self, url):
-        """
-        Validate URL. Must be HTTPS.
-        """
-
-        (scheme, netloc, path, params, query, fragment) = urlparse(url)
-        if scheme != "https":
-            raise PLCInvalidArgument, "Peer URL scheme must be https"
-        if path[-1] != '/':
-            raise PLCInvalidArgument, "Peer URL should end with /"
-
-        return url
-
-    def delete(self, commit = True):
-        """
-        Deletes this peer and all related entities.
-        """
-
-        assert 'peer_id' in self
-
-        # Remove all related entities
-        for obj in \
-            Slices(self.api, self['slice_ids']) + \
-            Keys(self.api, self['key_ids']) + \
-            Persons(self.api, self['person_ids']) + \
-            Nodes(self.api, self['node_ids']) + \
-            Sites(self.api, self['site_ids']):
-            assert obj['peer_id'] == self['peer_id']
-            obj.delete(commit = False)
-
-        # Mark as deleted
-        self['deleted'] = True
-        self.sync(commit)
-
-    def add_site(self, site, peer_site_id, commit = True):
-        """
-        Associate a local site entry with this peer.
-        """
-
-        add = Row.add_object(Site, 'peer_site')
-        add(self, site,
-            {'peer_id': self['peer_id'],
-             'site_id': site['site_id'],
-             'peer_site_id': peer_site_id},
-            commit = commit)
-
-    def remove_site(self, site, commit = True):
-        """
-        Unassociate a site with this peer.
-        """
-
-        remove = Row.remove_object(Site, 'peer_site')
-        remove(self, site, commit)
-
-    def add_person(self, person, peer_person_id, commit = True):
-        """
-        Associate a local user entry with this peer.
-        """
-
-        add = Row.add_object(Person, 'peer_person')
-        add(self, person,
-            {'peer_id': self['peer_id'],
-             'person_id': person['person_id'],
-             'peer_person_id': peer_person_id},
-            commit = commit)
-
-    def remove_person(self, person, commit = True):
-        """
-        Unassociate a site with this peer.
-        """
-
-        remove = Row.remove_object(Person, 'peer_person')
-        remove(self, person, commit)
-
-    def add_key(self, key, peer_key_id, commit = True):
-        """
-        Associate a local key entry with this peer.
-        """
-
-        add = Row.add_object(Key, 'peer_key')
-        add(self, key,
-            {'peer_id': self['peer_id'],
-             'key_id': key['key_id'],
-             'peer_key_id': peer_key_id},
-            commit = commit)
-
-    def remove_key(self, key, commit = True):
-        """
-        Unassociate a key with this peer.
-        """
-
-        remove = Row.remove_object(Key, 'peer_key')
-        remove(self, key, commit)
-
-    def add_node(self, node, peer_node_id, commit = True):
-        """
-        Associate a local node entry with this peer.
-        """
-
-        add = Row.add_object(Node, 'peer_node')
-        add(self, node,
-            {'peer_id': self['peer_id'],
-             'node_id': node['node_id'],
-             'peer_node_id': peer_node_id},
-            commit = commit)
-
-        sites = Sites(self.api, node['site_id'], ['login_base'])
-        site = sites[0]
-        login_base = site['login_base']
-        try:
-            # attempt to manually update the 'hrn' tag with the remote prefix
-            hrn_root = self['hrn_root']
-            hrn = hostname_to_hrn(hrn_root, login_base, node['hostname'])
-            tags = {'hrn': hrn}
-            Node(self.api, node).update_tags(tags)
-        except:
-            print >>log, "WARNING: (beg) could not find out hrn on hostname=%s"%node['hostname']
-            traceback.print_exc(5,log)
-            print >>log, "WARNING: (end) could not find out hrn on hostname=%s"%node['hostname']
-
-    def remove_node(self, node, commit = True):
-        """
-        Unassociate a node with this peer.
-        """
-
-        remove = Row.remove_object(Node, 'peer_node')
-        remove(self, node, commit)
-        # attempt to manually update the 'hrn' tag now that the node is local
-        root_auth = self.api.config.PLC_HRN_ROOT
-        sites = Sites(self.api, node['site_id'], ['login_base'])
-        site = sites[0]
-        login_base = site['login_base']
-        hrn = hostname_to_hrn(root_auth, login_base, node['hostname'])
-        tags = {'hrn': hrn}
-        Node(self.api, node).update_tags(tags)
-
-    def add_slice(self, slice, peer_slice_id, commit = True):
-        """
-        Associate a local slice entry with this peer.
-        """
-
-        add = Row.add_object(Slice, 'peer_slice')
-        add(self, slice,
-            {'peer_id': self['peer_id'],
-             'slice_id': slice['slice_id'],
-             'peer_slice_id': peer_slice_id},
-            commit = commit)
-
-    def remove_slice(self, slice, commit = True):
-        """
-        Unassociate a slice with this peer.
-        """
-
-        remove = Row.remove_object(Slice, 'peer_slice')
-        remove(self, slice, commit)
-
-    def connect(self, **kwds):
-        """
-        Connect to this peer via XML-RPC.
-        """
-
-        import xmlrpclib
-        from PLC.PyCurl import PyCurlTransport
-        self.server = xmlrpclib.ServerProxy(self['peer_url'],
-                                            PyCurlTransport(self['peer_url'], self['cacert']),
-                                            allow_none = 1, **kwds)
-
-    def add_auth(self, function, methodname, **kwds):
-        """
-        Sign the specified XML-RPC call and add an auth struct as the
-        first argument of the call.
-        """
-
-        def wrapper(*args, **kwds):
-            from PLC.GPG import gpg_sign
-            signature = gpg_sign(args,
-                                 self.api.config.PLC_ROOT_GPG_KEY,
-                                 self.api.config.PLC_ROOT_GPG_KEY_PUB,
-                                 methodname)
-
-            auth = {'AuthMethod': "gpg",
-                    'name': self.api.config.PLC_NAME,
-                    'signature': signature}
-
-            # Automagically add auth struct to every call
-            args = (auth,) + args
-
-            return function(*args)
-
-        return wrapper
-
-    def __getattr__(self, attr):
-        """
-        Returns a callable API function if attr is the name of a
-        PLCAPI function; otherwise, returns the specified attribute.
-        """
-
-        try:
-            # Figure out if the specified attribute is the name of a
-            # PLCAPI function. If so and the function requires an
-            # authentication structure as its first argument, return a
-            # callable that automagically adds an auth struct to the
-            # call.
-            methodname = attr
-            api_function = self.api.callable(methodname)
-            if api_function.accepts and \
-               (isinstance(api_function.accepts[0], PLC.Auth.Auth) or \
-                (isinstance(api_function.accepts[0], Mixed) and \
-                 filter(lambda param: isinstance(param, Auth), api_function.accepts[0]))):
-                function = getattr(self.server, methodname)
-                return self.add_auth(function, methodname)
-        except Exception, err:
-            pass
-
-        if hasattr(self, attr):
-            return getattr(self, attr)
-        else:
-            raise AttributeError, "type object 'Peer' has no attribute '%s'" % attr
-
-class Peers (Table):
-    """
-    Maps to the peers table in the database
-    """
-
-    def __init__ (self, api, peer_filter = None, columns = None):
-        Table.__init__(self, api, Peer, columns)
-
-        sql = "SELECT %s FROM view_peers WHERE deleted IS False" % \
-              ", ".join(self.columns)
-
-        if peer_filter is not None:
-            if isinstance(peer_filter, (list, tuple, set)):
-                # Separate the list into integers and strings
-                ints = filter(lambda x: isinstance(x, (int, long)), peer_filter)
-                strs = filter(lambda x: isinstance(x, StringTypes), peer_filter)
-                peer_filter = Filter(Peer.fields, {'peer_id': ints, 'peername': strs})
-                sql += " AND (%s) %s" % peer_filter.sql(api, "OR")
-            elif isinstance(peer_filter, dict):
-                peer_filter = Filter(Peer.fields, peer_filter)
-                sql += " AND (%s) %s" % peer_filter.sql(api, "AND")
-            elif isinstance(peer_filter, (int, long)):
-                peer_filter = Filter(Peer.fields, {'peer_id': peer_filter})
-                sql += " AND (%s) %s" % peer_filter.sql(api, "AND")
-            elif isinstance(peer_filter, StringTypes):
-                peer_filter = Filter(Peer.fields, {'peername': peer_filter})
-                sql += " AND (%s) %s" % peer_filter.sql(api, "AND")
-            else:
-                raise PLCInvalidArgument, "Wrong peer filter %r"%peer_filter
-
-        self.selectall(sql)