blind review on list-operations added by 2to3:
[nepi.git] / examples / omf / testing / nepi_omf5_plexus_ccncat_linear.py
index 9d2906e..bb812ef 100644 (file)
@@ -1,22 +1,24 @@
-"""
-    NEPI, a framework to manage network experiments
-    Copyright (C) 2013 INRIA
-
-    This program is free software: you can redistribute it and/or modify
-    it under the terms of the GNU General Public License as published by
-    the Free Software Foundation, either version 3 of the License, or
-    (at your option) any later version.
-
-    This program is distributed in the hope that it will be useful,
-    but WITHOUT ANY WARRANTY; without even the implied warranty of
-    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
-    GNU General Public License for more details.
-
-    You should have received a copy of the GNU General Public License
-    along with this program.  If not, see <http://www.gnu.org/licenses/>.
+#!/usr/bin/env python
+#
+#    NEPI, a framework to manage network experiments
+#    Copyright (C) 2013 INRIA
+#
+#    This program is free software: you can redistribute it and/or modify
+#    it under the terms of the GNU General Public License version 2 as
+#    published by the Free Software Foundation;
+#
+#    This program is distributed in the hope that it will be useful,
+#    but WITHOUT ANY WARRANTY; without even the implied warranty of
+#    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
+#    GNU General Public License for more details.
+#
+#    You should have received a copy of the GNU General Public License
+#    along with this program.  If not, see <http://www.gnu.org/licenses/>.
+#
+# Author: Alina Quereilhac <alina.quereilhac@inria.fr>
+#         Julien Tribino <julien.tribino@inria.fr>
 
-    Author: Alina Quereilhac <alina.quereilhac@inria.fr>
-            Julien Tribino <julien.tribino@inria.fr>
+"""
 
     Example :
       - Testbed : Nitos
@@ -37,7 +39,6 @@
 
 """
 
-#!/usr/bin/env python
 from nepi.execution.resource import ResourceFactory, ResourceAction, ResourceState
 from nepi.execution.ec import ExperimentController
 
@@ -165,12 +166,12 @@ if __name__ == '__main__':
     nodes = dict()
 
     chann = add_channel(ec, channel, xmpp_slice, xmpp_host)
-    for i in xrange(len(all_hosts)):
-        node = add_node(ec,all_hosts[i], xmpp_slice, xmpp_host)
+    for i, host in enumerate(all_hosts):
+        node = add_node(ec,host, xmpp_slice, xmpp_host)
         iface = add_interface(ec, all_ip[i], xmpp_slice, xmpp_host)
         ec.register_connection(node, iface)
         ec.register_connection(iface, chann)
-        nodes[all_hosts[i]] = node
+        nodes[host] = node
 
 #### CCN setup for the node
 ###    ccnds = dict()
@@ -212,28 +213,28 @@ if __name__ == '__main__':
 # Do the iperf
     iperfserv = dict()
     iperfclient = dict()
-    for i in xrange(len(all_hosts)):
-        perfserv = add_app(ec, nodes[all_hosts[i]],  "#perfserv", "iperf -s > /opt/iperfserv.txt", 
+    for i, host in enumerate(all_hosts):
+        perfserv = add_app(ec, nodes[host],  "#perfserv", "iperf -s > /opt/iperfserv.txt", 
                               env, xmpp_slice, xmpp_host)
-        iperfclient[all_hosts[i]] = []
+        iperfclient[host] = []
         if i > 0:
             cmd = "iperf -c " + all_ip[i-1] + " > /opt/iperclient1.txt"
-            perfclient1 = add_app(ec, nodes[all_hosts[i]],  "#perfclient1", cmd, 
+            perfclient1 = add_app(ec, nodes[host],  "#perfclient1", cmd, 
                             env, xmpp_slice, xmpp_host)
-            iperfclient[all_hosts[i]].append(perfclient1)
+            iperfclient[host].append(perfclient1)
 
         if i < (len(all_hosts)-1):
             cmd = "iperf -c " + all_ip[i+1] + " > /opt/iperclient2.txt"
-            perfclient2 = add_app(ec, nodes[all_hosts[i]],  "#perfclient2", cmd, 
+            perfclient2 = add_app(ec, nodes[host],  "#perfclient2", cmd, 
                             env, xmpp_slice, xmpp_host)
-            iperfclient[all_hosts[i]].append(perfclient2)
+            iperfclient[host].append(perfclient2)
 
-        iperfserv[all_hosts[i]] = perfserv
+        iperfserv[host] = perfserv
 
-    for i in xrange(len(all_hosts)):
-         #ec.register_condition(iperfserv[all_hosts[i]], ResourceAction.START, link, ResourceState.STARTED, "2s")
-         for elt in iperfclient[all_hosts[i]]:
-             ec.register_condition(elt, ResourceAction.START, iperfserv[all_hosts[i]], ResourceState.STARTED, "3s")
+    for host in all_hosts:
+         #ec.register_condition(iperfserv[host], ResourceAction.START, link, ResourceState.STARTED, "2s")
+         for elt in iperfclient[host]:
+             ec.register_condition(elt, ResourceAction.START, iperfserv[host], ResourceState.STARTED, "3s")
 
 
 ## Streaming Server
@@ -256,18 +257,18 @@ if __name__ == '__main__':
 ##        ccndstop = add_app(ec, nodes[all_hosts[i]], "#ccndstop", "ccndstop", env, xmpp_slice, xmpp_host)
 ##        ccndstops.append(ccndstop)
     perfkill = dict()
-    for i in xrange(len(all_hosts)):
-        kill = add_app(ec, nodes[all_hosts[i]], "#kill", "killall iperf", "", xmpp_slice, xmpp_host)
-        perfkill[all_hosts[i]] = kill
+    for host in all_hosts:
+        kill = add_app(ec, nodes[host], "#kill", "killall iperf", "", xmpp_slice, xmpp_host)
+        perfkill[host] = kill
 
 
 # Condition to stop and clean the experiment
     apps = []
-    for i in xrange(len(all_hosts)):
-#        apps.append(ccnds[all_hosts[i]])
-#        apps.append(ccnrs[all_hosts[i]])
-        apps.append(iperfserv[all_hosts[i]])
-        for elt in iperfclient[all_hosts[i]]:
+    for host in all_hosts:
+#        apps.append(ccnds[host])
+#        apps.append(ccnrs[host])
+        apps.append(iperfserv[host])
+        for elt in iperfclient[host]:
             apps.append(elt)
 #    apps += link
     #apps.append(pub)
@@ -279,8 +280,8 @@ if __name__ == '__main__':
 #    ec.register_condition(ccndstops + [killall], ResourceAction.STOP, ccndstops, ResourceState.STARTED, "1s")
 
     killall = []
-    for i in xrange(len(all_hosts)):
-        killall.append(perfkill[all_hosts[i]])
+    for host in all_hosts:
+        killall.append(perfkill[host])
 
     ec.register_condition(killall, ResourceAction.START, apps, ResourceState.STOPPED, "1s")
     ec.register_condition(killall, ResourceAction.STOP, killall, ResourceState.STARTED, "1s")