ofproto-dpif: Do not mirror L2 multicast switch protocols to VLANs.
[sliver-openvswitch.git] / ofproto / ofproto-dpif.c
1 /*
2  * Copyright (c) 2009, 2010, 2011 Nicira Networks.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include <config.h>
18
19 #include "ofproto/ofproto-provider.h"
20
21 #include <errno.h>
22
23 #include "autopath.h"
24 #include "bond.h"
25 #include "byte-order.h"
26 #include "connmgr.h"
27 #include "coverage.h"
28 #include "cfm.h"
29 #include "dpif.h"
30 #include "dynamic-string.h"
31 #include "fail-open.h"
32 #include "hmapx.h"
33 #include "lacp.h"
34 #include "mac-learning.h"
35 #include "multipath.h"
36 #include "netdev.h"
37 #include "netlink.h"
38 #include "nx-match.h"
39 #include "odp-util.h"
40 #include "ofp-util.h"
41 #include "ofpbuf.h"
42 #include "ofp-print.h"
43 #include "ofproto-dpif-sflow.h"
44 #include "poll-loop.h"
45 #include "timer.h"
46 #include "unaligned.h"
47 #include "unixctl.h"
48 #include "vlan-bitmap.h"
49 #include "vlog.h"
50
51 VLOG_DEFINE_THIS_MODULE(ofproto_dpif);
52
53 COVERAGE_DEFINE(ofproto_dpif_ctlr_action);
54 COVERAGE_DEFINE(ofproto_dpif_expired);
55 COVERAGE_DEFINE(ofproto_dpif_no_packet_in);
56 COVERAGE_DEFINE(ofproto_dpif_xlate);
57 COVERAGE_DEFINE(facet_changed_rule);
58 COVERAGE_DEFINE(facet_invalidated);
59 COVERAGE_DEFINE(facet_revalidate);
60 COVERAGE_DEFINE(facet_unexpected);
61
62 /* Maximum depth of flow table recursion (due to NXAST_RESUBMIT actions) in a
63  * flow translation. */
64 #define MAX_RESUBMIT_RECURSION 16
65
66 struct ofport_dpif;
67 struct ofproto_dpif;
68
69 struct rule_dpif {
70     struct rule up;
71
72     long long int used;         /* Time last used; time created if not used. */
73
74     /* These statistics:
75      *
76      *   - Do include packets and bytes from facets that have been deleted or
77      *     whose own statistics have been folded into the rule.
78      *
79      *   - Do include packets and bytes sent "by hand" that were accounted to
80      *     the rule without any facet being involved (this is a rare corner
81      *     case in rule_execute()).
82      *
83      *   - Do not include packet or bytes that can be obtained from any facet's
84      *     packet_count or byte_count member or that can be obtained from the
85      *     datapath by, e.g., dpif_flow_get() for any facet.
86      */
87     uint64_t packet_count;       /* Number of packets received. */
88     uint64_t byte_count;         /* Number of bytes received. */
89
90     struct list facets;          /* List of "struct facet"s. */
91 };
92
93 static struct rule_dpif *rule_dpif_cast(const struct rule *rule)
94 {
95     return rule ? CONTAINER_OF(rule, struct rule_dpif, up) : NULL;
96 }
97
98 static struct rule_dpif *rule_dpif_lookup(struct ofproto_dpif *ofproto,
99                                           const struct flow *flow);
100
101 #define MAX_MIRRORS 32
102 typedef uint32_t mirror_mask_t;
103 #define MIRROR_MASK_C(X) UINT32_C(X)
104 BUILD_ASSERT_DECL(sizeof(mirror_mask_t) * CHAR_BIT >= MAX_MIRRORS);
105 struct ofmirror {
106     struct ofproto_dpif *ofproto; /* Owning ofproto. */
107     size_t idx;                 /* In ofproto's "mirrors" array. */
108     void *aux;                  /* Key supplied by ofproto's client. */
109     char *name;                 /* Identifier for log messages. */
110
111     /* Selection criteria. */
112     struct hmapx srcs;          /* Contains "struct ofbundle *"s. */
113     struct hmapx dsts;          /* Contains "struct ofbundle *"s. */
114     unsigned long *vlans;       /* Bitmap of chosen VLANs, NULL selects all. */
115
116     /* Output (mutually exclusive). */
117     struct ofbundle *out;       /* Output port or NULL. */
118     int out_vlan;               /* Output VLAN or -1. */
119 };
120
121 static void mirror_destroy(struct ofmirror *);
122
123 /* A group of one or more OpenFlow ports. */
124 #define OFBUNDLE_FLOOD ((struct ofbundle *) 1)
125 struct ofbundle {
126     struct ofproto_dpif *ofproto; /* Owning ofproto. */
127     struct hmap_node hmap_node; /* In struct ofproto's "bundles" hmap. */
128     void *aux;                  /* Key supplied by ofproto's client. */
129     char *name;                 /* Identifier for log messages. */
130
131     /* Configuration. */
132     struct list ports;          /* Contains "struct ofport"s. */
133     int vlan;                   /* -1=trunk port, else a 12-bit VLAN ID. */
134     unsigned long *trunks;      /* Bitmap of trunked VLANs, if 'vlan' == -1.
135                                  * NULL if all VLANs are trunked. */
136     struct lacp *lacp;          /* LACP if LACP is enabled, otherwise NULL. */
137     struct bond *bond;          /* Nonnull iff more than one port. */
138
139     /* Status. */
140     bool floodable;             /* True if no port has OFPPC_NO_FLOOD set. */
141
142     /* Port mirroring info. */
143     mirror_mask_t src_mirrors;  /* Mirrors triggered when packet received. */
144     mirror_mask_t dst_mirrors;  /* Mirrors triggered when packet sent. */
145     mirror_mask_t mirror_out;   /* Mirrors that output to this bundle. */
146 };
147
148 static void bundle_remove(struct ofport *);
149 static void bundle_destroy(struct ofbundle *);
150 static void bundle_del_port(struct ofport_dpif *);
151 static void bundle_run(struct ofbundle *);
152 static void bundle_wait(struct ofbundle *);
153
154 struct action_xlate_ctx {
155 /* action_xlate_ctx_init() initializes these members. */
156
157     /* The ofproto. */
158     struct ofproto_dpif *ofproto;
159
160     /* Flow to which the OpenFlow actions apply.  xlate_actions() will modify
161      * this flow when actions change header fields. */
162     struct flow flow;
163
164     /* The packet corresponding to 'flow', or a null pointer if we are
165      * revalidating without a packet to refer to. */
166     const struct ofpbuf *packet;
167
168     /* If nonnull, called just before executing a resubmit action.
169      *
170      * This is normally null so the client has to set it manually after
171      * calling action_xlate_ctx_init(). */
172     void (*resubmit_hook)(struct action_xlate_ctx *, struct rule_dpif *);
173
174 /* xlate_actions() initializes and uses these members.  The client might want
175  * to look at them after it returns. */
176
177     struct ofpbuf *odp_actions; /* Datapath actions. */
178     tag_type tags;              /* Tags associated with OFPP_NORMAL actions. */
179     bool may_set_up_flow;       /* True ordinarily; false if the actions must
180                                  * be reassessed for every packet. */
181     uint16_t nf_output_iface;   /* Output interface index for NetFlow. */
182
183 /* xlate_actions() initializes and uses these members, but the client has no
184  * reason to look at them. */
185
186     int recurse;                /* Recursion level, via xlate_table_action. */
187     uint32_t priority;          /* Current flow priority. 0 if none. */
188     struct flow base_flow;      /* Flow at the last commit. */
189     uint32_t base_priority;     /* Priority at the last commit. */
190 };
191
192 static void action_xlate_ctx_init(struct action_xlate_ctx *,
193                                   struct ofproto_dpif *, const struct flow *,
194                                   const struct ofpbuf *);
195 static struct ofpbuf *xlate_actions(struct action_xlate_ctx *,
196                                     const union ofp_action *in, size_t n_in);
197
198 /* An exact-match instantiation of an OpenFlow flow. */
199 struct facet {
200     long long int used;         /* Time last used; time created if not used. */
201
202     /* These statistics:
203      *
204      *   - Do include packets and bytes sent "by hand", e.g. with
205      *     dpif_execute().
206      *
207      *   - Do include packets and bytes that were obtained from the datapath
208      *     when a flow was deleted (e.g. dpif_flow_del()) or when its
209      *     statistics were reset (e.g. dpif_flow_put() with
210      *     DPIF_FP_ZERO_STATS).
211      *
212      *   - Do not include any packets or bytes that can currently be obtained
213      *     from the datapath by, e.g., dpif_flow_get().
214      */
215     uint64_t packet_count;       /* Number of packets received. */
216     uint64_t byte_count;         /* Number of bytes received. */
217
218     uint64_t dp_packet_count;    /* Last known packet count in the datapath. */
219     uint64_t dp_byte_count;      /* Last known byte count in the datapath. */
220
221     uint64_t rs_packet_count;    /* Packets pushed to resubmit children. */
222     uint64_t rs_byte_count;      /* Bytes pushed to resubmit children. */
223     long long int rs_used;       /* Used time pushed to resubmit children. */
224
225     /* Number of bytes passed to account_cb.  This may include bytes that can
226      * currently obtained from the datapath (thus, it can be greater than
227      * byte_count). */
228     uint64_t accounted_bytes;
229
230     struct hmap_node hmap_node;  /* In owning ofproto's 'facets' hmap. */
231     struct list list_node;       /* In owning rule's 'facets' list. */
232     struct rule_dpif *rule;      /* Owning rule. */
233     struct flow flow;            /* Exact-match flow. */
234     bool installed;              /* Installed in datapath? */
235     bool may_install;            /* True ordinarily; false if actions must
236                                   * be reassessed for every packet. */
237     size_t actions_len;          /* Number of bytes in actions[]. */
238     struct nlattr *actions;      /* Datapath actions. */
239     tag_type tags;               /* Tags. */
240     struct netflow_flow nf_flow; /* Per-flow NetFlow tracking data. */
241 };
242
243 static struct facet *facet_create(struct rule_dpif *, const struct flow *,
244                                   const struct ofpbuf *packet);
245 static void facet_remove(struct ofproto_dpif *, struct facet *);
246 static void facet_free(struct facet *);
247
248 static struct facet *facet_find(struct ofproto_dpif *, const struct flow *);
249 static struct facet *facet_lookup_valid(struct ofproto_dpif *,
250                                         const struct flow *);
251 static bool facet_revalidate(struct ofproto_dpif *, struct facet *);
252
253 static void facet_execute(struct ofproto_dpif *, struct facet *,
254                           struct ofpbuf *packet);
255
256 static int facet_put__(struct ofproto_dpif *, struct facet *,
257                        const struct nlattr *actions, size_t actions_len,
258                        struct dpif_flow_stats *);
259 static void facet_install(struct ofproto_dpif *, struct facet *,
260                           bool zero_stats);
261 static void facet_uninstall(struct ofproto_dpif *, struct facet *);
262 static void facet_flush_stats(struct ofproto_dpif *, struct facet *);
263
264 static void facet_make_actions(struct ofproto_dpif *, struct facet *,
265                                const struct ofpbuf *packet);
266 static void facet_update_time(struct ofproto_dpif *, struct facet *,
267                               long long int used);
268 static void facet_update_stats(struct ofproto_dpif *, struct facet *,
269                                const struct dpif_flow_stats *);
270 static void facet_reset_dp_stats(struct facet *, struct dpif_flow_stats *);
271 static void facet_push_stats(struct facet *);
272 static void facet_account(struct ofproto_dpif *, struct facet *,
273                           uint64_t extra_bytes);
274
275 static bool facet_is_controller_flow(struct facet *);
276
277 static void flow_push_stats(const struct rule_dpif *,
278                             struct flow *, uint64_t packets, uint64_t bytes,
279                             long long int used);
280
281 struct ofport_dpif {
282     struct ofport up;
283
284     uint32_t odp_port;
285     struct ofbundle *bundle;    /* Bundle that contains this port, if any. */
286     struct list bundle_node;    /* In struct ofbundle's "ports" list. */
287     struct cfm *cfm;            /* Connectivity Fault Management, if any. */
288     tag_type tag;               /* Tag associated with this port. */
289     uint32_t bond_stable_id;    /* stable_id to use as bond slave, or 0. */
290 };
291
292 static struct ofport_dpif *
293 ofport_dpif_cast(const struct ofport *ofport)
294 {
295     assert(ofport->ofproto->ofproto_class == &ofproto_dpif_class);
296     return ofport ? CONTAINER_OF(ofport, struct ofport_dpif, up) : NULL;
297 }
298
299 static void port_run(struct ofport_dpif *);
300 static void port_wait(struct ofport_dpif *);
301 static int set_cfm(struct ofport *, const struct cfm_settings *);
302
303 struct dpif_completion {
304     struct list list_node;
305     struct ofoperation *op;
306 };
307
308 struct ofproto_dpif {
309     struct ofproto up;
310     struct dpif *dpif;
311     int max_ports;
312
313     /* Statistics. */
314     uint64_t n_matches;
315
316     /* Bridging. */
317     struct netflow *netflow;
318     struct dpif_sflow *sflow;
319     struct hmap bundles;        /* Contains "struct ofbundle"s. */
320     struct mac_learning *ml;
321     struct ofmirror *mirrors[MAX_MIRRORS];
322     bool has_bonded_bundles;
323
324     /* Expiration. */
325     struct timer next_expiration;
326
327     /* Facets. */
328     struct hmap facets;
329     bool need_revalidate;
330     struct tag_set revalidate_set;
331
332     /* Support for debugging async flow mods. */
333     struct list completions;
334 };
335
336 /* Defer flow mod completion until "ovs-appctl ofproto/unclog"?  (Useful only
337  * for debugging the asynchronous flow_mod implementation.) */
338 static bool clogged;
339
340 static void ofproto_dpif_unixctl_init(void);
341
342 static struct ofproto_dpif *
343 ofproto_dpif_cast(const struct ofproto *ofproto)
344 {
345     assert(ofproto->ofproto_class == &ofproto_dpif_class);
346     return CONTAINER_OF(ofproto, struct ofproto_dpif, up);
347 }
348
349 static struct ofport_dpif *get_ofp_port(struct ofproto_dpif *,
350                                         uint16_t ofp_port);
351 static struct ofport_dpif *get_odp_port(struct ofproto_dpif *,
352                                         uint32_t odp_port);
353
354 /* Packet processing. */
355 static void update_learning_table(struct ofproto_dpif *,
356                                   const struct flow *, int vlan,
357                                   struct ofbundle *);
358 static bool is_admissible(struct ofproto_dpif *, const struct flow *,
359                           bool have_packet, tag_type *, int *vlanp,
360                           struct ofbundle **in_bundlep);
361 static void handle_upcall(struct ofproto_dpif *, struct dpif_upcall *);
362
363 /* Flow expiration. */
364 static int expire(struct ofproto_dpif *);
365
366 /* Utilities. */
367 static int send_packet(struct ofproto_dpif *, uint32_t odp_port,
368                        const struct ofpbuf *packet);
369
370 /* Global variables. */
371 static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
372 \f
373 /* Factory functions. */
374
375 static void
376 enumerate_types(struct sset *types)
377 {
378     dp_enumerate_types(types);
379 }
380
381 static int
382 enumerate_names(const char *type, struct sset *names)
383 {
384     return dp_enumerate_names(type, names);
385 }
386
387 static int
388 del(const char *type, const char *name)
389 {
390     struct dpif *dpif;
391     int error;
392
393     error = dpif_open(name, type, &dpif);
394     if (!error) {
395         error = dpif_delete(dpif);
396         dpif_close(dpif);
397     }
398     return error;
399 }
400 \f
401 /* Basic life-cycle. */
402
403 static struct ofproto *
404 alloc(void)
405 {
406     struct ofproto_dpif *ofproto = xmalloc(sizeof *ofproto);
407     return &ofproto->up;
408 }
409
410 static void
411 dealloc(struct ofproto *ofproto_)
412 {
413     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
414     free(ofproto);
415 }
416
417 static int
418 construct(struct ofproto *ofproto_)
419 {
420     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
421     const char *name = ofproto->up.name;
422     int error;
423     int i;
424
425     error = dpif_create_and_open(name, ofproto->up.type, &ofproto->dpif);
426     if (error) {
427         VLOG_ERR("failed to open datapath %s: %s", name, strerror(error));
428         return error;
429     }
430
431     ofproto->max_ports = dpif_get_max_ports(ofproto->dpif);
432     ofproto->n_matches = 0;
433
434     error = dpif_recv_set_mask(ofproto->dpif,
435                                ((1u << DPIF_UC_MISS) |
436                                 (1u << DPIF_UC_ACTION) |
437                                 (1u << DPIF_UC_SAMPLE)));
438     if (error) {
439         VLOG_ERR("failed to listen on datapath %s: %s", name, strerror(error));
440         dpif_close(ofproto->dpif);
441         return error;
442     }
443     dpif_flow_flush(ofproto->dpif);
444     dpif_recv_purge(ofproto->dpif);
445
446     ofproto->netflow = NULL;
447     ofproto->sflow = NULL;
448     hmap_init(&ofproto->bundles);
449     ofproto->ml = mac_learning_create();
450     for (i = 0; i < MAX_MIRRORS; i++) {
451         ofproto->mirrors[i] = NULL;
452     }
453     ofproto->has_bonded_bundles = false;
454
455     timer_set_duration(&ofproto->next_expiration, 1000);
456
457     hmap_init(&ofproto->facets);
458     ofproto->need_revalidate = false;
459     tag_set_init(&ofproto->revalidate_set);
460
461     list_init(&ofproto->completions);
462
463     ofproto->up.tables = xmalloc(sizeof *ofproto->up.tables);
464     classifier_init(&ofproto->up.tables[0]);
465     ofproto->up.n_tables = 1;
466
467     ofproto_dpif_unixctl_init();
468
469     return 0;
470 }
471
472 static void
473 complete_operations(struct ofproto_dpif *ofproto)
474 {
475     struct dpif_completion *c, *next;
476
477     LIST_FOR_EACH_SAFE (c, next, list_node, &ofproto->completions) {
478         ofoperation_complete(c->op, 0);
479         list_remove(&c->list_node);
480         free(c);
481     }
482 }
483
484 static void
485 destruct(struct ofproto *ofproto_)
486 {
487     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
488     struct rule_dpif *rule, *next_rule;
489     struct cls_cursor cursor;
490     int i;
491
492     complete_operations(ofproto);
493
494     cls_cursor_init(&cursor, &ofproto->up.tables[0], NULL);
495     CLS_CURSOR_FOR_EACH_SAFE (rule, next_rule, up.cr, &cursor) {
496         ofproto_rule_destroy(&rule->up);
497     }
498
499     for (i = 0; i < MAX_MIRRORS; i++) {
500         mirror_destroy(ofproto->mirrors[i]);
501     }
502
503     netflow_destroy(ofproto->netflow);
504     dpif_sflow_destroy(ofproto->sflow);
505     hmap_destroy(&ofproto->bundles);
506     mac_learning_destroy(ofproto->ml);
507
508     hmap_destroy(&ofproto->facets);
509
510     dpif_close(ofproto->dpif);
511 }
512
513 static int
514 run(struct ofproto *ofproto_)
515 {
516     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
517     struct ofport_dpif *ofport;
518     struct ofbundle *bundle;
519     int i;
520
521     if (!clogged) {
522         complete_operations(ofproto);
523     }
524     dpif_run(ofproto->dpif);
525
526     for (i = 0; i < 50; i++) {
527         struct dpif_upcall packet;
528         int error;
529
530         error = dpif_recv(ofproto->dpif, &packet);
531         if (error) {
532             if (error == ENODEV) {
533                 /* Datapath destroyed. */
534                 return error;
535             }
536             break;
537         }
538
539         handle_upcall(ofproto, &packet);
540     }
541
542     if (timer_expired(&ofproto->next_expiration)) {
543         int delay = expire(ofproto);
544         timer_set_duration(&ofproto->next_expiration, delay);
545     }
546
547     if (ofproto->netflow) {
548         netflow_run(ofproto->netflow);
549     }
550     if (ofproto->sflow) {
551         dpif_sflow_run(ofproto->sflow);
552     }
553
554     HMAP_FOR_EACH (ofport, up.hmap_node, &ofproto->up.ports) {
555         port_run(ofport);
556     }
557     HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
558         bundle_run(bundle);
559     }
560
561     /* Now revalidate if there's anything to do. */
562     if (ofproto->need_revalidate
563         || !tag_set_is_empty(&ofproto->revalidate_set)) {
564         struct tag_set revalidate_set = ofproto->revalidate_set;
565         bool revalidate_all = ofproto->need_revalidate;
566         struct facet *facet, *next;
567
568         /* Clear the revalidation flags. */
569         tag_set_init(&ofproto->revalidate_set);
570         ofproto->need_revalidate = false;
571
572         HMAP_FOR_EACH_SAFE (facet, next, hmap_node, &ofproto->facets) {
573             if (revalidate_all
574                 || tag_set_intersects(&revalidate_set, facet->tags)) {
575                 facet_revalidate(ofproto, facet);
576             }
577         }
578     }
579
580     return 0;
581 }
582
583 static void
584 wait(struct ofproto *ofproto_)
585 {
586     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
587     struct ofport_dpif *ofport;
588     struct ofbundle *bundle;
589
590     if (!clogged && !list_is_empty(&ofproto->completions)) {
591         poll_immediate_wake();
592     }
593
594     dpif_wait(ofproto->dpif);
595     dpif_recv_wait(ofproto->dpif);
596     if (ofproto->sflow) {
597         dpif_sflow_wait(ofproto->sflow);
598     }
599     if (!tag_set_is_empty(&ofproto->revalidate_set)) {
600         poll_immediate_wake();
601     }
602     HMAP_FOR_EACH (ofport, up.hmap_node, &ofproto->up.ports) {
603         port_wait(ofport);
604     }
605     HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
606         bundle_wait(bundle);
607     }
608     if (ofproto->need_revalidate) {
609         /* Shouldn't happen, but if it does just go around again. */
610         VLOG_DBG_RL(&rl, "need revalidate in ofproto_wait_cb()");
611         poll_immediate_wake();
612     } else {
613         timer_wait(&ofproto->next_expiration);
614     }
615 }
616
617 static void
618 flush(struct ofproto *ofproto_)
619 {
620     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
621     struct facet *facet, *next_facet;
622
623     HMAP_FOR_EACH_SAFE (facet, next_facet, hmap_node, &ofproto->facets) {
624         /* Mark the facet as not installed so that facet_remove() doesn't
625          * bother trying to uninstall it.  There is no point in uninstalling it
626          * individually since we are about to blow away all the facets with
627          * dpif_flow_flush(). */
628         facet->installed = false;
629         facet->dp_packet_count = 0;
630         facet->dp_byte_count = 0;
631         facet_remove(ofproto, facet);
632     }
633     dpif_flow_flush(ofproto->dpif);
634 }
635
636 static void
637 get_features(struct ofproto *ofproto_ OVS_UNUSED,
638              bool *arp_match_ip, uint32_t *actions)
639 {
640     *arp_match_ip = true;
641     *actions = ((1u << OFPAT_OUTPUT) |
642                 (1u << OFPAT_SET_VLAN_VID) |
643                 (1u << OFPAT_SET_VLAN_PCP) |
644                 (1u << OFPAT_STRIP_VLAN) |
645                 (1u << OFPAT_SET_DL_SRC) |
646                 (1u << OFPAT_SET_DL_DST) |
647                 (1u << OFPAT_SET_NW_SRC) |
648                 (1u << OFPAT_SET_NW_DST) |
649                 (1u << OFPAT_SET_NW_TOS) |
650                 (1u << OFPAT_SET_TP_SRC) |
651                 (1u << OFPAT_SET_TP_DST) |
652                 (1u << OFPAT_ENQUEUE));
653 }
654
655 static void
656 get_tables(struct ofproto *ofproto_, struct ofp_table_stats *ots)
657 {
658     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
659     struct odp_stats s;
660
661     strcpy(ots->name, "classifier");
662
663     dpif_get_dp_stats(ofproto->dpif, &s);
664     put_32aligned_be64(&ots->lookup_count, htonll(s.n_hit + s.n_missed));
665     put_32aligned_be64(&ots->matched_count,
666                        htonll(s.n_hit + ofproto->n_matches));
667 }
668
669 static int
670 set_netflow(struct ofproto *ofproto_,
671             const struct netflow_options *netflow_options)
672 {
673     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
674
675     if (netflow_options) {
676         if (!ofproto->netflow) {
677             ofproto->netflow = netflow_create();
678         }
679         return netflow_set_options(ofproto->netflow, netflow_options);
680     } else {
681         netflow_destroy(ofproto->netflow);
682         ofproto->netflow = NULL;
683         return 0;
684     }
685 }
686
687 static struct ofport *
688 port_alloc(void)
689 {
690     struct ofport_dpif *port = xmalloc(sizeof *port);
691     return &port->up;
692 }
693
694 static void
695 port_dealloc(struct ofport *port_)
696 {
697     struct ofport_dpif *port = ofport_dpif_cast(port_);
698     free(port);
699 }
700
701 static int
702 port_construct(struct ofport *port_)
703 {
704     struct ofport_dpif *port = ofport_dpif_cast(port_);
705     struct ofproto_dpif *ofproto = ofproto_dpif_cast(port->up.ofproto);
706
707     port->odp_port = ofp_port_to_odp_port(port->up.ofp_port);
708     port->bundle = NULL;
709     port->cfm = NULL;
710     port->tag = tag_create_random();
711
712     if (ofproto->sflow) {
713         dpif_sflow_add_port(ofproto->sflow, port->odp_port,
714                             netdev_get_name(port->up.netdev));
715     }
716
717     return 0;
718 }
719
720 static void
721 port_destruct(struct ofport *port_)
722 {
723     struct ofport_dpif *port = ofport_dpif_cast(port_);
724     struct ofproto_dpif *ofproto = ofproto_dpif_cast(port->up.ofproto);
725
726     bundle_remove(port_);
727     set_cfm(port_, NULL);
728     if (ofproto->sflow) {
729         dpif_sflow_del_port(ofproto->sflow, port->odp_port);
730     }
731 }
732
733 static void
734 port_modified(struct ofport *port_)
735 {
736     struct ofport_dpif *port = ofport_dpif_cast(port_);
737
738     if (port->bundle && port->bundle->bond) {
739         bond_slave_set_netdev(port->bundle->bond, port, port->up.netdev);
740     }
741 }
742
743 static void
744 port_reconfigured(struct ofport *port_, ovs_be32 old_config)
745 {
746     struct ofport_dpif *port = ofport_dpif_cast(port_);
747     struct ofproto_dpif *ofproto = ofproto_dpif_cast(port->up.ofproto);
748     ovs_be32 changed = old_config ^ port->up.opp.config;
749
750     if (changed & htonl(OFPPC_NO_RECV | OFPPC_NO_RECV_STP |
751                         OFPPC_NO_FWD | OFPPC_NO_FLOOD)) {
752         ofproto->need_revalidate = true;
753     }
754 }
755
756 static int
757 set_sflow(struct ofproto *ofproto_,
758           const struct ofproto_sflow_options *sflow_options)
759 {
760     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
761     struct dpif_sflow *ds = ofproto->sflow;
762     if (sflow_options) {
763         if (!ds) {
764             struct ofport_dpif *ofport;
765
766             ds = ofproto->sflow = dpif_sflow_create(ofproto->dpif);
767             HMAP_FOR_EACH (ofport, up.hmap_node, &ofproto->up.ports) {
768                 dpif_sflow_add_port(ds, ofport->odp_port,
769                                     netdev_get_name(ofport->up.netdev));
770             }
771         }
772         dpif_sflow_set_options(ds, sflow_options);
773     } else {
774         dpif_sflow_destroy(ds);
775         ofproto->sflow = NULL;
776     }
777     return 0;
778 }
779
780 static int
781 set_cfm(struct ofport *ofport_, const struct cfm_settings *s)
782 {
783     struct ofport_dpif *ofport = ofport_dpif_cast(ofport_);
784     int error;
785
786     if (!s) {
787         error = 0;
788     } else {
789         if (!ofport->cfm) {
790             ofport->cfm = cfm_create(netdev_get_name(ofport->up.netdev));
791         }
792
793         if (cfm_configure(ofport->cfm, s)) {
794             return 0;
795         }
796
797         error = EINVAL;
798     }
799     cfm_destroy(ofport->cfm);
800     ofport->cfm = NULL;
801     return error;
802 }
803
804 static int
805 get_cfm_fault(const struct ofport *ofport_)
806 {
807     struct ofport_dpif *ofport = ofport_dpif_cast(ofport_);
808
809     return ofport->cfm ? cfm_get_fault(ofport->cfm) : -1;
810 }
811 \f
812 /* Bundles. */
813
814 /* Expires all MAC learning entries associated with 'port' and forces ofproto
815  * to revalidate every flow. */
816 static void
817 bundle_flush_macs(struct ofbundle *bundle)
818 {
819     struct ofproto_dpif *ofproto = bundle->ofproto;
820     struct mac_learning *ml = ofproto->ml;
821     struct mac_entry *mac, *next_mac;
822
823     ofproto->need_revalidate = true;
824     LIST_FOR_EACH_SAFE (mac, next_mac, lru_node, &ml->lrus) {
825         if (mac->port.p == bundle) {
826             mac_learning_expire(ml, mac);
827         }
828     }
829 }
830
831 static struct ofbundle *
832 bundle_lookup(const struct ofproto_dpif *ofproto, void *aux)
833 {
834     struct ofbundle *bundle;
835
836     HMAP_FOR_EACH_IN_BUCKET (bundle, hmap_node, hash_pointer(aux, 0),
837                              &ofproto->bundles) {
838         if (bundle->aux == aux) {
839             return bundle;
840         }
841     }
842     return NULL;
843 }
844
845 /* Looks up each of the 'n_auxes' pointers in 'auxes' as bundles and adds the
846  * ones that are found to 'bundles'. */
847 static void
848 bundle_lookup_multiple(struct ofproto_dpif *ofproto,
849                        void **auxes, size_t n_auxes,
850                        struct hmapx *bundles)
851 {
852     size_t i;
853
854     hmapx_init(bundles);
855     for (i = 0; i < n_auxes; i++) {
856         struct ofbundle *bundle = bundle_lookup(ofproto, auxes[i]);
857         if (bundle) {
858             hmapx_add(bundles, bundle);
859         }
860     }
861 }
862
863 static void
864 bundle_del_port(struct ofport_dpif *port)
865 {
866     struct ofbundle *bundle = port->bundle;
867
868     bundle->ofproto->need_revalidate = true;
869
870     list_remove(&port->bundle_node);
871     port->bundle = NULL;
872
873     if (bundle->lacp) {
874         lacp_slave_unregister(bundle->lacp, port);
875     }
876     if (bundle->bond) {
877         bond_slave_unregister(bundle->bond, port);
878     }
879
880     bundle->floodable = true;
881     LIST_FOR_EACH (port, bundle_node, &bundle->ports) {
882         if (port->up.opp.config & htonl(OFPPC_NO_FLOOD)) {
883             bundle->floodable = false;
884         }
885     }
886 }
887
888 static bool
889 bundle_add_port(struct ofbundle *bundle, uint32_t ofp_port,
890                 struct lacp_slave_settings *lacp,
891                 uint32_t bond_stable_id)
892 {
893     struct ofport_dpif *port;
894
895     port = get_ofp_port(bundle->ofproto, ofp_port);
896     if (!port) {
897         return false;
898     }
899
900     if (port->bundle != bundle) {
901         bundle->ofproto->need_revalidate = true;
902         if (port->bundle) {
903             bundle_del_port(port);
904         }
905
906         port->bundle = bundle;
907         list_push_back(&bundle->ports, &port->bundle_node);
908         if (port->up.opp.config & htonl(OFPPC_NO_FLOOD)) {
909             bundle->floodable = false;
910         }
911     }
912     if (lacp) {
913         lacp_slave_register(bundle->lacp, port, lacp);
914     }
915
916     port->bond_stable_id = bond_stable_id;
917
918     return true;
919 }
920
921 static void
922 bundle_destroy(struct ofbundle *bundle)
923 {
924     struct ofproto_dpif *ofproto;
925     struct ofport_dpif *port, *next_port;
926     int i;
927
928     if (!bundle) {
929         return;
930     }
931
932     ofproto = bundle->ofproto;
933     for (i = 0; i < MAX_MIRRORS; i++) {
934         struct ofmirror *m = ofproto->mirrors[i];
935         if (m) {
936             if (m->out == bundle) {
937                 mirror_destroy(m);
938             } else if (hmapx_find_and_delete(&m->srcs, bundle)
939                        || hmapx_find_and_delete(&m->dsts, bundle)) {
940                 ofproto->need_revalidate = true;
941             }
942         }
943     }
944
945     LIST_FOR_EACH_SAFE (port, next_port, bundle_node, &bundle->ports) {
946         bundle_del_port(port);
947     }
948
949     bundle_flush_macs(bundle);
950     hmap_remove(&ofproto->bundles, &bundle->hmap_node);
951     free(bundle->name);
952     free(bundle->trunks);
953     lacp_destroy(bundle->lacp);
954     bond_destroy(bundle->bond);
955     free(bundle);
956 }
957
958 static int
959 bundle_set(struct ofproto *ofproto_, void *aux,
960            const struct ofproto_bundle_settings *s)
961 {
962     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
963     bool need_flush = false;
964     const unsigned long *trunks;
965     struct ofport_dpif *port;
966     struct ofbundle *bundle;
967     size_t i;
968     bool ok;
969
970     if (!s) {
971         bundle_destroy(bundle_lookup(ofproto, aux));
972         return 0;
973     }
974
975     assert(s->n_slaves == 1 || s->bond != NULL);
976     assert((s->lacp != NULL) == (s->lacp_slaves != NULL));
977
978     bundle = bundle_lookup(ofproto, aux);
979     if (!bundle) {
980         bundle = xmalloc(sizeof *bundle);
981
982         bundle->ofproto = ofproto;
983         hmap_insert(&ofproto->bundles, &bundle->hmap_node,
984                     hash_pointer(aux, 0));
985         bundle->aux = aux;
986         bundle->name = NULL;
987
988         list_init(&bundle->ports);
989         bundle->vlan = -1;
990         bundle->trunks = NULL;
991         bundle->lacp = NULL;
992         bundle->bond = NULL;
993
994         bundle->floodable = true;
995
996         bundle->src_mirrors = 0;
997         bundle->dst_mirrors = 0;
998         bundle->mirror_out = 0;
999     }
1000
1001     if (!bundle->name || strcmp(s->name, bundle->name)) {
1002         free(bundle->name);
1003         bundle->name = xstrdup(s->name);
1004     }
1005
1006     /* LACP. */
1007     if (s->lacp) {
1008         if (!bundle->lacp) {
1009             bundle->lacp = lacp_create();
1010         }
1011         lacp_configure(bundle->lacp, s->lacp);
1012     } else {
1013         lacp_destroy(bundle->lacp);
1014         bundle->lacp = NULL;
1015     }
1016
1017     /* Update set of ports. */
1018     ok = true;
1019     for (i = 0; i < s->n_slaves; i++) {
1020         if (!bundle_add_port(bundle, s->slaves[i],
1021                              s->lacp ? &s->lacp_slaves[i] : NULL,
1022                              s->bond_stable_ids ? s->bond_stable_ids[i] : 0)) {
1023             ok = false;
1024         }
1025     }
1026     if (!ok || list_size(&bundle->ports) != s->n_slaves) {
1027         struct ofport_dpif *next_port;
1028
1029         LIST_FOR_EACH_SAFE (port, next_port, bundle_node, &bundle->ports) {
1030             for (i = 0; i < s->n_slaves; i++) {
1031                 if (s->slaves[i] == port->up.ofp_port) {
1032                     goto found;
1033                 }
1034             }
1035
1036             bundle_del_port(port);
1037         found: ;
1038         }
1039     }
1040     assert(list_size(&bundle->ports) <= s->n_slaves);
1041
1042     if (list_is_empty(&bundle->ports)) {
1043         bundle_destroy(bundle);
1044         return EINVAL;
1045     }
1046
1047     /* Set VLAN tag. */
1048     if (s->vlan != bundle->vlan) {
1049         bundle->vlan = s->vlan;
1050         need_flush = true;
1051     }
1052
1053     /* Get trunked VLANs. */
1054     trunks = s->vlan == -1 ? NULL : s->trunks;
1055     if (!vlan_bitmap_equal(trunks, bundle->trunks)) {
1056         free(bundle->trunks);
1057         bundle->trunks = vlan_bitmap_clone(trunks);
1058         need_flush = true;
1059     }
1060
1061     /* Bonding. */
1062     if (!list_is_short(&bundle->ports)) {
1063         bundle->ofproto->has_bonded_bundles = true;
1064         if (bundle->bond) {
1065             if (bond_reconfigure(bundle->bond, s->bond)) {
1066                 ofproto->need_revalidate = true;
1067             }
1068         } else {
1069             bundle->bond = bond_create(s->bond);
1070             ofproto->need_revalidate = true;
1071         }
1072
1073         LIST_FOR_EACH (port, bundle_node, &bundle->ports) {
1074             bond_slave_register(bundle->bond, port, port->bond_stable_id,
1075                                 port->up.netdev);
1076         }
1077     } else {
1078         bond_destroy(bundle->bond);
1079         bundle->bond = NULL;
1080     }
1081
1082     /* If we changed something that would affect MAC learning, un-learn
1083      * everything on this port and force flow revalidation. */
1084     if (need_flush) {
1085         bundle_flush_macs(bundle);
1086     }
1087
1088     return 0;
1089 }
1090
1091 static void
1092 bundle_remove(struct ofport *port_)
1093 {
1094     struct ofport_dpif *port = ofport_dpif_cast(port_);
1095     struct ofbundle *bundle = port->bundle;
1096
1097     if (bundle) {
1098         bundle_del_port(port);
1099         if (list_is_empty(&bundle->ports)) {
1100             bundle_destroy(bundle);
1101         } else if (list_is_short(&bundle->ports)) {
1102             bond_destroy(bundle->bond);
1103             bundle->bond = NULL;
1104         }
1105     }
1106 }
1107
1108 static void
1109 send_pdu_cb(void *port_, const struct lacp_pdu *pdu)
1110 {
1111     static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 10);
1112     struct ofport_dpif *port = port_;
1113     uint8_t ea[ETH_ADDR_LEN];
1114     int error;
1115
1116     error = netdev_get_etheraddr(port->up.netdev, ea);
1117     if (!error) {
1118         struct lacp_pdu *packet_pdu;
1119         struct ofpbuf packet;
1120
1121         ofpbuf_init(&packet, 0);
1122         packet_pdu = eth_compose(&packet, eth_addr_lacp, ea, ETH_TYPE_LACP,
1123                                  sizeof *packet_pdu);
1124         *packet_pdu = *pdu;
1125         error = netdev_send(port->up.netdev, &packet);
1126         if (error) {
1127             VLOG_WARN_RL(&rl, "port %s: sending LACP PDU on iface %s failed "
1128                          "(%s)", port->bundle->name,
1129                          netdev_get_name(port->up.netdev), strerror(error));
1130         }
1131         ofpbuf_uninit(&packet);
1132     } else {
1133         VLOG_ERR_RL(&rl, "port %s: cannot obtain Ethernet address of iface "
1134                     "%s (%s)", port->bundle->name,
1135                     netdev_get_name(port->up.netdev), strerror(error));
1136     }
1137 }
1138
1139 static void
1140 bundle_send_learning_packets(struct ofbundle *bundle)
1141 {
1142     struct ofproto_dpif *ofproto = bundle->ofproto;
1143     int error, n_packets, n_errors;
1144     struct mac_entry *e;
1145
1146     error = n_packets = n_errors = 0;
1147     LIST_FOR_EACH (e, lru_node, &ofproto->ml->lrus) {
1148         if (e->port.p != bundle) {
1149             int ret = bond_send_learning_packet(bundle->bond, e->mac, e->vlan);
1150             if (ret) {
1151                 error = ret;
1152                 n_errors++;
1153             }
1154             n_packets++;
1155         }
1156     }
1157
1158     if (n_errors) {
1159         static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
1160         VLOG_WARN_RL(&rl, "bond %s: %d errors sending %d gratuitous learning "
1161                      "packets, last error was: %s",
1162                      bundle->name, n_errors, n_packets, strerror(error));
1163     } else {
1164         VLOG_DBG("bond %s: sent %d gratuitous learning packets",
1165                  bundle->name, n_packets);
1166     }
1167 }
1168
1169 static void
1170 bundle_run(struct ofbundle *bundle)
1171 {
1172     if (bundle->lacp) {
1173         lacp_run(bundle->lacp, send_pdu_cb);
1174     }
1175     if (bundle->bond) {
1176         struct ofport_dpif *port;
1177
1178         LIST_FOR_EACH (port, bundle_node, &bundle->ports) {
1179             bool may_enable = lacp_slave_may_enable(bundle->lacp, port);
1180
1181             if (may_enable && port->cfm) {
1182                 may_enable = !cfm_get_fault(port->cfm);
1183             }
1184             bond_slave_set_may_enable(bundle->bond, port, may_enable);
1185         }
1186
1187         bond_run(bundle->bond, &bundle->ofproto->revalidate_set,
1188                  lacp_negotiated(bundle->lacp));
1189         if (bond_should_send_learning_packets(bundle->bond)) {
1190             bundle_send_learning_packets(bundle);
1191         }
1192     }
1193 }
1194
1195 static void
1196 bundle_wait(struct ofbundle *bundle)
1197 {
1198     if (bundle->lacp) {
1199         lacp_wait(bundle->lacp);
1200     }
1201     if (bundle->bond) {
1202         bond_wait(bundle->bond);
1203     }
1204 }
1205 \f
1206 /* Mirrors. */
1207
1208 static int
1209 mirror_scan(struct ofproto_dpif *ofproto)
1210 {
1211     int idx;
1212
1213     for (idx = 0; idx < MAX_MIRRORS; idx++) {
1214         if (!ofproto->mirrors[idx]) {
1215             return idx;
1216         }
1217     }
1218     return -1;
1219 }
1220
1221 static struct ofmirror *
1222 mirror_lookup(struct ofproto_dpif *ofproto, void *aux)
1223 {
1224     int i;
1225
1226     for (i = 0; i < MAX_MIRRORS; i++) {
1227         struct ofmirror *mirror = ofproto->mirrors[i];
1228         if (mirror && mirror->aux == aux) {
1229             return mirror;
1230         }
1231     }
1232
1233     return NULL;
1234 }
1235
1236 static int
1237 mirror_set(struct ofproto *ofproto_, void *aux,
1238            const struct ofproto_mirror_settings *s)
1239 {
1240     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1241     mirror_mask_t mirror_bit;
1242     struct ofbundle *bundle;
1243     struct ofmirror *mirror;
1244     struct ofbundle *out;
1245     struct hmapx srcs;          /* Contains "struct ofbundle *"s. */
1246     struct hmapx dsts;          /* Contains "struct ofbundle *"s. */
1247     int out_vlan;
1248
1249     mirror = mirror_lookup(ofproto, aux);
1250     if (!s) {
1251         mirror_destroy(mirror);
1252         return 0;
1253     }
1254     if (!mirror) {
1255         int idx;
1256
1257         idx = mirror_scan(ofproto);
1258         if (idx < 0) {
1259             VLOG_WARN("bridge %s: maximum of %d port mirrors reached, "
1260                       "cannot create %s",
1261                       ofproto->up.name, MAX_MIRRORS, s->name);
1262             return EFBIG;
1263         }
1264
1265         mirror = ofproto->mirrors[idx] = xzalloc(sizeof *mirror);
1266         mirror->ofproto = ofproto;
1267         mirror->idx = idx;
1268         mirror->out_vlan = -1;
1269         mirror->name = NULL;
1270     }
1271
1272     if (!mirror->name || strcmp(s->name, mirror->name)) {
1273         free(mirror->name);
1274         mirror->name = xstrdup(s->name);
1275     }
1276
1277     /* Get the new configuration. */
1278     if (s->out_bundle) {
1279         out = bundle_lookup(ofproto, s->out_bundle);
1280         if (!out) {
1281             mirror_destroy(mirror);
1282             return EINVAL;
1283         }
1284         out_vlan = -1;
1285     } else {
1286         out = NULL;
1287         out_vlan = s->out_vlan;
1288     }
1289     bundle_lookup_multiple(ofproto, s->srcs, s->n_srcs, &srcs);
1290     bundle_lookup_multiple(ofproto, s->dsts, s->n_dsts, &dsts);
1291
1292     /* If the configuration has not changed, do nothing. */
1293     if (hmapx_equals(&srcs, &mirror->srcs)
1294         && hmapx_equals(&dsts, &mirror->dsts)
1295         && vlan_bitmap_equal(mirror->vlans, s->src_vlans)
1296         && mirror->out == out
1297         && mirror->out_vlan == out_vlan)
1298     {
1299         hmapx_destroy(&srcs);
1300         hmapx_destroy(&dsts);
1301         return 0;
1302     }
1303
1304     hmapx_swap(&srcs, &mirror->srcs);
1305     hmapx_destroy(&srcs);
1306
1307     hmapx_swap(&dsts, &mirror->dsts);
1308     hmapx_destroy(&dsts);
1309
1310     free(mirror->vlans);
1311     mirror->vlans = vlan_bitmap_clone(s->src_vlans);
1312
1313     mirror->out = out;
1314     mirror->out_vlan = out_vlan;
1315
1316     /* Update bundles. */
1317     mirror_bit = MIRROR_MASK_C(1) << mirror->idx;
1318     HMAP_FOR_EACH (bundle, hmap_node, &mirror->ofproto->bundles) {
1319         if (hmapx_contains(&mirror->srcs, bundle)) {
1320             bundle->src_mirrors |= mirror_bit;
1321         } else {
1322             bundle->src_mirrors &= ~mirror_bit;
1323         }
1324
1325         if (hmapx_contains(&mirror->dsts, bundle)) {
1326             bundle->dst_mirrors |= mirror_bit;
1327         } else {
1328             bundle->dst_mirrors &= ~mirror_bit;
1329         }
1330
1331         if (mirror->out == bundle) {
1332             bundle->mirror_out |= mirror_bit;
1333         } else {
1334             bundle->mirror_out &= ~mirror_bit;
1335         }
1336     }
1337
1338     ofproto->need_revalidate = true;
1339     mac_learning_flush(ofproto->ml);
1340
1341     return 0;
1342 }
1343
1344 static void
1345 mirror_destroy(struct ofmirror *mirror)
1346 {
1347     struct ofproto_dpif *ofproto;
1348     mirror_mask_t mirror_bit;
1349     struct ofbundle *bundle;
1350
1351     if (!mirror) {
1352         return;
1353     }
1354
1355     ofproto = mirror->ofproto;
1356     ofproto->need_revalidate = true;
1357     mac_learning_flush(ofproto->ml);
1358
1359     mirror_bit = MIRROR_MASK_C(1) << mirror->idx;
1360     HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
1361         bundle->src_mirrors &= ~mirror_bit;
1362         bundle->dst_mirrors &= ~mirror_bit;
1363         bundle->mirror_out &= ~mirror_bit;
1364     }
1365
1366     hmapx_destroy(&mirror->srcs);
1367     hmapx_destroy(&mirror->dsts);
1368     free(mirror->vlans);
1369
1370     ofproto->mirrors[mirror->idx] = NULL;
1371     free(mirror->name);
1372     free(mirror);
1373 }
1374
1375 static int
1376 set_flood_vlans(struct ofproto *ofproto_, unsigned long *flood_vlans)
1377 {
1378     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1379     if (mac_learning_set_flood_vlans(ofproto->ml, flood_vlans)) {
1380         ofproto->need_revalidate = true;
1381         mac_learning_flush(ofproto->ml);
1382     }
1383     return 0;
1384 }
1385
1386 static bool
1387 is_mirror_output_bundle(struct ofproto *ofproto_, void *aux)
1388 {
1389     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1390     struct ofbundle *bundle = bundle_lookup(ofproto, aux);
1391     return bundle && bundle->mirror_out != 0;
1392 }
1393 \f
1394 /* Ports. */
1395
1396 static struct ofport_dpif *
1397 get_ofp_port(struct ofproto_dpif *ofproto, uint16_t ofp_port)
1398 {
1399     struct ofport *ofport = ofproto_get_port(&ofproto->up, ofp_port);
1400     return ofport ? ofport_dpif_cast(ofport) : NULL;
1401 }
1402
1403 static struct ofport_dpif *
1404 get_odp_port(struct ofproto_dpif *ofproto, uint32_t odp_port)
1405 {
1406     return get_ofp_port(ofproto, odp_port_to_ofp_port(odp_port));
1407 }
1408
1409 static void
1410 ofproto_port_from_dpif_port(struct ofproto_port *ofproto_port,
1411                             struct dpif_port *dpif_port)
1412 {
1413     ofproto_port->name = dpif_port->name;
1414     ofproto_port->type = dpif_port->type;
1415     ofproto_port->ofp_port = odp_port_to_ofp_port(dpif_port->port_no);
1416 }
1417
1418 static void
1419 port_run(struct ofport_dpif *ofport)
1420 {
1421     if (ofport->cfm) {
1422         cfm_run(ofport->cfm);
1423
1424         if (cfm_should_send_ccm(ofport->cfm)) {
1425             struct ofpbuf packet;
1426
1427             ofpbuf_init(&packet, 0);
1428             cfm_compose_ccm(ofport->cfm, &packet, ofport->up.opp.hw_addr);
1429             send_packet(ofproto_dpif_cast(ofport->up.ofproto),
1430                         ofport->odp_port, &packet);
1431             ofpbuf_uninit(&packet);
1432         }
1433     }
1434 }
1435
1436 static void
1437 port_wait(struct ofport_dpif *ofport)
1438 {
1439     if (ofport->cfm) {
1440         cfm_wait(ofport->cfm);
1441     }
1442 }
1443
1444 static int
1445 port_query_by_name(const struct ofproto *ofproto_, const char *devname,
1446                    struct ofproto_port *ofproto_port)
1447 {
1448     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1449     struct dpif_port dpif_port;
1450     int error;
1451
1452     error = dpif_port_query_by_name(ofproto->dpif, devname, &dpif_port);
1453     if (!error) {
1454         ofproto_port_from_dpif_port(ofproto_port, &dpif_port);
1455     }
1456     return error;
1457 }
1458
1459 static int
1460 port_add(struct ofproto *ofproto_, struct netdev *netdev, uint16_t *ofp_portp)
1461 {
1462     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1463     uint16_t odp_port;
1464     int error;
1465
1466     error = dpif_port_add(ofproto->dpif, netdev, &odp_port);
1467     if (!error) {
1468         *ofp_portp = odp_port_to_ofp_port(odp_port);
1469     }
1470     return error;
1471 }
1472
1473 static int
1474 port_del(struct ofproto *ofproto_, uint16_t ofp_port)
1475 {
1476     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1477     int error;
1478
1479     error = dpif_port_del(ofproto->dpif, ofp_port_to_odp_port(ofp_port));
1480     if (!error) {
1481         struct ofport_dpif *ofport = get_ofp_port(ofproto, ofp_port);
1482         if (ofport) {
1483             /* The caller is going to close ofport->up.netdev.  If this is a
1484              * bonded port, then the bond is using that netdev, so remove it
1485              * from the bond.  The client will need to reconfigure everything
1486              * after deleting ports, so then the slave will get re-added. */
1487             bundle_remove(&ofport->up);
1488         }
1489     }
1490     return error;
1491 }
1492
1493 struct port_dump_state {
1494     struct dpif_port_dump dump;
1495     bool done;
1496 };
1497
1498 static int
1499 port_dump_start(const struct ofproto *ofproto_, void **statep)
1500 {
1501     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1502     struct port_dump_state *state;
1503
1504     *statep = state = xmalloc(sizeof *state);
1505     dpif_port_dump_start(&state->dump, ofproto->dpif);
1506     state->done = false;
1507     return 0;
1508 }
1509
1510 static int
1511 port_dump_next(const struct ofproto *ofproto_ OVS_UNUSED, void *state_,
1512                struct ofproto_port *port)
1513 {
1514     struct port_dump_state *state = state_;
1515     struct dpif_port dpif_port;
1516
1517     if (dpif_port_dump_next(&state->dump, &dpif_port)) {
1518         ofproto_port_from_dpif_port(port, &dpif_port);
1519         return 0;
1520     } else {
1521         int error = dpif_port_dump_done(&state->dump);
1522         state->done = true;
1523         return error ? error : EOF;
1524     }
1525 }
1526
1527 static int
1528 port_dump_done(const struct ofproto *ofproto_ OVS_UNUSED, void *state_)
1529 {
1530     struct port_dump_state *state = state_;
1531
1532     if (!state->done) {
1533         dpif_port_dump_done(&state->dump);
1534     }
1535     free(state);
1536     return 0;
1537 }
1538
1539 static int
1540 port_poll(const struct ofproto *ofproto_, char **devnamep)
1541 {
1542     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1543     return dpif_port_poll(ofproto->dpif, devnamep);
1544 }
1545
1546 static void
1547 port_poll_wait(const struct ofproto *ofproto_)
1548 {
1549     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1550     dpif_port_poll_wait(ofproto->dpif);
1551 }
1552
1553 static int
1554 port_is_lacp_current(const struct ofport *ofport_)
1555 {
1556     const struct ofport_dpif *ofport = ofport_dpif_cast(ofport_);
1557     return (ofport->bundle && ofport->bundle->lacp
1558             ? lacp_slave_is_current(ofport->bundle->lacp, ofport)
1559             : -1);
1560 }
1561 \f
1562 /* Upcall handling. */
1563
1564 /* Given 'upcall', of type DPIF_UC_ACTION or DPIF_UC_MISS, sends an
1565  * OFPT_PACKET_IN message to each OpenFlow controller as necessary according to
1566  * their individual configurations.
1567  *
1568  * If 'clone' is true, the caller retains ownership of 'upcall->packet'.
1569  * Otherwise, ownership is transferred to this function. */
1570 static void
1571 send_packet_in(struct ofproto_dpif *ofproto, struct dpif_upcall *upcall,
1572                const struct flow *flow, bool clone)
1573 {
1574     struct ofputil_packet_in pin;
1575
1576     pin.packet = upcall->packet;
1577     pin.in_port = flow->in_port;
1578     pin.reason = upcall->type == DPIF_UC_MISS ? OFPR_NO_MATCH : OFPR_ACTION;
1579     pin.buffer_id = 0;          /* not yet known */
1580     pin.send_len = upcall->userdata;
1581     connmgr_send_packet_in(ofproto->up.connmgr, &pin, flow,
1582                            clone ? NULL : upcall->packet);
1583 }
1584
1585 static bool
1586 process_special(struct ofproto_dpif *ofproto, const struct flow *flow,
1587                 const struct ofpbuf *packet)
1588 {
1589     if (cfm_should_process_flow(flow)) {
1590         struct ofport_dpif *ofport = get_ofp_port(ofproto, flow->in_port);
1591         if (packet && ofport && ofport->cfm) {
1592             cfm_process_heartbeat(ofport->cfm, packet);
1593         }
1594         return true;
1595     } else if (flow->dl_type == htons(ETH_TYPE_LACP)) {
1596         struct ofport_dpif *port = get_ofp_port(ofproto, flow->in_port);
1597         if (packet && port && port->bundle && port->bundle->lacp) {
1598             const struct lacp_pdu *pdu = parse_lacp_packet(packet);
1599             if (pdu) {
1600                 lacp_process_pdu(port->bundle->lacp, port, pdu);
1601             }
1602         }
1603         return true;
1604     }
1605     return false;
1606 }
1607
1608 static void
1609 handle_miss_upcall(struct ofproto_dpif *ofproto, struct dpif_upcall *upcall)
1610 {
1611     struct facet *facet;
1612     struct flow flow;
1613
1614     /* Obtain in_port and tun_id, at least. */
1615     odp_flow_key_to_flow(upcall->key, upcall->key_len, &flow);
1616
1617     /* Set header pointers in 'flow'. */
1618     flow_extract(upcall->packet, flow.tun_id, flow.in_port, &flow);
1619
1620     /* Handle 802.1ag and LACP. */
1621     if (process_special(ofproto, &flow, upcall->packet)) {
1622         ofpbuf_delete(upcall->packet);
1623         ofproto->n_matches++;
1624         return;
1625     }
1626
1627     /* Check with in-band control to see if this packet should be sent
1628      * to the local port regardless of the flow table. */
1629     if (connmgr_msg_in_hook(ofproto->up.connmgr, &flow, upcall->packet)) {
1630         send_packet(ofproto, ODPP_LOCAL, upcall->packet);
1631     }
1632
1633     facet = facet_lookup_valid(ofproto, &flow);
1634     if (!facet) {
1635         struct rule_dpif *rule = rule_dpif_lookup(ofproto, &flow);
1636         if (!rule) {
1637             /* Don't send a packet-in if OFPPC_NO_PACKET_IN asserted. */
1638             struct ofport_dpif *port = get_ofp_port(ofproto, flow.in_port);
1639             if (port) {
1640                 if (port->up.opp.config & htonl(OFPPC_NO_PACKET_IN)) {
1641                     COVERAGE_INC(ofproto_dpif_no_packet_in);
1642                     /* XXX install 'drop' flow entry */
1643                     ofpbuf_delete(upcall->packet);
1644                     return;
1645                 }
1646             } else {
1647                 VLOG_WARN_RL(&rl, "packet-in on unknown port %"PRIu16,
1648                              flow.in_port);
1649             }
1650
1651             send_packet_in(ofproto, upcall, &flow, false);
1652             return;
1653         }
1654
1655         facet = facet_create(rule, &flow, upcall->packet);
1656     } else if (!facet->may_install) {
1657         /* The facet is not installable, that is, we need to process every
1658          * packet, so process the current packet's actions into 'facet'. */
1659         facet_make_actions(ofproto, facet, upcall->packet);
1660     }
1661
1662     if (facet->rule->up.cr.priority == FAIL_OPEN_PRIORITY) {
1663         /*
1664          * Extra-special case for fail-open mode.
1665          *
1666          * We are in fail-open mode and the packet matched the fail-open rule,
1667          * but we are connected to a controller too.  We should send the packet
1668          * up to the controller in the hope that it will try to set up a flow
1669          * and thereby allow us to exit fail-open.
1670          *
1671          * See the top-level comment in fail-open.c for more information.
1672          */
1673         send_packet_in(ofproto, upcall, &flow, true);
1674     }
1675
1676     facet_execute(ofproto, facet, upcall->packet);
1677     facet_install(ofproto, facet, false);
1678     ofproto->n_matches++;
1679 }
1680
1681 static void
1682 handle_upcall(struct ofproto_dpif *ofproto, struct dpif_upcall *upcall)
1683 {
1684     struct flow flow;
1685
1686     switch (upcall->type) {
1687     case DPIF_UC_ACTION:
1688         COVERAGE_INC(ofproto_dpif_ctlr_action);
1689         odp_flow_key_to_flow(upcall->key, upcall->key_len, &flow);
1690         send_packet_in(ofproto, upcall, &flow, false);
1691         break;
1692
1693     case DPIF_UC_SAMPLE:
1694         if (ofproto->sflow) {
1695             odp_flow_key_to_flow(upcall->key, upcall->key_len, &flow);
1696             dpif_sflow_received(ofproto->sflow, upcall, &flow);
1697         }
1698         ofpbuf_delete(upcall->packet);
1699         break;
1700
1701     case DPIF_UC_MISS:
1702         handle_miss_upcall(ofproto, upcall);
1703         break;
1704
1705     case DPIF_N_UC_TYPES:
1706     default:
1707         VLOG_WARN_RL(&rl, "upcall has unexpected type %"PRIu32, upcall->type);
1708         break;
1709     }
1710 }
1711 \f
1712 /* Flow expiration. */
1713
1714 static int facet_max_idle(const struct ofproto_dpif *);
1715 static void update_stats(struct ofproto_dpif *);
1716 static void rule_expire(struct rule_dpif *);
1717 static void expire_facets(struct ofproto_dpif *, int dp_max_idle);
1718
1719 /* This function is called periodically by run().  Its job is to collect
1720  * updates for the flows that have been installed into the datapath, most
1721  * importantly when they last were used, and then use that information to
1722  * expire flows that have not been used recently.
1723  *
1724  * Returns the number of milliseconds after which it should be called again. */
1725 static int
1726 expire(struct ofproto_dpif *ofproto)
1727 {
1728     struct rule_dpif *rule, *next_rule;
1729     struct cls_cursor cursor;
1730     int dp_max_idle;
1731
1732     /* Update stats for each flow in the datapath. */
1733     update_stats(ofproto);
1734
1735     /* Expire facets that have been idle too long. */
1736     dp_max_idle = facet_max_idle(ofproto);
1737     expire_facets(ofproto, dp_max_idle);
1738
1739     /* Expire OpenFlow flows whose idle_timeout or hard_timeout has passed. */
1740     cls_cursor_init(&cursor, &ofproto->up.tables[0], NULL);
1741     CLS_CURSOR_FOR_EACH_SAFE (rule, next_rule, up.cr, &cursor) {
1742         rule_expire(rule);
1743     }
1744
1745     /* All outstanding data in existing flows has been accounted, so it's a
1746      * good time to do bond rebalancing. */
1747     if (ofproto->has_bonded_bundles) {
1748         struct ofbundle *bundle;
1749
1750         HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
1751             if (bundle->bond) {
1752                 bond_rebalance(bundle->bond, &ofproto->revalidate_set);
1753             }
1754         }
1755     }
1756
1757     return MIN(dp_max_idle, 1000);
1758 }
1759
1760 /* Update 'packet_count', 'byte_count', and 'used' members of installed facets.
1761  *
1762  * This function also pushes statistics updates to rules which each facet
1763  * resubmits into.  Generally these statistics will be accurate.  However, if a
1764  * facet changes the rule it resubmits into at some time in between
1765  * update_stats() runs, it is possible that statistics accrued to the
1766  * old rule will be incorrectly attributed to the new rule.  This could be
1767  * avoided by calling update_stats() whenever rules are created or
1768  * deleted.  However, the performance impact of making so many calls to the
1769  * datapath do not justify the benefit of having perfectly accurate statistics.
1770  */
1771 static void
1772 update_stats(struct ofproto_dpif *p)
1773 {
1774     const struct dpif_flow_stats *stats;
1775     struct dpif_flow_dump dump;
1776     const struct nlattr *key;
1777     size_t key_len;
1778
1779     dpif_flow_dump_start(&dump, p->dpif);
1780     while (dpif_flow_dump_next(&dump, &key, &key_len, NULL, NULL, &stats)) {
1781         struct facet *facet;
1782         struct flow flow;
1783
1784         if (odp_flow_key_to_flow(key, key_len, &flow)) {
1785             struct ds s;
1786
1787             ds_init(&s);
1788             odp_flow_key_format(key, key_len, &s);
1789             VLOG_WARN_RL(&rl, "failed to convert ODP flow key to flow: %s",
1790                          ds_cstr(&s));
1791             ds_destroy(&s);
1792
1793             continue;
1794         }
1795         facet = facet_find(p, &flow);
1796
1797         if (facet && facet->installed) {
1798
1799             if (stats->n_packets >= facet->dp_packet_count) {
1800                 uint64_t extra = stats->n_packets - facet->dp_packet_count;
1801                 facet->packet_count += extra;
1802             } else {
1803                 VLOG_WARN_RL(&rl, "unexpected packet count from the datapath");
1804             }
1805
1806             if (stats->n_bytes >= facet->dp_byte_count) {
1807                 facet->byte_count += stats->n_bytes - facet->dp_byte_count;
1808             } else {
1809                 VLOG_WARN_RL(&rl, "unexpected byte count from datapath");
1810             }
1811
1812             facet->dp_packet_count = stats->n_packets;
1813             facet->dp_byte_count = stats->n_bytes;
1814
1815             facet_update_time(p, facet, stats->used);
1816             facet_account(p, facet, stats->n_bytes);
1817             facet_push_stats(facet);
1818         } else {
1819             /* There's a flow in the datapath that we know nothing about.
1820              * Delete it. */
1821             COVERAGE_INC(facet_unexpected);
1822             dpif_flow_del(p->dpif, key, key_len, NULL);
1823         }
1824     }
1825     dpif_flow_dump_done(&dump);
1826 }
1827
1828 /* Calculates and returns the number of milliseconds of idle time after which
1829  * facets should expire from the datapath and we should fold their statistics
1830  * into their parent rules in userspace. */
1831 static int
1832 facet_max_idle(const struct ofproto_dpif *ofproto)
1833 {
1834     /*
1835      * Idle time histogram.
1836      *
1837      * Most of the time a switch has a relatively small number of facets.  When
1838      * this is the case we might as well keep statistics for all of them in
1839      * userspace and to cache them in the kernel datapath for performance as
1840      * well.
1841      *
1842      * As the number of facets increases, the memory required to maintain
1843      * statistics about them in userspace and in the kernel becomes
1844      * significant.  However, with a large number of facets it is likely that
1845      * only a few of them are "heavy hitters" that consume a large amount of
1846      * bandwidth.  At this point, only heavy hitters are worth caching in the
1847      * kernel and maintaining in userspaces; other facets we can discard.
1848      *
1849      * The technique used to compute the idle time is to build a histogram with
1850      * N_BUCKETS buckets whose width is BUCKET_WIDTH msecs each.  Each facet
1851      * that is installed in the kernel gets dropped in the appropriate bucket.
1852      * After the histogram has been built, we compute the cutoff so that only
1853      * the most-recently-used 1% of facets (but at least 1000 flows) are kept
1854      * cached.  At least the most-recently-used bucket of facets is kept, so
1855      * actually an arbitrary number of facets can be kept in any given
1856      * expiration run (though the next run will delete most of those unless
1857      * they receive additional data).
1858      *
1859      * This requires a second pass through the facets, in addition to the pass
1860      * made by update_stats(), because the former function never looks
1861      * at uninstallable facets.
1862      */
1863     enum { BUCKET_WIDTH = ROUND_UP(100, TIME_UPDATE_INTERVAL) };
1864     enum { N_BUCKETS = 5000 / BUCKET_WIDTH };
1865     int buckets[N_BUCKETS] = { 0 };
1866     int total, subtotal, bucket;
1867     struct facet *facet;
1868     long long int now;
1869     int i;
1870
1871     total = hmap_count(&ofproto->facets);
1872     if (total <= 1000) {
1873         return N_BUCKETS * BUCKET_WIDTH;
1874     }
1875
1876     /* Build histogram. */
1877     now = time_msec();
1878     HMAP_FOR_EACH (facet, hmap_node, &ofproto->facets) {
1879         long long int idle = now - facet->used;
1880         int bucket = (idle <= 0 ? 0
1881                       : idle >= BUCKET_WIDTH * N_BUCKETS ? N_BUCKETS - 1
1882                       : (unsigned int) idle / BUCKET_WIDTH);
1883         buckets[bucket]++;
1884     }
1885
1886     /* Find the first bucket whose flows should be expired. */
1887     subtotal = bucket = 0;
1888     do {
1889         subtotal += buckets[bucket++];
1890     } while (bucket < N_BUCKETS && subtotal < MAX(1000, total / 100));
1891
1892     if (VLOG_IS_DBG_ENABLED()) {
1893         struct ds s;
1894
1895         ds_init(&s);
1896         ds_put_cstr(&s, "keep");
1897         for (i = 0; i < N_BUCKETS; i++) {
1898             if (i == bucket) {
1899                 ds_put_cstr(&s, ", drop");
1900             }
1901             if (buckets[i]) {
1902                 ds_put_format(&s, " %d:%d", i * BUCKET_WIDTH, buckets[i]);
1903             }
1904         }
1905         VLOG_INFO("%s: %s (msec:count)", ofproto->up.name, ds_cstr(&s));
1906         ds_destroy(&s);
1907     }
1908
1909     return bucket * BUCKET_WIDTH;
1910 }
1911
1912 static void
1913 facet_active_timeout(struct ofproto_dpif *ofproto, struct facet *facet)
1914 {
1915     if (ofproto->netflow && !facet_is_controller_flow(facet) &&
1916         netflow_active_timeout_expired(ofproto->netflow, &facet->nf_flow)) {
1917         struct ofexpired expired;
1918
1919         if (facet->installed) {
1920             struct dpif_flow_stats stats;
1921
1922             facet_put__(ofproto, facet, facet->actions, facet->actions_len,
1923                         &stats);
1924             facet_update_stats(ofproto, facet, &stats);
1925         }
1926
1927         expired.flow = facet->flow;
1928         expired.packet_count = facet->packet_count;
1929         expired.byte_count = facet->byte_count;
1930         expired.used = facet->used;
1931         netflow_expire(ofproto->netflow, &facet->nf_flow, &expired);
1932     }
1933 }
1934
1935 static void
1936 expire_facets(struct ofproto_dpif *ofproto, int dp_max_idle)
1937 {
1938     long long int cutoff = time_msec() - dp_max_idle;
1939     struct facet *facet, *next_facet;
1940
1941     HMAP_FOR_EACH_SAFE (facet, next_facet, hmap_node, &ofproto->facets) {
1942         facet_active_timeout(ofproto, facet);
1943         if (facet->used < cutoff) {
1944             facet_remove(ofproto, facet);
1945         }
1946     }
1947 }
1948
1949 /* If 'rule' is an OpenFlow rule, that has expired according to OpenFlow rules,
1950  * then delete it entirely. */
1951 static void
1952 rule_expire(struct rule_dpif *rule)
1953 {
1954     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
1955     struct facet *facet, *next_facet;
1956     long long int now;
1957     uint8_t reason;
1958
1959     /* Has 'rule' expired? */
1960     now = time_msec();
1961     if (rule->up.hard_timeout
1962         && now > rule->up.created + rule->up.hard_timeout * 1000) {
1963         reason = OFPRR_HARD_TIMEOUT;
1964     } else if (rule->up.idle_timeout && list_is_empty(&rule->facets)
1965                && now > rule->used + rule->up.idle_timeout * 1000) {
1966         reason = OFPRR_IDLE_TIMEOUT;
1967     } else {
1968         return;
1969     }
1970
1971     COVERAGE_INC(ofproto_dpif_expired);
1972
1973     /* Update stats.  (This is a no-op if the rule expired due to an idle
1974      * timeout, because that only happens when the rule has no facets left.) */
1975     LIST_FOR_EACH_SAFE (facet, next_facet, list_node, &rule->facets) {
1976         facet_remove(ofproto, facet);
1977     }
1978
1979     /* Get rid of the rule. */
1980     ofproto_rule_expire(&rule->up, reason);
1981 }
1982 \f
1983 /* Facets. */
1984
1985 /* Creates and returns a new facet owned by 'rule', given a 'flow' and an
1986  * example 'packet' within that flow.
1987  *
1988  * The caller must already have determined that no facet with an identical
1989  * 'flow' exists in 'ofproto' and that 'flow' is the best match for 'rule' in
1990  * the ofproto's classifier table. */
1991 static struct facet *
1992 facet_create(struct rule_dpif *rule, const struct flow *flow,
1993              const struct ofpbuf *packet)
1994 {
1995     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
1996     struct facet *facet;
1997
1998     facet = xzalloc(sizeof *facet);
1999     facet->used = time_msec();
2000     hmap_insert(&ofproto->facets, &facet->hmap_node, flow_hash(flow, 0));
2001     list_push_back(&rule->facets, &facet->list_node);
2002     facet->rule = rule;
2003     facet->flow = *flow;
2004     netflow_flow_init(&facet->nf_flow);
2005     netflow_flow_update_time(ofproto->netflow, &facet->nf_flow, facet->used);
2006
2007     facet_make_actions(ofproto, facet, packet);
2008
2009     return facet;
2010 }
2011
2012 static void
2013 facet_free(struct facet *facet)
2014 {
2015     free(facet->actions);
2016     free(facet);
2017 }
2018
2019 /* Executes, within 'ofproto', the 'n_actions' actions in 'actions' on
2020  * 'packet', which arrived on 'in_port'.
2021  *
2022  * Takes ownership of 'packet'. */
2023 static bool
2024 execute_odp_actions(struct ofproto_dpif *ofproto, const struct flow *flow,
2025                     const struct nlattr *odp_actions, size_t actions_len,
2026                     struct ofpbuf *packet)
2027 {
2028     if (actions_len == NLA_ALIGN(NLA_HDRLEN + sizeof(uint64_t))
2029         && odp_actions->nla_type == ODP_ACTION_ATTR_CONTROLLER) {
2030         /* As an optimization, avoid a round-trip from userspace to kernel to
2031          * userspace.  This also avoids possibly filling up kernel packet
2032          * buffers along the way. */
2033         struct dpif_upcall upcall;
2034
2035         upcall.type = DPIF_UC_ACTION;
2036         upcall.packet = packet;
2037         upcall.key = NULL;
2038         upcall.key_len = 0;
2039         upcall.userdata = nl_attr_get_u64(odp_actions);
2040         upcall.sample_pool = 0;
2041         upcall.actions = NULL;
2042         upcall.actions_len = 0;
2043
2044         send_packet_in(ofproto, &upcall, flow, false);
2045
2046         return true;
2047     } else {
2048         struct odputil_keybuf keybuf;
2049         struct ofpbuf key;
2050         int error;
2051
2052         ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
2053         odp_flow_key_from_flow(&key, flow);
2054
2055         error = dpif_execute(ofproto->dpif, key.data, key.size,
2056                              odp_actions, actions_len, packet);
2057
2058         ofpbuf_delete(packet);
2059         return !error;
2060     }
2061 }
2062
2063 /* Executes the actions indicated by 'facet' on 'packet' and credits 'facet''s
2064  * statistics appropriately.  'packet' must have at least sizeof(struct
2065  * ofp_packet_in) bytes of headroom.
2066  *
2067  * For correct results, 'packet' must actually be in 'facet''s flow; that is,
2068  * applying flow_extract() to 'packet' would yield the same flow as
2069  * 'facet->flow'.
2070  *
2071  * 'facet' must have accurately composed ODP actions; that is, it must not be
2072  * in need of revalidation.
2073  *
2074  * Takes ownership of 'packet'. */
2075 static void
2076 facet_execute(struct ofproto_dpif *ofproto, struct facet *facet,
2077               struct ofpbuf *packet)
2078 {
2079     struct dpif_flow_stats stats;
2080
2081     assert(ofpbuf_headroom(packet) >= sizeof(struct ofp_packet_in));
2082
2083     flow_extract_stats(&facet->flow, packet, &stats);
2084     stats.used = time_msec();
2085     if (execute_odp_actions(ofproto, &facet->flow,
2086                             facet->actions, facet->actions_len, packet)) {
2087         facet_update_stats(ofproto, facet, &stats);
2088     }
2089 }
2090
2091 /* Remove 'facet' from 'ofproto' and free up the associated memory:
2092  *
2093  *   - If 'facet' was installed in the datapath, uninstalls it and updates its
2094  *     rule's statistics, via facet_uninstall().
2095  *
2096  *   - Removes 'facet' from its rule and from ofproto->facets.
2097  */
2098 static void
2099 facet_remove(struct ofproto_dpif *ofproto, struct facet *facet)
2100 {
2101     facet_uninstall(ofproto, facet);
2102     facet_flush_stats(ofproto, facet);
2103     hmap_remove(&ofproto->facets, &facet->hmap_node);
2104     list_remove(&facet->list_node);
2105     facet_free(facet);
2106 }
2107
2108 /* Composes the ODP actions for 'facet' based on its rule's actions. */
2109 static void
2110 facet_make_actions(struct ofproto_dpif *p, struct facet *facet,
2111                    const struct ofpbuf *packet)
2112 {
2113     const struct rule_dpif *rule = facet->rule;
2114     struct ofpbuf *odp_actions;
2115     struct action_xlate_ctx ctx;
2116
2117     action_xlate_ctx_init(&ctx, p, &facet->flow, packet);
2118     odp_actions = xlate_actions(&ctx, rule->up.actions, rule->up.n_actions);
2119     facet->tags = ctx.tags;
2120     facet->may_install = ctx.may_set_up_flow;
2121     facet->nf_flow.output_iface = ctx.nf_output_iface;
2122
2123     if (facet->actions_len != odp_actions->size
2124         || memcmp(facet->actions, odp_actions->data, odp_actions->size)) {
2125         free(facet->actions);
2126         facet->actions_len = odp_actions->size;
2127         facet->actions = xmemdup(odp_actions->data, odp_actions->size);
2128     }
2129
2130     ofpbuf_delete(odp_actions);
2131 }
2132
2133 /* Updates 'facet''s flow in the datapath setting its actions to 'actions_len'
2134  * bytes of actions in 'actions'.  If 'stats' is non-null, statistics counters
2135  * in the datapath will be zeroed and 'stats' will be updated with traffic new
2136  * since 'facet' was last updated.
2137  *
2138  * Returns 0 if successful, otherwise a positive errno value.*/
2139 static int
2140 facet_put__(struct ofproto_dpif *ofproto, struct facet *facet,
2141             const struct nlattr *actions, size_t actions_len,
2142             struct dpif_flow_stats *stats)
2143 {
2144     struct odputil_keybuf keybuf;
2145     enum dpif_flow_put_flags flags;
2146     struct ofpbuf key;
2147     int ret;
2148
2149     flags = DPIF_FP_CREATE | DPIF_FP_MODIFY;
2150     if (stats) {
2151         flags |= DPIF_FP_ZERO_STATS;
2152     }
2153
2154     ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
2155     odp_flow_key_from_flow(&key, &facet->flow);
2156
2157     ret = dpif_flow_put(ofproto->dpif, flags, key.data, key.size,
2158                         actions, actions_len, stats);
2159
2160     if (stats) {
2161         facet_reset_dp_stats(facet, stats);
2162     }
2163
2164     return ret;
2165 }
2166
2167 /* If 'facet' is installable, inserts or re-inserts it into 'p''s datapath.  If
2168  * 'zero_stats' is true, clears any existing statistics from the datapath for
2169  * 'facet'. */
2170 static void
2171 facet_install(struct ofproto_dpif *p, struct facet *facet, bool zero_stats)
2172 {
2173     struct dpif_flow_stats stats;
2174
2175     if (facet->may_install
2176         && !facet_put__(p, facet, facet->actions, facet->actions_len,
2177                         zero_stats ? &stats : NULL)) {
2178         facet->installed = true;
2179     }
2180 }
2181
2182 static int
2183 vlan_tci_to_openflow_vlan(ovs_be16 vlan_tci)
2184 {
2185     return vlan_tci != htons(0) ? vlan_tci_to_vid(vlan_tci) : OFP_VLAN_NONE;
2186 }
2187
2188 static void
2189 facet_account(struct ofproto_dpif *ofproto,
2190               struct facet *facet, uint64_t extra_bytes)
2191 {
2192     uint64_t total_bytes, n_bytes;
2193     struct ofbundle *in_bundle;
2194     const struct nlattr *a;
2195     tag_type dummy = 0;
2196     unsigned int left;
2197     ovs_be16 vlan_tci;
2198     int vlan;
2199
2200     total_bytes = facet->byte_count + extra_bytes;
2201     if (total_bytes <= facet->accounted_bytes) {
2202         return;
2203     }
2204     n_bytes = total_bytes - facet->accounted_bytes;
2205     facet->accounted_bytes = total_bytes;
2206
2207     /* Test that 'tags' is nonzero to ensure that only flows that include an
2208      * OFPP_NORMAL action are used for learning and bond slave rebalancing.
2209      * This works because OFPP_NORMAL always sets a nonzero tag value.
2210      *
2211      * Feed information from the active flows back into the learning table to
2212      * ensure that table is always in sync with what is actually flowing
2213      * through the datapath. */
2214     if (!facet->tags
2215         || !is_admissible(ofproto, &facet->flow, false, &dummy,
2216                           &vlan, &in_bundle)) {
2217         return;
2218     }
2219
2220     update_learning_table(ofproto, &facet->flow, vlan, in_bundle);
2221
2222     if (!ofproto->has_bonded_bundles) {
2223         return;
2224     }
2225
2226     /* This loop feeds byte counters to bond_account() for rebalancing to use
2227      * as a basis.  We also need to track the actual VLAN on which the packet
2228      * is going to be sent to ensure that it matches the one passed to
2229      * bond_choose_output_slave().  (Otherwise, we will account to the wrong
2230      * hash bucket.) */
2231     vlan_tci = facet->flow.vlan_tci;
2232     NL_ATTR_FOR_EACH_UNSAFE (a, left, facet->actions, facet->actions_len) {
2233         struct ofport_dpif *port;
2234
2235         switch (nl_attr_type(a)) {
2236         case ODP_ACTION_ATTR_OUTPUT:
2237             port = get_odp_port(ofproto, nl_attr_get_u32(a));
2238             if (port && port->bundle && port->bundle->bond) {
2239                 bond_account(port->bundle->bond, &facet->flow,
2240                              vlan_tci_to_openflow_vlan(vlan_tci), n_bytes);
2241             }
2242             break;
2243
2244         case ODP_ACTION_ATTR_STRIP_VLAN:
2245             vlan_tci = htons(0);
2246             break;
2247
2248         case ODP_ACTION_ATTR_SET_DL_TCI:
2249             vlan_tci = nl_attr_get_be16(a);
2250             break;
2251         }
2252     }
2253 }
2254
2255 /* If 'rule' is installed in the datapath, uninstalls it. */
2256 static void
2257 facet_uninstall(struct ofproto_dpif *p, struct facet *facet)
2258 {
2259     if (facet->installed) {
2260         struct odputil_keybuf keybuf;
2261         struct dpif_flow_stats stats;
2262         struct ofpbuf key;
2263         int error;
2264
2265         ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
2266         odp_flow_key_from_flow(&key, &facet->flow);
2267
2268         error = dpif_flow_del(p->dpif, key.data, key.size, &stats);
2269         facet_reset_dp_stats(facet, &stats);
2270         if (!error) {
2271             facet_update_stats(p, facet, &stats);
2272         }
2273         facet->installed = false;
2274     } else {
2275         assert(facet->dp_packet_count == 0);
2276         assert(facet->dp_byte_count == 0);
2277     }
2278 }
2279
2280 /* Returns true if the only action for 'facet' is to send to the controller.
2281  * (We don't report NetFlow expiration messages for such facets because they
2282  * are just part of the control logic for the network, not real traffic). */
2283 static bool
2284 facet_is_controller_flow(struct facet *facet)
2285 {
2286     return (facet
2287             && facet->rule->up.n_actions == 1
2288             && action_outputs_to_port(&facet->rule->up.actions[0],
2289                                       htons(OFPP_CONTROLLER)));
2290 }
2291
2292 /* Resets 'facet''s datapath statistics counters.  This should be called when
2293  * 'facet''s statistics are cleared in the datapath.  If 'stats' is non-null,
2294  * it should contain the statistics returned by dpif when 'facet' was reset in
2295  * the datapath.  'stats' will be modified to only included statistics new
2296  * since 'facet' was last updated. */
2297 static void
2298 facet_reset_dp_stats(struct facet *facet, struct dpif_flow_stats *stats)
2299 {
2300     if (stats && facet->dp_packet_count <= stats->n_packets
2301         && facet->dp_byte_count <= stats->n_bytes) {
2302         stats->n_packets -= facet->dp_packet_count;
2303         stats->n_bytes -= facet->dp_byte_count;
2304     }
2305
2306     facet->dp_packet_count = 0;
2307     facet->dp_byte_count = 0;
2308 }
2309
2310 /* Folds all of 'facet''s statistics into its rule.  Also updates the
2311  * accounting ofhook and emits a NetFlow expiration if appropriate.  All of
2312  * 'facet''s statistics in the datapath should have been zeroed and folded into
2313  * its packet and byte counts before this function is called. */
2314 static void
2315 facet_flush_stats(struct ofproto_dpif *ofproto, struct facet *facet)
2316 {
2317     assert(!facet->dp_byte_count);
2318     assert(!facet->dp_packet_count);
2319
2320     facet_push_stats(facet);
2321     facet_account(ofproto, facet, 0);
2322
2323     if (ofproto->netflow && !facet_is_controller_flow(facet)) {
2324         struct ofexpired expired;
2325         expired.flow = facet->flow;
2326         expired.packet_count = facet->packet_count;
2327         expired.byte_count = facet->byte_count;
2328         expired.used = facet->used;
2329         netflow_expire(ofproto->netflow, &facet->nf_flow, &expired);
2330     }
2331
2332     facet->rule->packet_count += facet->packet_count;
2333     facet->rule->byte_count += facet->byte_count;
2334
2335     /* Reset counters to prevent double counting if 'facet' ever gets
2336      * reinstalled. */
2337     facet->packet_count = 0;
2338     facet->byte_count = 0;
2339     facet->rs_packet_count = 0;
2340     facet->rs_byte_count = 0;
2341     facet->accounted_bytes = 0;
2342
2343     netflow_flow_clear(&facet->nf_flow);
2344 }
2345
2346 /* Searches 'ofproto''s table of facets for one exactly equal to 'flow'.
2347  * Returns it if found, otherwise a null pointer.
2348  *
2349  * The returned facet might need revalidation; use facet_lookup_valid()
2350  * instead if that is important. */
2351 static struct facet *
2352 facet_find(struct ofproto_dpif *ofproto, const struct flow *flow)
2353 {
2354     struct facet *facet;
2355
2356     HMAP_FOR_EACH_WITH_HASH (facet, hmap_node, flow_hash(flow, 0),
2357                              &ofproto->facets) {
2358         if (flow_equal(flow, &facet->flow)) {
2359             return facet;
2360         }
2361     }
2362
2363     return NULL;
2364 }
2365
2366 /* Searches 'ofproto''s table of facets for one exactly equal to 'flow'.
2367  * Returns it if found, otherwise a null pointer.
2368  *
2369  * The returned facet is guaranteed to be valid. */
2370 static struct facet *
2371 facet_lookup_valid(struct ofproto_dpif *ofproto, const struct flow *flow)
2372 {
2373     struct facet *facet = facet_find(ofproto, flow);
2374
2375     /* The facet we found might not be valid, since we could be in need of
2376      * revalidation.  If it is not valid, don't return it. */
2377     if (facet
2378         && ofproto->need_revalidate
2379         && !facet_revalidate(ofproto, facet)) {
2380         COVERAGE_INC(facet_invalidated);
2381         return NULL;
2382     }
2383
2384     return facet;
2385 }
2386
2387 /* Re-searches 'ofproto''s classifier for a rule matching 'facet':
2388  *
2389  *   - If the rule found is different from 'facet''s current rule, moves
2390  *     'facet' to the new rule and recompiles its actions.
2391  *
2392  *   - If the rule found is the same as 'facet''s current rule, leaves 'facet'
2393  *     where it is and recompiles its actions anyway.
2394  *
2395  *   - If there is none, destroys 'facet'.
2396  *
2397  * Returns true if 'facet' still exists, false if it has been destroyed. */
2398 static bool
2399 facet_revalidate(struct ofproto_dpif *ofproto, struct facet *facet)
2400 {
2401     struct action_xlate_ctx ctx;
2402     struct ofpbuf *odp_actions;
2403     struct rule_dpif *new_rule;
2404     bool actions_changed;
2405
2406     COVERAGE_INC(facet_revalidate);
2407
2408     /* Determine the new rule. */
2409     new_rule = rule_dpif_lookup(ofproto, &facet->flow);
2410     if (!new_rule) {
2411         /* No new rule, so delete the facet. */
2412         facet_remove(ofproto, facet);
2413         return false;
2414     }
2415
2416     /* Calculate new ODP actions.
2417      *
2418      * We do not modify any 'facet' state yet, because we might need to, e.g.,
2419      * emit a NetFlow expiration and, if so, we need to have the old state
2420      * around to properly compose it. */
2421     action_xlate_ctx_init(&ctx, ofproto, &facet->flow, NULL);
2422     odp_actions = xlate_actions(&ctx,
2423                                 new_rule->up.actions, new_rule->up.n_actions);
2424     actions_changed = (facet->actions_len != odp_actions->size
2425                        || memcmp(facet->actions, odp_actions->data,
2426                                  facet->actions_len));
2427
2428     /* If the ODP actions changed or the installability changed, then we need
2429      * to talk to the datapath. */
2430     if (actions_changed || ctx.may_set_up_flow != facet->installed) {
2431         if (ctx.may_set_up_flow) {
2432             struct dpif_flow_stats stats;
2433
2434             facet_put__(ofproto, facet,
2435                         odp_actions->data, odp_actions->size, &stats);
2436             facet_update_stats(ofproto, facet, &stats);
2437         } else {
2438             facet_uninstall(ofproto, facet);
2439         }
2440
2441         /* The datapath flow is gone or has zeroed stats, so push stats out of
2442          * 'facet' into 'rule'. */
2443         facet_flush_stats(ofproto, facet);
2444     }
2445
2446     /* Update 'facet' now that we've taken care of all the old state. */
2447     facet->tags = ctx.tags;
2448     facet->nf_flow.output_iface = ctx.nf_output_iface;
2449     facet->may_install = ctx.may_set_up_flow;
2450     if (actions_changed) {
2451         free(facet->actions);
2452         facet->actions_len = odp_actions->size;
2453         facet->actions = xmemdup(odp_actions->data, odp_actions->size);
2454     }
2455     if (facet->rule != new_rule) {
2456         COVERAGE_INC(facet_changed_rule);
2457         list_remove(&facet->list_node);
2458         list_push_back(&new_rule->facets, &facet->list_node);
2459         facet->rule = new_rule;
2460         facet->used = new_rule->up.created;
2461         facet->rs_used = facet->used;
2462     }
2463
2464     ofpbuf_delete(odp_actions);
2465
2466     return true;
2467 }
2468
2469 /* Updates 'facet''s used time.  Caller is responsible for calling
2470  * facet_push_stats() to update the flows which 'facet' resubmits into. */
2471 static void
2472 facet_update_time(struct ofproto_dpif *ofproto, struct facet *facet,
2473                   long long int used)
2474 {
2475     if (used > facet->used) {
2476         facet->used = used;
2477         if (used > facet->rule->used) {
2478             facet->rule->used = used;
2479         }
2480         netflow_flow_update_time(ofproto->netflow, &facet->nf_flow, used);
2481     }
2482 }
2483
2484 /* Folds the statistics from 'stats' into the counters in 'facet'.
2485  *
2486  * Because of the meaning of a facet's counters, it only makes sense to do this
2487  * if 'stats' are not tracked in the datapath, that is, if 'stats' represents a
2488  * packet that was sent by hand or if it represents statistics that have been
2489  * cleared out of the datapath. */
2490 static void
2491 facet_update_stats(struct ofproto_dpif *ofproto, struct facet *facet,
2492                    const struct dpif_flow_stats *stats)
2493 {
2494     if (stats->n_packets || stats->used > facet->used) {
2495         facet_update_time(ofproto, facet, stats->used);
2496         facet->packet_count += stats->n_packets;
2497         facet->byte_count += stats->n_bytes;
2498         facet_push_stats(facet);
2499         netflow_flow_update_flags(&facet->nf_flow, stats->tcp_flags);
2500     }
2501 }
2502
2503 static void
2504 facet_push_stats(struct facet *facet)
2505 {
2506     uint64_t rs_packets, rs_bytes;
2507
2508     assert(facet->packet_count >= facet->rs_packet_count);
2509     assert(facet->byte_count >= facet->rs_byte_count);
2510     assert(facet->used >= facet->rs_used);
2511
2512     rs_packets = facet->packet_count - facet->rs_packet_count;
2513     rs_bytes = facet->byte_count - facet->rs_byte_count;
2514
2515     if (rs_packets || rs_bytes || facet->used > facet->rs_used) {
2516         facet->rs_packet_count = facet->packet_count;
2517         facet->rs_byte_count = facet->byte_count;
2518         facet->rs_used = facet->used;
2519
2520         flow_push_stats(facet->rule, &facet->flow,
2521                         rs_packets, rs_bytes, facet->used);
2522     }
2523 }
2524
2525 struct ofproto_push {
2526     struct action_xlate_ctx ctx;
2527     uint64_t packets;
2528     uint64_t bytes;
2529     long long int used;
2530 };
2531
2532 static void
2533 push_resubmit(struct action_xlate_ctx *ctx, struct rule_dpif *rule)
2534 {
2535     struct ofproto_push *push = CONTAINER_OF(ctx, struct ofproto_push, ctx);
2536
2537     if (rule) {
2538         rule->packet_count += push->packets;
2539         rule->byte_count += push->bytes;
2540         rule->used = MAX(push->used, rule->used);
2541     }
2542 }
2543
2544 /* Pushes flow statistics to the rules which 'flow' resubmits into given
2545  * 'rule''s actions. */
2546 static void
2547 flow_push_stats(const struct rule_dpif *rule,
2548                 struct flow *flow, uint64_t packets, uint64_t bytes,
2549                 long long int used)
2550 {
2551     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2552     struct ofproto_push push;
2553
2554     push.packets = packets;
2555     push.bytes = bytes;
2556     push.used = used;
2557
2558     action_xlate_ctx_init(&push.ctx, ofproto, flow, NULL);
2559     push.ctx.resubmit_hook = push_resubmit;
2560     ofpbuf_delete(xlate_actions(&push.ctx,
2561                                 rule->up.actions, rule->up.n_actions));
2562 }
2563 \f
2564 /* Rules. */
2565
2566 static struct rule_dpif *
2567 rule_dpif_lookup(struct ofproto_dpif *ofproto, const struct flow *flow)
2568 {
2569     return rule_dpif_cast(rule_from_cls_rule(
2570                               classifier_lookup(&ofproto->up.tables[0],
2571                                                 flow)));
2572 }
2573
2574 static void
2575 complete_operation(struct rule_dpif *rule)
2576 {
2577     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2578
2579     ofproto->need_revalidate = true;
2580     if (clogged) {
2581         struct dpif_completion *c = xmalloc(sizeof *c);
2582         c->op = rule->up.pending;
2583         list_push_back(&ofproto->completions, &c->list_node);
2584     } else {
2585         ofoperation_complete(rule->up.pending, 0);
2586     }
2587 }
2588
2589 static struct rule *
2590 rule_alloc(void)
2591 {
2592     struct rule_dpif *rule = xmalloc(sizeof *rule);
2593     return &rule->up;
2594 }
2595
2596 static void
2597 rule_dealloc(struct rule *rule_)
2598 {
2599     struct rule_dpif *rule = rule_dpif_cast(rule_);
2600     free(rule);
2601 }
2602
2603 static int
2604 rule_construct(struct rule *rule_)
2605 {
2606     struct rule_dpif *rule = rule_dpif_cast(rule_);
2607     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2608     struct rule_dpif *victim;
2609     int error;
2610
2611     error = validate_actions(rule->up.actions, rule->up.n_actions,
2612                              &rule->up.cr.flow, ofproto->max_ports);
2613     if (error) {
2614         return error;
2615     }
2616
2617     rule->used = rule->up.created;
2618     rule->packet_count = 0;
2619     rule->byte_count = 0;
2620
2621     victim = rule_dpif_cast(ofoperation_get_victim(rule->up.pending));
2622     if (victim && !list_is_empty(&victim->facets)) {
2623         struct facet *facet;
2624
2625         rule->facets = victim->facets;
2626         list_moved(&rule->facets);
2627         LIST_FOR_EACH (facet, list_node, &rule->facets) {
2628             facet->rule = rule;
2629         }
2630     } else {
2631         /* Must avoid list_moved() in this case. */
2632         list_init(&rule->facets);
2633     }
2634
2635     complete_operation(rule);
2636     return 0;
2637 }
2638
2639 static void
2640 rule_destruct(struct rule *rule_)
2641 {
2642     struct rule_dpif *rule = rule_dpif_cast(rule_);
2643     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2644     struct facet *facet, *next_facet;
2645
2646     LIST_FOR_EACH_SAFE (facet, next_facet, list_node, &rule->facets) {
2647         facet_revalidate(ofproto, facet);
2648     }
2649
2650     complete_operation(rule);
2651 }
2652
2653 static void
2654 rule_get_stats(struct rule *rule_, uint64_t *packets, uint64_t *bytes)
2655 {
2656     struct rule_dpif *rule = rule_dpif_cast(rule_);
2657     struct facet *facet;
2658
2659     /* Start from historical data for 'rule' itself that are no longer tracked
2660      * in facets.  This counts, for example, facets that have expired. */
2661     *packets = rule->packet_count;
2662     *bytes = rule->byte_count;
2663
2664     /* Add any statistics that are tracked by facets.  This includes
2665      * statistical data recently updated by ofproto_update_stats() as well as
2666      * stats for packets that were executed "by hand" via dpif_execute(). */
2667     LIST_FOR_EACH (facet, list_node, &rule->facets) {
2668         *packets += facet->packet_count;
2669         *bytes += facet->byte_count;
2670     }
2671 }
2672
2673 static int
2674 rule_execute(struct rule *rule_, struct flow *flow, struct ofpbuf *packet)
2675 {
2676     struct rule_dpif *rule = rule_dpif_cast(rule_);
2677     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2678     struct action_xlate_ctx ctx;
2679     struct ofpbuf *odp_actions;
2680     struct facet *facet;
2681     size_t size;
2682
2683     /* First look for a related facet.  If we find one, account it to that. */
2684     facet = facet_lookup_valid(ofproto, flow);
2685     if (facet && facet->rule == rule) {
2686         facet_execute(ofproto, facet, packet);
2687         return 0;
2688     }
2689
2690     /* Otherwise, if 'rule' is in fact the correct rule for 'packet', then
2691      * create a new facet for it and use that. */
2692     if (rule_dpif_lookup(ofproto, flow) == rule) {
2693         facet = facet_create(rule, flow, packet);
2694         facet_execute(ofproto, facet, packet);
2695         facet_install(ofproto, facet, true);
2696         return 0;
2697     }
2698
2699     /* We can't account anything to a facet.  If we were to try, then that
2700      * facet would have a non-matching rule, busting our invariants. */
2701     action_xlate_ctx_init(&ctx, ofproto, flow, packet);
2702     odp_actions = xlate_actions(&ctx, rule->up.actions, rule->up.n_actions);
2703     size = packet->size;
2704     if (execute_odp_actions(ofproto, flow, odp_actions->data,
2705                             odp_actions->size, packet)) {
2706         rule->used = time_msec();
2707         rule->packet_count++;
2708         rule->byte_count += size;
2709         flow_push_stats(rule, flow, 1, size, rule->used);
2710     }
2711     ofpbuf_delete(odp_actions);
2712
2713     return 0;
2714 }
2715
2716 static void
2717 rule_modify_actions(struct rule *rule_)
2718 {
2719     struct rule_dpif *rule = rule_dpif_cast(rule_);
2720     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2721     int error;
2722
2723     error = validate_actions(rule->up.actions, rule->up.n_actions,
2724                              &rule->up.cr.flow, ofproto->max_ports);
2725     if (error) {
2726         ofoperation_complete(rule->up.pending, error);
2727         return;
2728     }
2729
2730     complete_operation(rule);
2731 }
2732 \f
2733 /* Sends 'packet' out of port 'odp_port' within 'p'.
2734  * Returns 0 if successful, otherwise a positive errno value. */
2735 static int
2736 send_packet(struct ofproto_dpif *ofproto, uint32_t odp_port,
2737             const struct ofpbuf *packet)
2738 {
2739     struct ofpbuf key, odp_actions;
2740     struct odputil_keybuf keybuf;
2741     struct flow flow;
2742     int error;
2743
2744     flow_extract((struct ofpbuf *) packet, 0, 0, &flow);
2745     ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
2746     odp_flow_key_from_flow(&key, &flow);
2747
2748     ofpbuf_init(&odp_actions, 32);
2749     nl_msg_put_u32(&odp_actions, ODP_ACTION_ATTR_OUTPUT, odp_port);
2750     error = dpif_execute(ofproto->dpif,
2751                          key.data, key.size,
2752                          odp_actions.data, odp_actions.size,
2753                          packet);
2754     ofpbuf_uninit(&odp_actions);
2755
2756     if (error) {
2757         VLOG_WARN_RL(&rl, "%s: failed to send packet on port %"PRIu32" (%s)",
2758                      ofproto->up.name, odp_port, strerror(error));
2759     }
2760     return error;
2761 }
2762 \f
2763 /* OpenFlow to ODP action translation. */
2764
2765 static void do_xlate_actions(const union ofp_action *in, size_t n_in,
2766                              struct action_xlate_ctx *ctx);
2767 static bool xlate_normal(struct action_xlate_ctx *);
2768
2769 static void
2770 commit_odp_actions(struct action_xlate_ctx *ctx)
2771 {
2772     const struct flow *flow = &ctx->flow;
2773     struct flow *base = &ctx->base_flow;
2774     struct ofpbuf *odp_actions = ctx->odp_actions;
2775
2776     if (base->tun_id != flow->tun_id) {
2777         nl_msg_put_be64(odp_actions, ODP_ACTION_ATTR_SET_TUNNEL, flow->tun_id);
2778         base->tun_id = flow->tun_id;
2779     }
2780
2781     if (base->nw_src != flow->nw_src) {
2782         nl_msg_put_be32(odp_actions, ODP_ACTION_ATTR_SET_NW_SRC, flow->nw_src);
2783         base->nw_src = flow->nw_src;
2784     }
2785
2786     if (base->nw_dst != flow->nw_dst) {
2787         nl_msg_put_be32(odp_actions, ODP_ACTION_ATTR_SET_NW_DST, flow->nw_dst);
2788         base->nw_dst = flow->nw_dst;
2789     }
2790
2791     if (base->vlan_tci != flow->vlan_tci) {
2792         if (!(flow->vlan_tci & htons(VLAN_CFI))) {
2793             nl_msg_put_flag(odp_actions, ODP_ACTION_ATTR_STRIP_VLAN);
2794         } else {
2795             nl_msg_put_be16(odp_actions, ODP_ACTION_ATTR_SET_DL_TCI,
2796                             flow->vlan_tci & ~htons(VLAN_CFI));
2797         }
2798         base->vlan_tci = flow->vlan_tci;
2799     }
2800
2801     if (base->tp_src != flow->tp_src) {
2802         nl_msg_put_be16(odp_actions, ODP_ACTION_ATTR_SET_TP_SRC, flow->tp_src);
2803         base->tp_src = flow->tp_src;
2804     }
2805
2806     if (base->tp_dst != flow->tp_dst) {
2807         nl_msg_put_be16(odp_actions, ODP_ACTION_ATTR_SET_TP_DST, flow->tp_dst);
2808         base->tp_dst = flow->tp_dst;
2809     }
2810
2811     if (!eth_addr_equals(base->dl_src, flow->dl_src)) {
2812         nl_msg_put_unspec(odp_actions, ODP_ACTION_ATTR_SET_DL_SRC,
2813                           flow->dl_src, ETH_ADDR_LEN);
2814         memcpy(base->dl_src, flow->dl_src, ETH_ADDR_LEN);
2815     }
2816
2817     if (!eth_addr_equals(base->dl_dst, flow->dl_dst)) {
2818         nl_msg_put_unspec(odp_actions, ODP_ACTION_ATTR_SET_DL_DST,
2819                           flow->dl_dst, ETH_ADDR_LEN);
2820         memcpy(base->dl_dst, flow->dl_dst, ETH_ADDR_LEN);
2821     }
2822
2823     if (ctx->base_priority != ctx->priority) {
2824         if (ctx->priority) {
2825             nl_msg_put_u32(odp_actions, ODP_ACTION_ATTR_SET_PRIORITY,
2826                            ctx->priority);
2827         } else {
2828             nl_msg_put_flag(odp_actions, ODP_ACTION_ATTR_POP_PRIORITY);
2829         }
2830         ctx->base_priority = ctx->priority;
2831     }
2832 }
2833
2834 static void
2835 add_output_action(struct action_xlate_ctx *ctx, uint16_t ofp_port)
2836 {
2837     const struct ofport_dpif *ofport = get_ofp_port(ctx->ofproto, ofp_port);
2838     uint16_t odp_port = ofp_port_to_odp_port(ofp_port);
2839
2840     if (ofport) {
2841         if (ofport->up.opp.config & htonl(OFPPC_NO_FWD)) {
2842             /* Forwarding disabled on port. */
2843             return;
2844         }
2845     } else {
2846         /*
2847          * We don't have an ofport record for this port, but it doesn't hurt to
2848          * allow forwarding to it anyhow.  Maybe such a port will appear later
2849          * and we're pre-populating the flow table.
2850          */
2851     }
2852
2853     commit_odp_actions(ctx);
2854     nl_msg_put_u32(ctx->odp_actions, ODP_ACTION_ATTR_OUTPUT, odp_port);
2855     ctx->nf_output_iface = ofp_port;
2856 }
2857
2858 static void
2859 xlate_table_action(struct action_xlate_ctx *ctx, uint16_t in_port)
2860 {
2861     if (ctx->recurse < MAX_RESUBMIT_RECURSION) {
2862         struct rule_dpif *rule;
2863         uint16_t old_in_port;
2864
2865         /* Look up a flow with 'in_port' as the input port.  Then restore the
2866          * original input port (otherwise OFPP_NORMAL and OFPP_IN_PORT will
2867          * have surprising behavior). */
2868         old_in_port = ctx->flow.in_port;
2869         ctx->flow.in_port = in_port;
2870         rule = rule_dpif_lookup(ctx->ofproto, &ctx->flow);
2871         ctx->flow.in_port = old_in_port;
2872
2873         if (ctx->resubmit_hook) {
2874             ctx->resubmit_hook(ctx, rule);
2875         }
2876
2877         if (rule) {
2878             ctx->recurse++;
2879             do_xlate_actions(rule->up.actions, rule->up.n_actions, ctx);
2880             ctx->recurse--;
2881         }
2882     } else {
2883         static struct vlog_rate_limit recurse_rl = VLOG_RATE_LIMIT_INIT(1, 1);
2884
2885         VLOG_ERR_RL(&recurse_rl, "NXAST_RESUBMIT recursed over %d times",
2886                     MAX_RESUBMIT_RECURSION);
2887     }
2888 }
2889
2890 static void
2891 flood_packets(struct action_xlate_ctx *ctx, ovs_be32 mask)
2892 {
2893     struct ofport_dpif *ofport;
2894
2895     commit_odp_actions(ctx);
2896     HMAP_FOR_EACH (ofport, up.hmap_node, &ctx->ofproto->up.ports) {
2897         uint16_t ofp_port = ofport->up.ofp_port;
2898         if (ofp_port != ctx->flow.in_port && !(ofport->up.opp.config & mask)) {
2899             nl_msg_put_u32(ctx->odp_actions, ODP_ACTION_ATTR_OUTPUT,
2900                            ofport->odp_port);
2901         }
2902     }
2903
2904     ctx->nf_output_iface = NF_OUT_FLOOD;
2905 }
2906
2907 static void
2908 xlate_output_action__(struct action_xlate_ctx *ctx,
2909                       uint16_t port, uint16_t max_len)
2910 {
2911     uint16_t prev_nf_output_iface = ctx->nf_output_iface;
2912
2913     ctx->nf_output_iface = NF_OUT_DROP;
2914
2915     switch (port) {
2916     case OFPP_IN_PORT:
2917         add_output_action(ctx, ctx->flow.in_port);
2918         break;
2919     case OFPP_TABLE:
2920         xlate_table_action(ctx, ctx->flow.in_port);
2921         break;
2922     case OFPP_NORMAL:
2923         xlate_normal(ctx);
2924         break;
2925     case OFPP_FLOOD:
2926         flood_packets(ctx,  htonl(OFPPC_NO_FLOOD));
2927         break;
2928     case OFPP_ALL:
2929         flood_packets(ctx, htonl(0));
2930         break;
2931     case OFPP_CONTROLLER:
2932         commit_odp_actions(ctx);
2933         nl_msg_put_u64(ctx->odp_actions, ODP_ACTION_ATTR_CONTROLLER, max_len);
2934         break;
2935     case OFPP_LOCAL:
2936         add_output_action(ctx, OFPP_LOCAL);
2937         break;
2938     default:
2939         if (port != ctx->flow.in_port) {
2940             add_output_action(ctx, port);
2941         }
2942         break;
2943     }
2944
2945     if (prev_nf_output_iface == NF_OUT_FLOOD) {
2946         ctx->nf_output_iface = NF_OUT_FLOOD;
2947     } else if (ctx->nf_output_iface == NF_OUT_DROP) {
2948         ctx->nf_output_iface = prev_nf_output_iface;
2949     } else if (prev_nf_output_iface != NF_OUT_DROP &&
2950                ctx->nf_output_iface != NF_OUT_FLOOD) {
2951         ctx->nf_output_iface = NF_OUT_MULTI;
2952     }
2953 }
2954
2955 static void
2956 xlate_output_action(struct action_xlate_ctx *ctx,
2957                     const struct ofp_action_output *oao)
2958 {
2959     xlate_output_action__(ctx, ntohs(oao->port), ntohs(oao->max_len));
2960 }
2961
2962 static void
2963 xlate_enqueue_action(struct action_xlate_ctx *ctx,
2964                      const struct ofp_action_enqueue *oae)
2965 {
2966     uint16_t ofp_port, odp_port;
2967     uint32_t ctx_priority, priority;
2968     int error;
2969
2970     error = dpif_queue_to_priority(ctx->ofproto->dpif, ntohl(oae->queue_id),
2971                                    &priority);
2972     if (error) {
2973         /* Fall back to ordinary output action. */
2974         xlate_output_action__(ctx, ntohs(oae->port), 0);
2975         return;
2976     }
2977
2978     /* Figure out ODP output port. */
2979     ofp_port = ntohs(oae->port);
2980     if (ofp_port == OFPP_IN_PORT) {
2981         ofp_port = ctx->flow.in_port;
2982     }
2983     odp_port = ofp_port_to_odp_port(ofp_port);
2984
2985     /* Add ODP actions. */
2986     ctx_priority = ctx->priority;
2987     ctx->priority = priority;
2988     add_output_action(ctx, odp_port);
2989     ctx->priority = ctx_priority;
2990
2991     /* Update NetFlow output port. */
2992     if (ctx->nf_output_iface == NF_OUT_DROP) {
2993         ctx->nf_output_iface = odp_port;
2994     } else if (ctx->nf_output_iface != NF_OUT_FLOOD) {
2995         ctx->nf_output_iface = NF_OUT_MULTI;
2996     }
2997 }
2998
2999 static void
3000 xlate_set_queue_action(struct action_xlate_ctx *ctx,
3001                        const struct nx_action_set_queue *nasq)
3002 {
3003     uint32_t priority;
3004     int error;
3005
3006     error = dpif_queue_to_priority(ctx->ofproto->dpif, ntohl(nasq->queue_id),
3007                                    &priority);
3008     if (error) {
3009         /* Couldn't translate queue to a priority, so ignore.  A warning
3010          * has already been logged. */
3011         return;
3012     }
3013
3014     ctx->priority = priority;
3015 }
3016
3017 struct xlate_reg_state {
3018     ovs_be16 vlan_tci;
3019     ovs_be64 tun_id;
3020 };
3021
3022 static void
3023 xlate_autopath(struct action_xlate_ctx *ctx,
3024                const struct nx_action_autopath *naa)
3025 {
3026     uint16_t ofp_port = ntohl(naa->id);
3027     struct ofport_dpif *port = get_ofp_port(ctx->ofproto, ofp_port);
3028
3029     if (!port || !port->bundle) {
3030         ofp_port = OFPP_NONE;
3031     } else if (port->bundle->bond) {
3032         /* Autopath does not support VLAN hashing. */
3033         struct ofport_dpif *slave = bond_choose_output_slave(
3034             port->bundle->bond, &ctx->flow, OFP_VLAN_NONE, &ctx->tags);
3035         if (slave) {
3036             ofp_port = slave->up.ofp_port;
3037         }
3038     }
3039     autopath_execute(naa, &ctx->flow, ofp_port);
3040 }
3041
3042 static void
3043 do_xlate_actions(const union ofp_action *in, size_t n_in,
3044                  struct action_xlate_ctx *ctx)
3045 {
3046     const struct ofport_dpif *port;
3047     const union ofp_action *ia;
3048     size_t left;
3049
3050     port = get_ofp_port(ctx->ofproto, ctx->flow.in_port);
3051     if (port
3052         && port->up.opp.config & htonl(OFPPC_NO_RECV | OFPPC_NO_RECV_STP) &&
3053         port->up.opp.config & (eth_addr_equals(ctx->flow.dl_dst, eth_addr_stp)
3054                                ? htonl(OFPPC_NO_RECV_STP)
3055                                : htonl(OFPPC_NO_RECV))) {
3056         /* Drop this flow. */
3057         return;
3058     }
3059
3060     OFPUTIL_ACTION_FOR_EACH_UNSAFE (ia, left, in, n_in) {
3061         const struct ofp_action_dl_addr *oada;
3062         const struct nx_action_resubmit *nar;
3063         const struct nx_action_set_tunnel *nast;
3064         const struct nx_action_set_queue *nasq;
3065         const struct nx_action_multipath *nam;
3066         const struct nx_action_autopath *naa;
3067         enum ofputil_action_code code;
3068         ovs_be64 tun_id;
3069
3070         code = ofputil_decode_action_unsafe(ia);
3071         switch (code) {
3072         case OFPUTIL_OFPAT_OUTPUT:
3073             xlate_output_action(ctx, &ia->output);
3074             break;
3075
3076         case OFPUTIL_OFPAT_SET_VLAN_VID:
3077             ctx->flow.vlan_tci &= ~htons(VLAN_VID_MASK);
3078             ctx->flow.vlan_tci |= ia->vlan_vid.vlan_vid | htons(VLAN_CFI);
3079             break;
3080
3081         case OFPUTIL_OFPAT_SET_VLAN_PCP:
3082             ctx->flow.vlan_tci &= ~htons(VLAN_PCP_MASK);
3083             ctx->flow.vlan_tci |= htons(
3084                 (ia->vlan_pcp.vlan_pcp << VLAN_PCP_SHIFT) | VLAN_CFI);
3085             break;
3086
3087         case OFPUTIL_OFPAT_STRIP_VLAN:
3088             ctx->flow.vlan_tci = htons(0);
3089             break;
3090
3091         case OFPUTIL_OFPAT_SET_DL_SRC:
3092             oada = ((struct ofp_action_dl_addr *) ia);
3093             memcpy(ctx->flow.dl_src, oada->dl_addr, ETH_ADDR_LEN);
3094             break;
3095
3096         case OFPUTIL_OFPAT_SET_DL_DST:
3097             oada = ((struct ofp_action_dl_addr *) ia);
3098             memcpy(ctx->flow.dl_dst, oada->dl_addr, ETH_ADDR_LEN);
3099             break;
3100
3101         case OFPUTIL_OFPAT_SET_NW_SRC:
3102             ctx->flow.nw_src = ia->nw_addr.nw_addr;
3103             break;
3104
3105         case OFPUTIL_OFPAT_SET_NW_DST:
3106             ctx->flow.nw_dst = ia->nw_addr.nw_addr;
3107             break;
3108
3109         case OFPUTIL_OFPAT_SET_NW_TOS:
3110             ctx->flow.nw_tos = ia->nw_tos.nw_tos;
3111             break;
3112
3113         case OFPUTIL_OFPAT_SET_TP_SRC:
3114             ctx->flow.tp_src = ia->tp_port.tp_port;
3115             break;
3116
3117         case OFPUTIL_OFPAT_SET_TP_DST:
3118             ctx->flow.tp_dst = ia->tp_port.tp_port;
3119             break;
3120
3121         case OFPUTIL_OFPAT_ENQUEUE:
3122             xlate_enqueue_action(ctx, (const struct ofp_action_enqueue *) ia);
3123             break;
3124
3125         case OFPUTIL_NXAST_RESUBMIT:
3126             nar = (const struct nx_action_resubmit *) ia;
3127             xlate_table_action(ctx, ntohs(nar->in_port));
3128             break;
3129
3130         case OFPUTIL_NXAST_SET_TUNNEL:
3131             nast = (const struct nx_action_set_tunnel *) ia;
3132             tun_id = htonll(ntohl(nast->tun_id));
3133             ctx->flow.tun_id = tun_id;
3134             break;
3135
3136         case OFPUTIL_NXAST_SET_QUEUE:
3137             nasq = (const struct nx_action_set_queue *) ia;
3138             xlate_set_queue_action(ctx, nasq);
3139             break;
3140
3141         case OFPUTIL_NXAST_POP_QUEUE:
3142             ctx->priority = 0;
3143             break;
3144
3145         case OFPUTIL_NXAST_REG_MOVE:
3146             nxm_execute_reg_move((const struct nx_action_reg_move *) ia,
3147                                  &ctx->flow);
3148             break;
3149
3150         case OFPUTIL_NXAST_REG_LOAD:
3151             nxm_execute_reg_load((const struct nx_action_reg_load *) ia,
3152                                  &ctx->flow);
3153             break;
3154
3155         case OFPUTIL_NXAST_NOTE:
3156             /* Nothing to do. */
3157             break;
3158
3159         case OFPUTIL_NXAST_SET_TUNNEL64:
3160             tun_id = ((const struct nx_action_set_tunnel64 *) ia)->tun_id;
3161             ctx->flow.tun_id = tun_id;
3162             break;
3163
3164         case OFPUTIL_NXAST_MULTIPATH:
3165             nam = (const struct nx_action_multipath *) ia;
3166             multipath_execute(nam, &ctx->flow);
3167             break;
3168
3169         case OFPUTIL_NXAST_AUTOPATH:
3170             naa = (const struct nx_action_autopath *) ia;
3171             xlate_autopath(ctx, naa);
3172             break;
3173         }
3174     }
3175 }
3176
3177 static void
3178 action_xlate_ctx_init(struct action_xlate_ctx *ctx,
3179                       struct ofproto_dpif *ofproto, const struct flow *flow,
3180                       const struct ofpbuf *packet)
3181 {
3182     ctx->ofproto = ofproto;
3183     ctx->flow = *flow;
3184     ctx->packet = packet;
3185     ctx->resubmit_hook = NULL;
3186 }
3187
3188 static struct ofpbuf *
3189 xlate_actions(struct action_xlate_ctx *ctx,
3190               const union ofp_action *in, size_t n_in)
3191 {
3192     COVERAGE_INC(ofproto_dpif_xlate);
3193
3194     ctx->odp_actions = ofpbuf_new(512);
3195     ctx->tags = 0;
3196     ctx->may_set_up_flow = true;
3197     ctx->nf_output_iface = NF_OUT_DROP;
3198     ctx->recurse = 0;
3199     ctx->priority = 0;
3200     ctx->base_priority = 0;
3201     ctx->base_flow = ctx->flow;
3202
3203     if (process_special(ctx->ofproto, &ctx->flow, ctx->packet)) {
3204         ctx->may_set_up_flow = false;
3205     } else {
3206         do_xlate_actions(in, n_in, ctx);
3207     }
3208
3209     /* Check with in-band control to see if we're allowed to set up this
3210      * flow. */
3211     if (!connmgr_may_set_up_flow(ctx->ofproto->up.connmgr, &ctx->flow,
3212                                  ctx->odp_actions->data,
3213                                  ctx->odp_actions->size)) {
3214         ctx->may_set_up_flow = false;
3215     }
3216
3217     return ctx->odp_actions;
3218 }
3219 \f
3220 /* OFPP_NORMAL implementation. */
3221
3222 struct dst {
3223     struct ofport_dpif *port;
3224     uint16_t vlan;
3225 };
3226
3227 struct dst_set {
3228     struct dst builtin[32];
3229     struct dst *dsts;
3230     size_t n, allocated;
3231 };
3232
3233 static void dst_set_init(struct dst_set *);
3234 static void dst_set_add(struct dst_set *, const struct dst *);
3235 static void dst_set_free(struct dst_set *);
3236
3237 static struct ofport_dpif *ofbundle_get_a_port(const struct ofbundle *);
3238
3239 static bool
3240 set_dst(struct action_xlate_ctx *ctx, struct dst *dst,
3241         const struct ofbundle *in_bundle, const struct ofbundle *out_bundle)
3242 {
3243     dst->vlan = (out_bundle->vlan >= 0 ? OFP_VLAN_NONE
3244                  : in_bundle->vlan >= 0 ? in_bundle->vlan
3245                  : ctx->flow.vlan_tci == 0 ? OFP_VLAN_NONE
3246                  : vlan_tci_to_vid(ctx->flow.vlan_tci));
3247
3248     dst->port = (!out_bundle->bond
3249                  ? ofbundle_get_a_port(out_bundle)
3250                  : bond_choose_output_slave(out_bundle->bond, &ctx->flow,
3251                                             dst->vlan, &ctx->tags));
3252
3253     return dst->port != NULL;
3254 }
3255
3256 static int
3257 mirror_mask_ffs(mirror_mask_t mask)
3258 {
3259     BUILD_ASSERT_DECL(sizeof(unsigned int) >= sizeof(mask));
3260     return ffs(mask);
3261 }
3262
3263 static void
3264 dst_set_init(struct dst_set *set)
3265 {
3266     set->dsts = set->builtin;
3267     set->n = 0;
3268     set->allocated = ARRAY_SIZE(set->builtin);
3269 }
3270
3271 static void
3272 dst_set_add(struct dst_set *set, const struct dst *dst)
3273 {
3274     if (set->n >= set->allocated) {
3275         size_t new_allocated;
3276         struct dst *new_dsts;
3277
3278         new_allocated = set->allocated * 2;
3279         new_dsts = xmalloc(new_allocated * sizeof *new_dsts);
3280         memcpy(new_dsts, set->dsts, set->n * sizeof *new_dsts);
3281
3282         dst_set_free(set);
3283
3284         set->dsts = new_dsts;
3285         set->allocated = new_allocated;
3286     }
3287     set->dsts[set->n++] = *dst;
3288 }
3289
3290 static void
3291 dst_set_free(struct dst_set *set)
3292 {
3293     if (set->dsts != set->builtin) {
3294         free(set->dsts);
3295     }
3296 }
3297
3298 static bool
3299 dst_is_duplicate(const struct dst_set *set, const struct dst *test)
3300 {
3301     size_t i;
3302     for (i = 0; i < set->n; i++) {
3303         if (set->dsts[i].vlan == test->vlan
3304             && set->dsts[i].port == test->port) {
3305             return true;
3306         }
3307     }
3308     return false;
3309 }
3310
3311 static bool
3312 ofbundle_trunks_vlan(const struct ofbundle *bundle, uint16_t vlan)
3313 {
3314     return bundle->vlan < 0 && vlan_bitmap_contains(bundle->trunks, vlan);
3315 }
3316
3317 static bool
3318 ofbundle_includes_vlan(const struct ofbundle *bundle, uint16_t vlan)
3319 {
3320     return vlan == bundle->vlan || ofbundle_trunks_vlan(bundle, vlan);
3321 }
3322
3323 /* Returns an arbitrary interface within 'bundle'. */
3324 static struct ofport_dpif *
3325 ofbundle_get_a_port(const struct ofbundle *bundle)
3326 {
3327     return CONTAINER_OF(list_front(&bundle->ports),
3328                         struct ofport_dpif, bundle_node);
3329 }
3330
3331 static void
3332 compose_dsts(struct action_xlate_ctx *ctx, uint16_t vlan,
3333              const struct ofbundle *in_bundle,
3334              const struct ofbundle *out_bundle, struct dst_set *set)
3335 {
3336     struct dst dst;
3337
3338     if (out_bundle == OFBUNDLE_FLOOD) {
3339         struct ofbundle *bundle;
3340
3341         HMAP_FOR_EACH (bundle, hmap_node, &ctx->ofproto->bundles) {
3342             if (bundle != in_bundle
3343                 && ofbundle_includes_vlan(bundle, vlan)
3344                 && bundle->floodable
3345                 && !bundle->mirror_out
3346                 && set_dst(ctx, &dst, in_bundle, bundle)) {
3347                 dst_set_add(set, &dst);
3348             }
3349         }
3350         ctx->nf_output_iface = NF_OUT_FLOOD;
3351     } else if (out_bundle && set_dst(ctx, &dst, in_bundle, out_bundle)) {
3352         dst_set_add(set, &dst);
3353         ctx->nf_output_iface = dst.port->odp_port;
3354     }
3355 }
3356
3357 static bool
3358 vlan_is_mirrored(const struct ofmirror *m, int vlan)
3359 {
3360     return vlan_bitmap_contains(m->vlans, vlan);
3361 }
3362
3363 /* Returns true if a packet with Ethernet destination MAC 'dst' may be mirrored
3364  * to a VLAN.  In general most packets may be mirrored but we want to drop
3365  * protocols that may confuse switches. */
3366 static bool
3367 eth_dst_may_rspan(const uint8_t dst[ETH_ADDR_LEN])
3368 {
3369     /* If you change this function's behavior, please update corresponding
3370      * documentation in vswitch.xml at the same time. */
3371     if (dst[0] != 0x01) {
3372         /* All the currently banned MACs happen to start with 01 currently, so
3373          * this is a quick way to eliminate most of the good ones. */
3374     } else {
3375         if (eth_addr_is_reserved(dst)) {
3376             /* Drop STP, IEEE pause frames, and other reserved protocols
3377              * (01-80-c2-00-00-0x). */
3378             return false;
3379         }
3380
3381         if (dst[0] == 0x01 && dst[1] == 0x00 && dst[2] == 0x0c) {
3382             /* Cisco OUI. */
3383             if ((dst[3] & 0xfe) == 0xcc &&
3384                 (dst[4] & 0xfe) == 0xcc &&
3385                 (dst[5] & 0xfe) == 0xcc) {
3386                 /* Drop the following protocols plus others following the same
3387                    pattern:
3388
3389                    CDP, VTP, DTP, PAgP  (01-00-0c-cc-cc-cc)
3390                    Spanning Tree PVSTP+ (01-00-0c-cc-cc-cd)
3391                    STP Uplink Fast      (01-00-0c-cd-cd-cd) */
3392                 return false;
3393             }
3394
3395             if (!(dst[3] | dst[4] | dst[5])) {
3396                 /* Drop Inter Switch Link packets (01-00-0c-00-00-00). */
3397                 return false;
3398             }
3399         }
3400     }
3401     return true;
3402 }
3403
3404 static void
3405 compose_mirror_dsts(struct action_xlate_ctx *ctx,
3406                     uint16_t vlan, const struct ofbundle *in_bundle,
3407                     struct dst_set *set)
3408 {
3409     struct ofproto_dpif *ofproto = ctx->ofproto;
3410     mirror_mask_t mirrors;
3411     int flow_vlan;
3412     size_t i;
3413
3414     mirrors = in_bundle->src_mirrors;
3415     for (i = 0; i < set->n; i++) {
3416         mirrors |= set->dsts[i].port->bundle->dst_mirrors;
3417     }
3418
3419     if (!mirrors) {
3420         return;
3421     }
3422
3423     flow_vlan = vlan_tci_to_vid(ctx->flow.vlan_tci);
3424     if (flow_vlan == 0) {
3425         flow_vlan = OFP_VLAN_NONE;
3426     }
3427
3428     while (mirrors) {
3429         struct ofmirror *m = ofproto->mirrors[mirror_mask_ffs(mirrors) - 1];
3430         if (vlan_is_mirrored(m, vlan)) {
3431             struct dst dst;
3432
3433             if (m->out) {
3434                 if (set_dst(ctx, &dst, in_bundle, m->out)
3435                     && !dst_is_duplicate(set, &dst)) {
3436                     dst_set_add(set, &dst);
3437                 }
3438             } else if (eth_dst_may_rspan(ctx->flow.dl_dst)) {
3439                 struct ofbundle *bundle;
3440
3441                 HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
3442                     if (ofbundle_includes_vlan(bundle, m->out_vlan)
3443                         && set_dst(ctx, &dst, in_bundle, bundle))
3444                     {
3445                         if (bundle->vlan < 0) {
3446                             dst.vlan = m->out_vlan;
3447                         }
3448                         if (dst_is_duplicate(set, &dst)) {
3449                             continue;
3450                         }
3451
3452                         /* Use the vlan tag on the original flow instead of
3453                          * the one passed in the vlan parameter.  This ensures
3454                          * that we compare the vlan from before any implicit
3455                          * tagging tags place. This is necessary because
3456                          * dst->vlan is the final vlan, after removing implicit
3457                          * tags. */
3458                         if (bundle == in_bundle && dst.vlan == flow_vlan) {
3459                             /* Don't send out input port on same VLAN. */
3460                             continue;
3461                         }
3462                         dst_set_add(set, &dst);
3463                     }
3464                 }
3465             }
3466         }
3467         mirrors &= mirrors - 1;
3468     }
3469 }
3470
3471 static void
3472 compose_actions(struct action_xlate_ctx *ctx, uint16_t vlan,
3473                 const struct ofbundle *in_bundle,
3474                 const struct ofbundle *out_bundle)
3475 {
3476     uint16_t initial_vlan, cur_vlan;
3477     const struct dst *dst;
3478     struct dst_set set;
3479
3480     dst_set_init(&set);
3481     compose_dsts(ctx, vlan, in_bundle, out_bundle, &set);
3482     compose_mirror_dsts(ctx, vlan, in_bundle, &set);
3483
3484     /* Output all the packets we can without having to change the VLAN. */
3485     initial_vlan = vlan_tci_to_vid(ctx->flow.vlan_tci);
3486     if (initial_vlan == 0) {
3487         initial_vlan = OFP_VLAN_NONE;
3488     }
3489     for (dst = set.dsts; dst < &set.dsts[set.n]; dst++) {
3490         if (dst->vlan != initial_vlan) {
3491             continue;
3492         }
3493         nl_msg_put_u32(ctx->odp_actions,
3494                        ODP_ACTION_ATTR_OUTPUT, dst->port->odp_port);
3495     }
3496
3497     /* Then output the rest. */
3498     cur_vlan = initial_vlan;
3499     for (dst = set.dsts; dst < &set.dsts[set.n]; dst++) {
3500         if (dst->vlan == initial_vlan) {
3501             continue;
3502         }
3503         if (dst->vlan != cur_vlan) {
3504             if (dst->vlan == OFP_VLAN_NONE) {
3505                 nl_msg_put_flag(ctx->odp_actions, ODP_ACTION_ATTR_STRIP_VLAN);
3506             } else {
3507                 ovs_be16 tci;
3508                 tci = htons(dst->vlan & VLAN_VID_MASK);
3509                 tci |= ctx->flow.vlan_tci & htons(VLAN_PCP_MASK);
3510                 nl_msg_put_be16(ctx->odp_actions,
3511                                 ODP_ACTION_ATTR_SET_DL_TCI, tci);
3512             }
3513             cur_vlan = dst->vlan;
3514         }
3515         nl_msg_put_u32(ctx->odp_actions,
3516                        ODP_ACTION_ATTR_OUTPUT, dst->port->odp_port);
3517     }
3518
3519     dst_set_free(&set);
3520 }
3521
3522 /* Returns the effective vlan of a packet, taking into account both the
3523  * 802.1Q header and implicitly tagged ports.  A value of 0 indicates that
3524  * the packet is untagged and -1 indicates it has an invalid header and
3525  * should be dropped. */
3526 static int
3527 flow_get_vlan(struct ofproto_dpif *ofproto, const struct flow *flow,
3528               struct ofbundle *in_bundle, bool have_packet)
3529 {
3530     int vlan = vlan_tci_to_vid(flow->vlan_tci);
3531     if (in_bundle->vlan >= 0) {
3532         if (vlan) {
3533             if (have_packet) {
3534                 static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
3535                 VLOG_WARN_RL(&rl, "bridge %s: dropping VLAN %d tagged "
3536                              "packet received on port %s configured with "
3537                              "implicit VLAN %"PRIu16,
3538                              ofproto->up.name, vlan,
3539                              in_bundle->name, in_bundle->vlan);
3540             }
3541             return -1;
3542         }
3543         vlan = in_bundle->vlan;
3544     } else {
3545         if (!ofbundle_includes_vlan(in_bundle, vlan)) {
3546             if (have_packet) {
3547                 static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
3548                 VLOG_WARN_RL(&rl, "bridge %s: dropping VLAN %d tagged "
3549                              "packet received on port %s not configured for "
3550                              "trunking VLAN %d",
3551                              ofproto->up.name, vlan, in_bundle->name, vlan);
3552             }
3553             return -1;
3554         }
3555     }
3556
3557     return vlan;
3558 }
3559
3560 /* A VM broadcasts a gratuitous ARP to indicate that it has resumed after
3561  * migration.  Older Citrix-patched Linux DomU used gratuitous ARP replies to
3562  * indicate this; newer upstream kernels use gratuitous ARP requests. */
3563 static bool
3564 is_gratuitous_arp(const struct flow *flow)
3565 {
3566     return (flow->dl_type == htons(ETH_TYPE_ARP)
3567             && eth_addr_is_broadcast(flow->dl_dst)
3568             && (flow->nw_proto == ARP_OP_REPLY
3569                 || (flow->nw_proto == ARP_OP_REQUEST
3570                     && flow->nw_src == flow->nw_dst)));
3571 }
3572
3573 static void
3574 update_learning_table(struct ofproto_dpif *ofproto,
3575                       const struct flow *flow, int vlan,
3576                       struct ofbundle *in_bundle)
3577 {
3578     struct mac_entry *mac;
3579
3580     if (!mac_learning_may_learn(ofproto->ml, flow->dl_src, vlan)) {
3581         return;
3582     }
3583
3584     mac = mac_learning_insert(ofproto->ml, flow->dl_src, vlan);
3585     if (is_gratuitous_arp(flow)) {
3586         /* We don't want to learn from gratuitous ARP packets that are
3587          * reflected back over bond slaves so we lock the learning table. */
3588         if (!in_bundle->bond) {
3589             mac_entry_set_grat_arp_lock(mac);
3590         } else if (mac_entry_is_grat_arp_locked(mac)) {
3591             return;
3592         }
3593     }
3594
3595     if (mac_entry_is_new(mac) || mac->port.p != in_bundle) {
3596         /* The log messages here could actually be useful in debugging,
3597          * so keep the rate limit relatively high. */
3598         static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(30, 300);
3599         VLOG_DBG_RL(&rl, "bridge %s: learned that "ETH_ADDR_FMT" is "
3600                     "on port %s in VLAN %d",
3601                     ofproto->up.name, ETH_ADDR_ARGS(flow->dl_src),
3602                     in_bundle->name, vlan);
3603
3604         mac->port.p = in_bundle;
3605         tag_set_add(&ofproto->revalidate_set,
3606                     mac_learning_changed(ofproto->ml, mac));
3607     }
3608 }
3609
3610 /* Determines whether packets in 'flow' within 'br' should be forwarded or
3611  * dropped.  Returns true if they may be forwarded, false if they should be
3612  * dropped.
3613  *
3614  * If 'have_packet' is true, it indicates that the caller is processing a
3615  * received packet.  If 'have_packet' is false, then the caller is just
3616  * revalidating an existing flow because configuration has changed.  Either
3617  * way, 'have_packet' only affects logging (there is no point in logging errors
3618  * during revalidation).
3619  *
3620  * Sets '*in_portp' to the input port.  This will be a null pointer if
3621  * flow->in_port does not designate a known input port (in which case
3622  * is_admissible() returns false).
3623  *
3624  * When returning true, sets '*vlanp' to the effective VLAN of the input
3625  * packet, as returned by flow_get_vlan().
3626  *
3627  * May also add tags to '*tags', although the current implementation only does
3628  * so in one special case.
3629  */
3630 static bool
3631 is_admissible(struct ofproto_dpif *ofproto, const struct flow *flow,
3632               bool have_packet,
3633               tag_type *tags, int *vlanp, struct ofbundle **in_bundlep)
3634 {
3635     struct ofport_dpif *in_port;
3636     struct ofbundle *in_bundle;
3637     int vlan;
3638
3639     /* Find the port and bundle for the received packet. */
3640     in_port = get_ofp_port(ofproto, flow->in_port);
3641     *in_bundlep = in_bundle = in_port ? in_port->bundle : NULL;
3642     if (!in_port || !in_bundle) {
3643         /* No interface?  Something fishy... */
3644         if (have_packet) {
3645             /* Odd.  A few possible reasons here:
3646              *
3647              * - We deleted a port but there are still a few packets queued up
3648              *   from it.
3649              *
3650              * - Someone externally added a port (e.g. "ovs-dpctl add-if") that
3651              *   we don't know about.
3652              *
3653              * - Packet arrived on the local port but the local port is not
3654              *   part of a bundle.
3655              */
3656             static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
3657
3658             VLOG_WARN_RL(&rl, "bridge %s: received packet on unknown "
3659                          "port %"PRIu16,
3660                          ofproto->up.name, flow->in_port);
3661         }
3662         return false;
3663     }
3664     *vlanp = vlan = flow_get_vlan(ofproto, flow, in_bundle, have_packet);
3665     if (vlan < 0) {
3666         return false;
3667     }
3668
3669     /* Drop frames for reserved multicast addresses. */
3670     if (eth_addr_is_reserved(flow->dl_dst)) {
3671         return false;
3672     }
3673
3674     /* Drop frames on bundles reserved for mirroring. */
3675     if (in_bundle->mirror_out) {
3676         if (have_packet) {
3677             static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
3678             VLOG_WARN_RL(&rl, "bridge %s: dropping packet received on port "
3679                          "%s, which is reserved exclusively for mirroring",
3680                          ofproto->up.name, in_bundle->name);
3681         }
3682         return false;
3683     }
3684
3685     if (in_bundle->bond) {
3686         struct mac_entry *mac;
3687
3688         switch (bond_check_admissibility(in_bundle->bond, in_port,
3689                                          flow->dl_dst, tags)) {
3690         case BV_ACCEPT:
3691             break;
3692
3693         case BV_DROP:
3694             return false;
3695
3696         case BV_DROP_IF_MOVED:
3697             mac = mac_learning_lookup(ofproto->ml, flow->dl_src, vlan, NULL);
3698             if (mac && mac->port.p != in_bundle &&
3699                 (!is_gratuitous_arp(flow)
3700                  || mac_entry_is_grat_arp_locked(mac))) {
3701                 return false;
3702             }
3703             break;
3704         }
3705     }
3706
3707     return true;
3708 }
3709
3710 /* If the composed actions may be applied to any packet in the given 'flow',
3711  * returns true.  Otherwise, the actions should only be applied to 'packet', or
3712  * not at all, if 'packet' was NULL. */
3713 static bool
3714 xlate_normal(struct action_xlate_ctx *ctx)
3715 {
3716     struct ofbundle *in_bundle;
3717     struct ofbundle *out_bundle;
3718     struct mac_entry *mac;
3719     int vlan;
3720
3721     /* Check whether we should drop packets in this flow. */
3722     if (!is_admissible(ctx->ofproto, &ctx->flow, ctx->packet != NULL,
3723                        &ctx->tags, &vlan, &in_bundle)) {
3724         out_bundle = NULL;
3725         goto done;
3726     }
3727
3728     /* Learn source MAC (but don't try to learn from revalidation). */
3729     if (ctx->packet) {
3730         update_learning_table(ctx->ofproto, &ctx->flow, vlan, in_bundle);
3731     }
3732
3733     /* Determine output bundle. */
3734     mac = mac_learning_lookup(ctx->ofproto->ml, ctx->flow.dl_dst, vlan,
3735                               &ctx->tags);
3736     if (mac) {
3737         out_bundle = mac->port.p;
3738     } else if (!ctx->packet && !eth_addr_is_multicast(ctx->flow.dl_dst)) {
3739         /* If we are revalidating but don't have a learning entry then eject
3740          * the flow.  Installing a flow that floods packets opens up a window
3741          * of time where we could learn from a packet reflected on a bond and
3742          * blackhole packets before the learning table is updated to reflect
3743          * the correct port. */
3744         return false;
3745     } else {
3746         out_bundle = OFBUNDLE_FLOOD;
3747     }
3748
3749     /* Don't send packets out their input bundles. */
3750     if (in_bundle == out_bundle) {
3751         out_bundle = NULL;
3752     }
3753
3754 done:
3755     if (in_bundle) {
3756         compose_actions(ctx, vlan, in_bundle, out_bundle);
3757     }
3758
3759     return true;
3760 }
3761 \f
3762 static bool
3763 get_drop_frags(struct ofproto *ofproto_)
3764 {
3765     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
3766     bool drop_frags;
3767
3768     dpif_get_drop_frags(ofproto->dpif, &drop_frags);
3769     return drop_frags;
3770 }
3771
3772 static void
3773 set_drop_frags(struct ofproto *ofproto_, bool drop_frags)
3774 {
3775     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
3776
3777     dpif_set_drop_frags(ofproto->dpif, drop_frags);
3778 }
3779
3780 static int
3781 packet_out(struct ofproto *ofproto_, struct ofpbuf *packet,
3782            const struct flow *flow,
3783            const union ofp_action *ofp_actions, size_t n_ofp_actions)
3784 {
3785     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
3786     int error;
3787
3788     error = validate_actions(ofp_actions, n_ofp_actions, flow,
3789                              ofproto->max_ports);
3790     if (!error) {
3791         struct odputil_keybuf keybuf;
3792         struct action_xlate_ctx ctx;
3793         struct ofpbuf *odp_actions;
3794         struct ofpbuf key;
3795
3796         ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
3797         odp_flow_key_from_flow(&key, flow);
3798
3799         action_xlate_ctx_init(&ctx, ofproto, flow, packet);
3800         odp_actions = xlate_actions(&ctx, ofp_actions, n_ofp_actions);
3801         dpif_execute(ofproto->dpif, key.data, key.size,
3802                      odp_actions->data, odp_actions->size, packet);
3803         ofpbuf_delete(odp_actions);
3804     }
3805     return error;
3806 }
3807
3808 static void
3809 get_netflow_ids(const struct ofproto *ofproto_,
3810                 uint8_t *engine_type, uint8_t *engine_id)
3811 {
3812     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
3813
3814     dpif_get_netflow_ids(ofproto->dpif, engine_type, engine_id);
3815 }
3816 \f
3817 static struct ofproto_dpif *
3818 ofproto_dpif_lookup(const char *name)
3819 {
3820     struct ofproto *ofproto = ofproto_lookup(name);
3821     return (ofproto && ofproto->ofproto_class == &ofproto_dpif_class
3822             ? ofproto_dpif_cast(ofproto)
3823             : NULL);
3824 }
3825
3826 static void
3827 ofproto_unixctl_fdb_show(struct unixctl_conn *conn,
3828                          const char *args, void *aux OVS_UNUSED)
3829 {
3830     struct ds ds = DS_EMPTY_INITIALIZER;
3831     const struct ofproto_dpif *ofproto;
3832     const struct mac_entry *e;
3833
3834     ofproto = ofproto_dpif_lookup(args);
3835     if (!ofproto) {
3836         unixctl_command_reply(conn, 501, "no such bridge");
3837         return;
3838     }
3839
3840     ds_put_cstr(&ds, " port  VLAN  MAC                Age\n");
3841     LIST_FOR_EACH (e, lru_node, &ofproto->ml->lrus) {
3842         struct ofbundle *bundle = e->port.p;
3843         ds_put_format(&ds, "%5d  %4d  "ETH_ADDR_FMT"  %3d\n",
3844                       ofbundle_get_a_port(bundle)->odp_port,
3845                       e->vlan, ETH_ADDR_ARGS(e->mac), mac_entry_age(e));
3846     }
3847     unixctl_command_reply(conn, 200, ds_cstr(&ds));
3848     ds_destroy(&ds);
3849 }
3850
3851 struct ofproto_trace {
3852     struct action_xlate_ctx ctx;
3853     struct flow flow;
3854     struct ds *result;
3855 };
3856
3857 static void
3858 trace_format_rule(struct ds *result, int level, const struct rule *rule)
3859 {
3860     ds_put_char_multiple(result, '\t', level);
3861     if (!rule) {
3862         ds_put_cstr(result, "No match\n");
3863         return;
3864     }
3865
3866     ds_put_format(result, "Rule: cookie=%#"PRIx64" ",
3867                   ntohll(rule->flow_cookie));
3868     cls_rule_format(&rule->cr, result);
3869     ds_put_char(result, '\n');
3870
3871     ds_put_char_multiple(result, '\t', level);
3872     ds_put_cstr(result, "OpenFlow ");
3873     ofp_print_actions(result, rule->actions, rule->n_actions);
3874     ds_put_char(result, '\n');
3875 }
3876
3877 static void
3878 trace_format_flow(struct ds *result, int level, const char *title,
3879                  struct ofproto_trace *trace)
3880 {
3881     ds_put_char_multiple(result, '\t', level);
3882     ds_put_format(result, "%s: ", title);
3883     if (flow_equal(&trace->ctx.flow, &trace->flow)) {
3884         ds_put_cstr(result, "unchanged");
3885     } else {
3886         flow_format(result, &trace->ctx.flow);
3887         trace->flow = trace->ctx.flow;
3888     }
3889     ds_put_char(result, '\n');
3890 }
3891
3892 static void
3893 trace_resubmit(struct action_xlate_ctx *ctx, struct rule_dpif *rule)
3894 {
3895     struct ofproto_trace *trace = CONTAINER_OF(ctx, struct ofproto_trace, ctx);
3896     struct ds *result = trace->result;
3897
3898     ds_put_char(result, '\n');
3899     trace_format_flow(result, ctx->recurse + 1, "Resubmitted flow", trace);
3900     trace_format_rule(result, ctx->recurse + 1, &rule->up);
3901 }
3902
3903 static void
3904 ofproto_unixctl_trace(struct unixctl_conn *conn, const char *args_,
3905                       void *aux OVS_UNUSED)
3906 {
3907     char *dpname, *in_port_s, *tun_id_s, *packet_s;
3908     char *args = xstrdup(args_);
3909     char *save_ptr = NULL;
3910     struct ofproto_dpif *ofproto;
3911     struct ofpbuf packet;
3912     struct rule_dpif *rule;
3913     struct ds result;
3914     struct flow flow;
3915     uint16_t in_port;
3916     ovs_be64 tun_id;
3917     char *s;
3918
3919     ofpbuf_init(&packet, strlen(args) / 2);
3920     ds_init(&result);
3921
3922     dpname = strtok_r(args, " ", &save_ptr);
3923     tun_id_s = strtok_r(NULL, " ", &save_ptr);
3924     in_port_s = strtok_r(NULL, " ", &save_ptr);
3925     packet_s = strtok_r(NULL, "", &save_ptr); /* Get entire rest of line. */
3926     if (!dpname || !in_port_s || !packet_s) {
3927         unixctl_command_reply(conn, 501, "Bad command syntax");
3928         goto exit;
3929     }
3930
3931     ofproto = ofproto_dpif_lookup(dpname);
3932     if (!ofproto) {
3933         unixctl_command_reply(conn, 501, "Unknown ofproto (use ofproto/list "
3934                               "for help)");
3935         goto exit;
3936     }
3937
3938     tun_id = htonll(strtoull(tun_id_s, NULL, 0));
3939     in_port = ofp_port_to_odp_port(atoi(in_port_s));
3940
3941     packet_s = ofpbuf_put_hex(&packet, packet_s, NULL);
3942     packet_s += strspn(packet_s, " ");
3943     if (*packet_s != '\0') {
3944         unixctl_command_reply(conn, 501, "Trailing garbage in command");
3945         goto exit;
3946     }
3947     if (packet.size < ETH_HEADER_LEN) {
3948         unixctl_command_reply(conn, 501, "Packet data too short for Ethernet");
3949         goto exit;
3950     }
3951
3952     ds_put_cstr(&result, "Packet: ");
3953     s = ofp_packet_to_string(packet.data, packet.size, packet.size);
3954     ds_put_cstr(&result, s);
3955     free(s);
3956
3957     flow_extract(&packet, tun_id, in_port, &flow);
3958     ds_put_cstr(&result, "Flow: ");
3959     flow_format(&result, &flow);
3960     ds_put_char(&result, '\n');
3961
3962     rule = rule_dpif_lookup(ofproto, &flow);
3963     trace_format_rule(&result, 0, &rule->up);
3964     if (rule) {
3965         struct ofproto_trace trace;
3966         struct ofpbuf *odp_actions;
3967
3968         trace.result = &result;
3969         trace.flow = flow;
3970         action_xlate_ctx_init(&trace.ctx, ofproto, &flow, &packet);
3971         trace.ctx.resubmit_hook = trace_resubmit;
3972         odp_actions = xlate_actions(&trace.ctx,
3973                                     rule->up.actions, rule->up.n_actions);
3974
3975         ds_put_char(&result, '\n');
3976         trace_format_flow(&result, 0, "Final flow", &trace);
3977         ds_put_cstr(&result, "Datapath actions: ");
3978         format_odp_actions(&result, odp_actions->data, odp_actions->size);
3979         ofpbuf_delete(odp_actions);
3980     }
3981
3982     unixctl_command_reply(conn, 200, ds_cstr(&result));
3983
3984 exit:
3985     ds_destroy(&result);
3986     ofpbuf_uninit(&packet);
3987     free(args);
3988 }
3989
3990 static void
3991 ofproto_dpif_clog(struct unixctl_conn *conn OVS_UNUSED,
3992                   const char *args_ OVS_UNUSED, void *aux OVS_UNUSED)
3993 {
3994     clogged = true;
3995     unixctl_command_reply(conn, 200, NULL);
3996 }
3997
3998 static void
3999 ofproto_dpif_unclog(struct unixctl_conn *conn OVS_UNUSED,
4000                     const char *args_ OVS_UNUSED, void *aux OVS_UNUSED)
4001 {
4002     clogged = false;
4003     unixctl_command_reply(conn, 200, NULL);
4004 }
4005
4006 static void
4007 ofproto_dpif_unixctl_init(void)
4008 {
4009     static bool registered;
4010     if (registered) {
4011         return;
4012     }
4013     registered = true;
4014
4015     unixctl_command_register("ofproto/trace", ofproto_unixctl_trace, NULL);
4016     unixctl_command_register("fdb/show", ofproto_unixctl_fdb_show, NULL);
4017
4018     unixctl_command_register("ofproto/clog", ofproto_dpif_clog, NULL);
4019     unixctl_command_register("ofproto/unclog", ofproto_dpif_unclog, NULL);
4020 }
4021 \f
4022 const struct ofproto_class ofproto_dpif_class = {
4023     enumerate_types,
4024     enumerate_names,
4025     del,
4026     alloc,
4027     construct,
4028     destruct,
4029     dealloc,
4030     run,
4031     wait,
4032     flush,
4033     get_features,
4034     get_tables,
4035     port_alloc,
4036     port_construct,
4037     port_destruct,
4038     port_dealloc,
4039     port_modified,
4040     port_reconfigured,
4041     port_query_by_name,
4042     port_add,
4043     port_del,
4044     port_dump_start,
4045     port_dump_next,
4046     port_dump_done,
4047     port_poll,
4048     port_poll_wait,
4049     port_is_lacp_current,
4050     NULL,                       /* rule_choose_table */
4051     rule_alloc,
4052     rule_construct,
4053     rule_destruct,
4054     rule_dealloc,
4055     rule_get_stats,
4056     rule_execute,
4057     rule_modify_actions,
4058     get_drop_frags,
4059     set_drop_frags,
4060     packet_out,
4061     set_netflow,
4062     get_netflow_ids,
4063     set_sflow,
4064     set_cfm,
4065     get_cfm_fault,
4066     bundle_set,
4067     bundle_remove,
4068     mirror_set,
4069     set_flood_vlans,
4070     is_mirror_output_bundle,
4071 };