ofproto: Don't commit modifiers on OFPP_NONE outputs.
[sliver-openvswitch.git] / ofproto / ofproto-dpif.c
1 /*
2  * Copyright (c) 2009, 2010, 2011 Nicira Networks.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include <config.h>
18
19 #include "ofproto/ofproto-provider.h"
20
21 #include <errno.h>
22
23 #include "autopath.h"
24 #include "bond.h"
25 #include "byte-order.h"
26 #include "connmgr.h"
27 #include "coverage.h"
28 #include "cfm.h"
29 #include "dpif.h"
30 #include "dynamic-string.h"
31 #include "fail-open.h"
32 #include "hmapx.h"
33 #include "lacp.h"
34 #include "mac-learning.h"
35 #include "multipath.h"
36 #include "netdev.h"
37 #include "netlink.h"
38 #include "nx-match.h"
39 #include "odp-util.h"
40 #include "ofp-util.h"
41 #include "ofpbuf.h"
42 #include "ofp-print.h"
43 #include "ofproto-dpif-sflow.h"
44 #include "poll-loop.h"
45 #include "timer.h"
46 #include "unaligned.h"
47 #include "unixctl.h"
48 #include "vlan-bitmap.h"
49 #include "vlog.h"
50
51 VLOG_DEFINE_THIS_MODULE(ofproto_dpif);
52
53 COVERAGE_DEFINE(ofproto_dpif_ctlr_action);
54 COVERAGE_DEFINE(ofproto_dpif_expired);
55 COVERAGE_DEFINE(ofproto_dpif_no_packet_in);
56 COVERAGE_DEFINE(ofproto_dpif_xlate);
57 COVERAGE_DEFINE(facet_changed_rule);
58 COVERAGE_DEFINE(facet_invalidated);
59 COVERAGE_DEFINE(facet_revalidate);
60 COVERAGE_DEFINE(facet_unexpected);
61
62 /* Maximum depth of flow table recursion (due to NXAST_RESUBMIT actions) in a
63  * flow translation. */
64 #define MAX_RESUBMIT_RECURSION 16
65
66 struct ofport_dpif;
67 struct ofproto_dpif;
68
69 struct rule_dpif {
70     struct rule up;
71
72     long long int used;         /* Time last used; time created if not used. */
73
74     /* These statistics:
75      *
76      *   - Do include packets and bytes from facets that have been deleted or
77      *     whose own statistics have been folded into the rule.
78      *
79      *   - Do include packets and bytes sent "by hand" that were accounted to
80      *     the rule without any facet being involved (this is a rare corner
81      *     case in rule_execute()).
82      *
83      *   - Do not include packet or bytes that can be obtained from any facet's
84      *     packet_count or byte_count member or that can be obtained from the
85      *     datapath by, e.g., dpif_flow_get() for any facet.
86      */
87     uint64_t packet_count;       /* Number of packets received. */
88     uint64_t byte_count;         /* Number of bytes received. */
89
90     struct list facets;          /* List of "struct facet"s. */
91 };
92
93 static struct rule_dpif *rule_dpif_cast(const struct rule *rule)
94 {
95     return rule ? CONTAINER_OF(rule, struct rule_dpif, up) : NULL;
96 }
97
98 static struct rule_dpif *rule_dpif_lookup(struct ofproto_dpif *ofproto,
99                                           const struct flow *flow);
100
101 #define MAX_MIRRORS 32
102 typedef uint32_t mirror_mask_t;
103 #define MIRROR_MASK_C(X) UINT32_C(X)
104 BUILD_ASSERT_DECL(sizeof(mirror_mask_t) * CHAR_BIT >= MAX_MIRRORS);
105 struct ofmirror {
106     struct ofproto_dpif *ofproto; /* Owning ofproto. */
107     size_t idx;                 /* In ofproto's "mirrors" array. */
108     void *aux;                  /* Key supplied by ofproto's client. */
109     char *name;                 /* Identifier for log messages. */
110
111     /* Selection criteria. */
112     struct hmapx srcs;          /* Contains "struct ofbundle *"s. */
113     struct hmapx dsts;          /* Contains "struct ofbundle *"s. */
114     unsigned long *vlans;       /* Bitmap of chosen VLANs, NULL selects all. */
115
116     /* Output (mutually exclusive). */
117     struct ofbundle *out;       /* Output port or NULL. */
118     int out_vlan;               /* Output VLAN or -1. */
119 };
120
121 static void mirror_destroy(struct ofmirror *);
122
123 /* A group of one or more OpenFlow ports. */
124 #define OFBUNDLE_FLOOD ((struct ofbundle *) 1)
125 struct ofbundle {
126     struct ofproto_dpif *ofproto; /* Owning ofproto. */
127     struct hmap_node hmap_node; /* In struct ofproto's "bundles" hmap. */
128     void *aux;                  /* Key supplied by ofproto's client. */
129     char *name;                 /* Identifier for log messages. */
130
131     /* Configuration. */
132     struct list ports;          /* Contains "struct ofport"s. */
133     int vlan;                   /* -1=trunk port, else a 12-bit VLAN ID. */
134     unsigned long *trunks;      /* Bitmap of trunked VLANs, if 'vlan' == -1.
135                                  * NULL if all VLANs are trunked. */
136     struct lacp *lacp;          /* LACP if LACP is enabled, otherwise NULL. */
137     struct bond *bond;          /* Nonnull iff more than one port. */
138
139     /* Status. */
140     bool floodable;             /* True if no port has OFPPC_NO_FLOOD set. */
141
142     /* Port mirroring info. */
143     mirror_mask_t src_mirrors;  /* Mirrors triggered when packet received. */
144     mirror_mask_t dst_mirrors;  /* Mirrors triggered when packet sent. */
145     mirror_mask_t mirror_out;   /* Mirrors that output to this bundle. */
146 };
147
148 static void bundle_remove(struct ofport *);
149 static void bundle_destroy(struct ofbundle *);
150 static void bundle_del_port(struct ofport_dpif *);
151 static void bundle_run(struct ofbundle *);
152 static void bundle_wait(struct ofbundle *);
153
154 struct action_xlate_ctx {
155 /* action_xlate_ctx_init() initializes these members. */
156
157     /* The ofproto. */
158     struct ofproto_dpif *ofproto;
159
160     /* Flow to which the OpenFlow actions apply.  xlate_actions() will modify
161      * this flow when actions change header fields. */
162     struct flow flow;
163
164     /* The packet corresponding to 'flow', or a null pointer if we are
165      * revalidating without a packet to refer to. */
166     const struct ofpbuf *packet;
167
168     /* If nonnull, called just before executing a resubmit action.
169      *
170      * This is normally null so the client has to set it manually after
171      * calling action_xlate_ctx_init(). */
172     void (*resubmit_hook)(struct action_xlate_ctx *, struct rule_dpif *);
173
174 /* xlate_actions() initializes and uses these members.  The client might want
175  * to look at them after it returns. */
176
177     struct ofpbuf *odp_actions; /* Datapath actions. */
178     tag_type tags;              /* Tags associated with OFPP_NORMAL actions. */
179     bool may_set_up_flow;       /* True ordinarily; false if the actions must
180                                  * be reassessed for every packet. */
181     uint16_t nf_output_iface;   /* Output interface index for NetFlow. */
182
183 /* xlate_actions() initializes and uses these members, but the client has no
184  * reason to look at them. */
185
186     int recurse;                /* Recursion level, via xlate_table_action. */
187     uint32_t priority;          /* Current flow priority. 0 if none. */
188     struct flow base_flow;      /* Flow at the last commit. */
189     uint32_t base_priority;     /* Priority at the last commit. */
190 };
191
192 static void action_xlate_ctx_init(struct action_xlate_ctx *,
193                                   struct ofproto_dpif *, const struct flow *,
194                                   const struct ofpbuf *);
195 static struct ofpbuf *xlate_actions(struct action_xlate_ctx *,
196                                     const union ofp_action *in, size_t n_in);
197
198 /* An exact-match instantiation of an OpenFlow flow. */
199 struct facet {
200     long long int used;         /* Time last used; time created if not used. */
201
202     /* These statistics:
203      *
204      *   - Do include packets and bytes sent "by hand", e.g. with
205      *     dpif_execute().
206      *
207      *   - Do include packets and bytes that were obtained from the datapath
208      *     when a flow was deleted (e.g. dpif_flow_del()) or when its
209      *     statistics were reset (e.g. dpif_flow_put() with
210      *     DPIF_FP_ZERO_STATS).
211      *
212      *   - Do not include any packets or bytes that can currently be obtained
213      *     from the datapath by, e.g., dpif_flow_get().
214      */
215     uint64_t packet_count;       /* Number of packets received. */
216     uint64_t byte_count;         /* Number of bytes received. */
217
218     uint64_t dp_packet_count;    /* Last known packet count in the datapath. */
219     uint64_t dp_byte_count;      /* Last known byte count in the datapath. */
220
221     uint64_t rs_packet_count;    /* Packets pushed to resubmit children. */
222     uint64_t rs_byte_count;      /* Bytes pushed to resubmit children. */
223     long long int rs_used;       /* Used time pushed to resubmit children. */
224
225     /* Number of bytes passed to account_cb.  This may include bytes that can
226      * currently obtained from the datapath (thus, it can be greater than
227      * byte_count). */
228     uint64_t accounted_bytes;
229
230     struct hmap_node hmap_node;  /* In owning ofproto's 'facets' hmap. */
231     struct list list_node;       /* In owning rule's 'facets' list. */
232     struct rule_dpif *rule;      /* Owning rule. */
233     struct flow flow;            /* Exact-match flow. */
234     bool installed;              /* Installed in datapath? */
235     bool may_install;            /* True ordinarily; false if actions must
236                                   * be reassessed for every packet. */
237     size_t actions_len;          /* Number of bytes in actions[]. */
238     struct nlattr *actions;      /* Datapath actions. */
239     tag_type tags;               /* Tags. */
240     struct netflow_flow nf_flow; /* Per-flow NetFlow tracking data. */
241 };
242
243 static struct facet *facet_create(struct rule_dpif *, const struct flow *,
244                                   const struct ofpbuf *packet);
245 static void facet_remove(struct ofproto_dpif *, struct facet *);
246 static void facet_free(struct facet *);
247
248 static struct facet *facet_find(struct ofproto_dpif *, const struct flow *);
249 static struct facet *facet_lookup_valid(struct ofproto_dpif *,
250                                         const struct flow *);
251 static bool facet_revalidate(struct ofproto_dpif *, struct facet *);
252
253 static void facet_execute(struct ofproto_dpif *, struct facet *,
254                           struct ofpbuf *packet);
255
256 static int facet_put__(struct ofproto_dpif *, struct facet *,
257                        const struct nlattr *actions, size_t actions_len,
258                        struct dpif_flow_stats *);
259 static void facet_install(struct ofproto_dpif *, struct facet *,
260                           bool zero_stats);
261 static void facet_uninstall(struct ofproto_dpif *, struct facet *);
262 static void facet_flush_stats(struct ofproto_dpif *, struct facet *);
263
264 static void facet_make_actions(struct ofproto_dpif *, struct facet *,
265                                const struct ofpbuf *packet);
266 static void facet_update_time(struct ofproto_dpif *, struct facet *,
267                               long long int used);
268 static void facet_update_stats(struct ofproto_dpif *, struct facet *,
269                                const struct dpif_flow_stats *);
270 static void facet_reset_dp_stats(struct facet *, struct dpif_flow_stats *);
271 static void facet_push_stats(struct facet *);
272 static void facet_account(struct ofproto_dpif *, struct facet *,
273                           uint64_t extra_bytes);
274
275 static bool facet_is_controller_flow(struct facet *);
276
277 static void flow_push_stats(const struct rule_dpif *,
278                             struct flow *, uint64_t packets, uint64_t bytes,
279                             long long int used);
280
281 struct ofport_dpif {
282     struct ofport up;
283
284     uint32_t odp_port;
285     struct ofbundle *bundle;    /* Bundle that contains this port, if any. */
286     struct list bundle_node;    /* In struct ofbundle's "ports" list. */
287     struct cfm *cfm;            /* Connectivity Fault Management, if any. */
288     tag_type tag;               /* Tag associated with this port. */
289     uint32_t bond_stable_id;    /* stable_id to use as bond slave, or 0. */
290 };
291
292 static struct ofport_dpif *
293 ofport_dpif_cast(const struct ofport *ofport)
294 {
295     assert(ofport->ofproto->ofproto_class == &ofproto_dpif_class);
296     return ofport ? CONTAINER_OF(ofport, struct ofport_dpif, up) : NULL;
297 }
298
299 static void port_run(struct ofport_dpif *);
300 static void port_wait(struct ofport_dpif *);
301 static int set_cfm(struct ofport *, const struct cfm_settings *);
302
303 struct dpif_completion {
304     struct list list_node;
305     struct ofoperation *op;
306 };
307
308 struct ofproto_dpif {
309     struct ofproto up;
310     struct dpif *dpif;
311     int max_ports;
312
313     /* Statistics. */
314     uint64_t n_matches;
315
316     /* Bridging. */
317     struct netflow *netflow;
318     struct dpif_sflow *sflow;
319     struct hmap bundles;        /* Contains "struct ofbundle"s. */
320     struct mac_learning *ml;
321     struct ofmirror *mirrors[MAX_MIRRORS];
322     bool has_bonded_bundles;
323
324     /* Expiration. */
325     struct timer next_expiration;
326
327     /* Facets. */
328     struct hmap facets;
329     bool need_revalidate;
330     struct tag_set revalidate_set;
331
332     /* Support for debugging async flow mods. */
333     struct list completions;
334 };
335
336 /* Defer flow mod completion until "ovs-appctl ofproto/unclog"?  (Useful only
337  * for debugging the asynchronous flow_mod implementation.) */
338 static bool clogged;
339
340 static void ofproto_dpif_unixctl_init(void);
341
342 static struct ofproto_dpif *
343 ofproto_dpif_cast(const struct ofproto *ofproto)
344 {
345     assert(ofproto->ofproto_class == &ofproto_dpif_class);
346     return CONTAINER_OF(ofproto, struct ofproto_dpif, up);
347 }
348
349 static struct ofport_dpif *get_ofp_port(struct ofproto_dpif *,
350                                         uint16_t ofp_port);
351 static struct ofport_dpif *get_odp_port(struct ofproto_dpif *,
352                                         uint32_t odp_port);
353
354 /* Packet processing. */
355 static void update_learning_table(struct ofproto_dpif *,
356                                   const struct flow *, int vlan,
357                                   struct ofbundle *);
358 static bool is_admissible(struct ofproto_dpif *, const struct flow *,
359                           bool have_packet, tag_type *, int *vlanp,
360                           struct ofbundle **in_bundlep);
361 static void handle_upcall(struct ofproto_dpif *, struct dpif_upcall *);
362
363 /* Flow expiration. */
364 static int expire(struct ofproto_dpif *);
365
366 /* Utilities. */
367 static int send_packet(struct ofproto_dpif *, uint32_t odp_port,
368                        const struct ofpbuf *packet);
369
370 /* Global variables. */
371 static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
372 \f
373 /* Factory functions. */
374
375 static void
376 enumerate_types(struct sset *types)
377 {
378     dp_enumerate_types(types);
379 }
380
381 static int
382 enumerate_names(const char *type, struct sset *names)
383 {
384     return dp_enumerate_names(type, names);
385 }
386
387 static int
388 del(const char *type, const char *name)
389 {
390     struct dpif *dpif;
391     int error;
392
393     error = dpif_open(name, type, &dpif);
394     if (!error) {
395         error = dpif_delete(dpif);
396         dpif_close(dpif);
397     }
398     return error;
399 }
400 \f
401 /* Basic life-cycle. */
402
403 static struct ofproto *
404 alloc(void)
405 {
406     struct ofproto_dpif *ofproto = xmalloc(sizeof *ofproto);
407     return &ofproto->up;
408 }
409
410 static void
411 dealloc(struct ofproto *ofproto_)
412 {
413     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
414     free(ofproto);
415 }
416
417 static int
418 construct(struct ofproto *ofproto_)
419 {
420     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
421     const char *name = ofproto->up.name;
422     int error;
423     int i;
424
425     error = dpif_create_and_open(name, ofproto->up.type, &ofproto->dpif);
426     if (error) {
427         VLOG_ERR("failed to open datapath %s: %s", name, strerror(error));
428         return error;
429     }
430
431     ofproto->max_ports = dpif_get_max_ports(ofproto->dpif);
432     ofproto->n_matches = 0;
433
434     error = dpif_recv_set_mask(ofproto->dpif,
435                                ((1u << DPIF_UC_MISS) |
436                                 (1u << DPIF_UC_ACTION) |
437                                 (1u << DPIF_UC_SAMPLE)));
438     if (error) {
439         VLOG_ERR("failed to listen on datapath %s: %s", name, strerror(error));
440         dpif_close(ofproto->dpif);
441         return error;
442     }
443     dpif_flow_flush(ofproto->dpif);
444     dpif_recv_purge(ofproto->dpif);
445
446     ofproto->netflow = NULL;
447     ofproto->sflow = NULL;
448     hmap_init(&ofproto->bundles);
449     ofproto->ml = mac_learning_create();
450     for (i = 0; i < MAX_MIRRORS; i++) {
451         ofproto->mirrors[i] = NULL;
452     }
453     ofproto->has_bonded_bundles = false;
454
455     timer_set_duration(&ofproto->next_expiration, 1000);
456
457     hmap_init(&ofproto->facets);
458     ofproto->need_revalidate = false;
459     tag_set_init(&ofproto->revalidate_set);
460
461     list_init(&ofproto->completions);
462
463     ofproto->up.tables = xmalloc(sizeof *ofproto->up.tables);
464     classifier_init(&ofproto->up.tables[0]);
465     ofproto->up.n_tables = 1;
466
467     ofproto_dpif_unixctl_init();
468
469     return 0;
470 }
471
472 static void
473 complete_operations(struct ofproto_dpif *ofproto)
474 {
475     struct dpif_completion *c, *next;
476
477     LIST_FOR_EACH_SAFE (c, next, list_node, &ofproto->completions) {
478         ofoperation_complete(c->op, 0);
479         list_remove(&c->list_node);
480         free(c);
481     }
482 }
483
484 static void
485 destruct(struct ofproto *ofproto_)
486 {
487     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
488     struct rule_dpif *rule, *next_rule;
489     struct cls_cursor cursor;
490     int i;
491
492     complete_operations(ofproto);
493
494     cls_cursor_init(&cursor, &ofproto->up.tables[0], NULL);
495     CLS_CURSOR_FOR_EACH_SAFE (rule, next_rule, up.cr, &cursor) {
496         ofproto_rule_destroy(&rule->up);
497     }
498
499     for (i = 0; i < MAX_MIRRORS; i++) {
500         mirror_destroy(ofproto->mirrors[i]);
501     }
502
503     netflow_destroy(ofproto->netflow);
504     dpif_sflow_destroy(ofproto->sflow);
505     hmap_destroy(&ofproto->bundles);
506     mac_learning_destroy(ofproto->ml);
507
508     hmap_destroy(&ofproto->facets);
509
510     dpif_close(ofproto->dpif);
511 }
512
513 static int
514 run(struct ofproto *ofproto_)
515 {
516     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
517     struct ofport_dpif *ofport;
518     struct ofbundle *bundle;
519     int i;
520
521     if (!clogged) {
522         complete_operations(ofproto);
523     }
524     dpif_run(ofproto->dpif);
525
526     for (i = 0; i < 50; i++) {
527         struct dpif_upcall packet;
528         int error;
529
530         error = dpif_recv(ofproto->dpif, &packet);
531         if (error) {
532             if (error == ENODEV) {
533                 /* Datapath destroyed. */
534                 return error;
535             }
536             break;
537         }
538
539         handle_upcall(ofproto, &packet);
540     }
541
542     if (timer_expired(&ofproto->next_expiration)) {
543         int delay = expire(ofproto);
544         timer_set_duration(&ofproto->next_expiration, delay);
545     }
546
547     if (ofproto->netflow) {
548         netflow_run(ofproto->netflow);
549     }
550     if (ofproto->sflow) {
551         dpif_sflow_run(ofproto->sflow);
552     }
553
554     HMAP_FOR_EACH (ofport, up.hmap_node, &ofproto->up.ports) {
555         port_run(ofport);
556     }
557     HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
558         bundle_run(bundle);
559     }
560
561     /* Now revalidate if there's anything to do. */
562     if (ofproto->need_revalidate
563         || !tag_set_is_empty(&ofproto->revalidate_set)) {
564         struct tag_set revalidate_set = ofproto->revalidate_set;
565         bool revalidate_all = ofproto->need_revalidate;
566         struct facet *facet, *next;
567
568         /* Clear the revalidation flags. */
569         tag_set_init(&ofproto->revalidate_set);
570         ofproto->need_revalidate = false;
571
572         HMAP_FOR_EACH_SAFE (facet, next, hmap_node, &ofproto->facets) {
573             if (revalidate_all
574                 || tag_set_intersects(&revalidate_set, facet->tags)) {
575                 facet_revalidate(ofproto, facet);
576             }
577         }
578     }
579
580     return 0;
581 }
582
583 static void
584 wait(struct ofproto *ofproto_)
585 {
586     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
587     struct ofport_dpif *ofport;
588     struct ofbundle *bundle;
589
590     if (!clogged && !list_is_empty(&ofproto->completions)) {
591         poll_immediate_wake();
592     }
593
594     dpif_wait(ofproto->dpif);
595     dpif_recv_wait(ofproto->dpif);
596     if (ofproto->sflow) {
597         dpif_sflow_wait(ofproto->sflow);
598     }
599     if (!tag_set_is_empty(&ofproto->revalidate_set)) {
600         poll_immediate_wake();
601     }
602     HMAP_FOR_EACH (ofport, up.hmap_node, &ofproto->up.ports) {
603         port_wait(ofport);
604     }
605     HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
606         bundle_wait(bundle);
607     }
608     if (ofproto->need_revalidate) {
609         /* Shouldn't happen, but if it does just go around again. */
610         VLOG_DBG_RL(&rl, "need revalidate in ofproto_wait_cb()");
611         poll_immediate_wake();
612     } else {
613         timer_wait(&ofproto->next_expiration);
614     }
615 }
616
617 static void
618 flush(struct ofproto *ofproto_)
619 {
620     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
621     struct facet *facet, *next_facet;
622
623     HMAP_FOR_EACH_SAFE (facet, next_facet, hmap_node, &ofproto->facets) {
624         /* Mark the facet as not installed so that facet_remove() doesn't
625          * bother trying to uninstall it.  There is no point in uninstalling it
626          * individually since we are about to blow away all the facets with
627          * dpif_flow_flush(). */
628         facet->installed = false;
629         facet->dp_packet_count = 0;
630         facet->dp_byte_count = 0;
631         facet_remove(ofproto, facet);
632     }
633     dpif_flow_flush(ofproto->dpif);
634 }
635
636 static void
637 get_features(struct ofproto *ofproto_ OVS_UNUSED,
638              bool *arp_match_ip, uint32_t *actions)
639 {
640     *arp_match_ip = true;
641     *actions = ((1u << OFPAT_OUTPUT) |
642                 (1u << OFPAT_SET_VLAN_VID) |
643                 (1u << OFPAT_SET_VLAN_PCP) |
644                 (1u << OFPAT_STRIP_VLAN) |
645                 (1u << OFPAT_SET_DL_SRC) |
646                 (1u << OFPAT_SET_DL_DST) |
647                 (1u << OFPAT_SET_NW_SRC) |
648                 (1u << OFPAT_SET_NW_DST) |
649                 (1u << OFPAT_SET_NW_TOS) |
650                 (1u << OFPAT_SET_TP_SRC) |
651                 (1u << OFPAT_SET_TP_DST) |
652                 (1u << OFPAT_ENQUEUE));
653 }
654
655 static void
656 get_tables(struct ofproto *ofproto_, struct ofp_table_stats *ots)
657 {
658     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
659     struct odp_stats s;
660
661     strcpy(ots->name, "classifier");
662
663     dpif_get_dp_stats(ofproto->dpif, &s);
664     put_32aligned_be64(&ots->lookup_count, htonll(s.n_hit + s.n_missed));
665     put_32aligned_be64(&ots->matched_count,
666                        htonll(s.n_hit + ofproto->n_matches));
667 }
668
669 static int
670 set_netflow(struct ofproto *ofproto_,
671             const struct netflow_options *netflow_options)
672 {
673     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
674
675     if (netflow_options) {
676         if (!ofproto->netflow) {
677             ofproto->netflow = netflow_create();
678         }
679         return netflow_set_options(ofproto->netflow, netflow_options);
680     } else {
681         netflow_destroy(ofproto->netflow);
682         ofproto->netflow = NULL;
683         return 0;
684     }
685 }
686
687 static struct ofport *
688 port_alloc(void)
689 {
690     struct ofport_dpif *port = xmalloc(sizeof *port);
691     return &port->up;
692 }
693
694 static void
695 port_dealloc(struct ofport *port_)
696 {
697     struct ofport_dpif *port = ofport_dpif_cast(port_);
698     free(port);
699 }
700
701 static int
702 port_construct(struct ofport *port_)
703 {
704     struct ofport_dpif *port = ofport_dpif_cast(port_);
705     struct ofproto_dpif *ofproto = ofproto_dpif_cast(port->up.ofproto);
706
707     port->odp_port = ofp_port_to_odp_port(port->up.ofp_port);
708     port->bundle = NULL;
709     port->cfm = NULL;
710     port->tag = tag_create_random();
711
712     if (ofproto->sflow) {
713         dpif_sflow_add_port(ofproto->sflow, port->odp_port,
714                             netdev_get_name(port->up.netdev));
715     }
716
717     return 0;
718 }
719
720 static void
721 port_destruct(struct ofport *port_)
722 {
723     struct ofport_dpif *port = ofport_dpif_cast(port_);
724     struct ofproto_dpif *ofproto = ofproto_dpif_cast(port->up.ofproto);
725
726     bundle_remove(port_);
727     set_cfm(port_, NULL);
728     if (ofproto->sflow) {
729         dpif_sflow_del_port(ofproto->sflow, port->odp_port);
730     }
731 }
732
733 static void
734 port_modified(struct ofport *port_)
735 {
736     struct ofport_dpif *port = ofport_dpif_cast(port_);
737
738     if (port->bundle && port->bundle->bond) {
739         bond_slave_set_netdev(port->bundle->bond, port, port->up.netdev);
740     }
741 }
742
743 static void
744 port_reconfigured(struct ofport *port_, ovs_be32 old_config)
745 {
746     struct ofport_dpif *port = ofport_dpif_cast(port_);
747     struct ofproto_dpif *ofproto = ofproto_dpif_cast(port->up.ofproto);
748     ovs_be32 changed = old_config ^ port->up.opp.config;
749
750     if (changed & htonl(OFPPC_NO_RECV | OFPPC_NO_RECV_STP |
751                         OFPPC_NO_FWD | OFPPC_NO_FLOOD)) {
752         ofproto->need_revalidate = true;
753     }
754 }
755
756 static int
757 set_sflow(struct ofproto *ofproto_,
758           const struct ofproto_sflow_options *sflow_options)
759 {
760     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
761     struct dpif_sflow *ds = ofproto->sflow;
762     if (sflow_options) {
763         if (!ds) {
764             struct ofport_dpif *ofport;
765
766             ds = ofproto->sflow = dpif_sflow_create(ofproto->dpif);
767             HMAP_FOR_EACH (ofport, up.hmap_node, &ofproto->up.ports) {
768                 dpif_sflow_add_port(ds, ofport->odp_port,
769                                     netdev_get_name(ofport->up.netdev));
770             }
771         }
772         dpif_sflow_set_options(ds, sflow_options);
773     } else {
774         dpif_sflow_destroy(ds);
775         ofproto->sflow = NULL;
776     }
777     return 0;
778 }
779
780 static int
781 set_cfm(struct ofport *ofport_, const struct cfm_settings *s)
782 {
783     struct ofport_dpif *ofport = ofport_dpif_cast(ofport_);
784     int error;
785
786     if (!s) {
787         error = 0;
788     } else {
789         if (!ofport->cfm) {
790             ofport->cfm = cfm_create(netdev_get_name(ofport->up.netdev));
791         }
792
793         if (cfm_configure(ofport->cfm, s)) {
794             return 0;
795         }
796
797         error = EINVAL;
798     }
799     cfm_destroy(ofport->cfm);
800     ofport->cfm = NULL;
801     return error;
802 }
803
804 static int
805 get_cfm_fault(const struct ofport *ofport_)
806 {
807     struct ofport_dpif *ofport = ofport_dpif_cast(ofport_);
808
809     return ofport->cfm ? cfm_get_fault(ofport->cfm) : -1;
810 }
811 \f
812 /* Bundles. */
813
814 /* Expires all MAC learning entries associated with 'port' and forces ofproto
815  * to revalidate every flow. */
816 static void
817 bundle_flush_macs(struct ofbundle *bundle)
818 {
819     struct ofproto_dpif *ofproto = bundle->ofproto;
820     struct mac_learning *ml = ofproto->ml;
821     struct mac_entry *mac, *next_mac;
822
823     ofproto->need_revalidate = true;
824     LIST_FOR_EACH_SAFE (mac, next_mac, lru_node, &ml->lrus) {
825         if (mac->port.p == bundle) {
826             mac_learning_expire(ml, mac);
827         }
828     }
829 }
830
831 static struct ofbundle *
832 bundle_lookup(const struct ofproto_dpif *ofproto, void *aux)
833 {
834     struct ofbundle *bundle;
835
836     HMAP_FOR_EACH_IN_BUCKET (bundle, hmap_node, hash_pointer(aux, 0),
837                              &ofproto->bundles) {
838         if (bundle->aux == aux) {
839             return bundle;
840         }
841     }
842     return NULL;
843 }
844
845 /* Looks up each of the 'n_auxes' pointers in 'auxes' as bundles and adds the
846  * ones that are found to 'bundles'. */
847 static void
848 bundle_lookup_multiple(struct ofproto_dpif *ofproto,
849                        void **auxes, size_t n_auxes,
850                        struct hmapx *bundles)
851 {
852     size_t i;
853
854     hmapx_init(bundles);
855     for (i = 0; i < n_auxes; i++) {
856         struct ofbundle *bundle = bundle_lookup(ofproto, auxes[i]);
857         if (bundle) {
858             hmapx_add(bundles, bundle);
859         }
860     }
861 }
862
863 static void
864 bundle_del_port(struct ofport_dpif *port)
865 {
866     struct ofbundle *bundle = port->bundle;
867
868     bundle->ofproto->need_revalidate = true;
869
870     list_remove(&port->bundle_node);
871     port->bundle = NULL;
872
873     if (bundle->lacp) {
874         lacp_slave_unregister(bundle->lacp, port);
875     }
876     if (bundle->bond) {
877         bond_slave_unregister(bundle->bond, port);
878     }
879
880     bundle->floodable = true;
881     LIST_FOR_EACH (port, bundle_node, &bundle->ports) {
882         if (port->up.opp.config & htonl(OFPPC_NO_FLOOD)) {
883             bundle->floodable = false;
884         }
885     }
886 }
887
888 static bool
889 bundle_add_port(struct ofbundle *bundle, uint32_t ofp_port,
890                 struct lacp_slave_settings *lacp,
891                 uint32_t bond_stable_id)
892 {
893     struct ofport_dpif *port;
894
895     port = get_ofp_port(bundle->ofproto, ofp_port);
896     if (!port) {
897         return false;
898     }
899
900     if (port->bundle != bundle) {
901         bundle->ofproto->need_revalidate = true;
902         if (port->bundle) {
903             bundle_del_port(port);
904         }
905
906         port->bundle = bundle;
907         list_push_back(&bundle->ports, &port->bundle_node);
908         if (port->up.opp.config & htonl(OFPPC_NO_FLOOD)) {
909             bundle->floodable = false;
910         }
911     }
912     if (lacp) {
913         lacp_slave_register(bundle->lacp, port, lacp);
914     }
915
916     port->bond_stable_id = bond_stable_id;
917
918     return true;
919 }
920
921 static void
922 bundle_destroy(struct ofbundle *bundle)
923 {
924     struct ofproto_dpif *ofproto;
925     struct ofport_dpif *port, *next_port;
926     int i;
927
928     if (!bundle) {
929         return;
930     }
931
932     ofproto = bundle->ofproto;
933     for (i = 0; i < MAX_MIRRORS; i++) {
934         struct ofmirror *m = ofproto->mirrors[i];
935         if (m) {
936             if (m->out == bundle) {
937                 mirror_destroy(m);
938             } else if (hmapx_find_and_delete(&m->srcs, bundle)
939                        || hmapx_find_and_delete(&m->dsts, bundle)) {
940                 ofproto->need_revalidate = true;
941             }
942         }
943     }
944
945     LIST_FOR_EACH_SAFE (port, next_port, bundle_node, &bundle->ports) {
946         bundle_del_port(port);
947     }
948
949     bundle_flush_macs(bundle);
950     hmap_remove(&ofproto->bundles, &bundle->hmap_node);
951     free(bundle->name);
952     free(bundle->trunks);
953     lacp_destroy(bundle->lacp);
954     bond_destroy(bundle->bond);
955     free(bundle);
956 }
957
958 static int
959 bundle_set(struct ofproto *ofproto_, void *aux,
960            const struct ofproto_bundle_settings *s)
961 {
962     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
963     bool need_flush = false;
964     const unsigned long *trunks;
965     struct ofport_dpif *port;
966     struct ofbundle *bundle;
967     size_t i;
968     bool ok;
969
970     if (!s) {
971         bundle_destroy(bundle_lookup(ofproto, aux));
972         return 0;
973     }
974
975     assert(s->n_slaves == 1 || s->bond != NULL);
976     assert((s->lacp != NULL) == (s->lacp_slaves != NULL));
977
978     bundle = bundle_lookup(ofproto, aux);
979     if (!bundle) {
980         bundle = xmalloc(sizeof *bundle);
981
982         bundle->ofproto = ofproto;
983         hmap_insert(&ofproto->bundles, &bundle->hmap_node,
984                     hash_pointer(aux, 0));
985         bundle->aux = aux;
986         bundle->name = NULL;
987
988         list_init(&bundle->ports);
989         bundle->vlan = -1;
990         bundle->trunks = NULL;
991         bundle->lacp = NULL;
992         bundle->bond = NULL;
993
994         bundle->floodable = true;
995
996         bundle->src_mirrors = 0;
997         bundle->dst_mirrors = 0;
998         bundle->mirror_out = 0;
999     }
1000
1001     if (!bundle->name || strcmp(s->name, bundle->name)) {
1002         free(bundle->name);
1003         bundle->name = xstrdup(s->name);
1004     }
1005
1006     /* LACP. */
1007     if (s->lacp) {
1008         if (!bundle->lacp) {
1009             bundle->lacp = lacp_create();
1010         }
1011         lacp_configure(bundle->lacp, s->lacp);
1012     } else {
1013         lacp_destroy(bundle->lacp);
1014         bundle->lacp = NULL;
1015     }
1016
1017     /* Update set of ports. */
1018     ok = true;
1019     for (i = 0; i < s->n_slaves; i++) {
1020         if (!bundle_add_port(bundle, s->slaves[i],
1021                              s->lacp ? &s->lacp_slaves[i] : NULL,
1022                              s->bond_stable_ids ? s->bond_stable_ids[i] : 0)) {
1023             ok = false;
1024         }
1025     }
1026     if (!ok || list_size(&bundle->ports) != s->n_slaves) {
1027         struct ofport_dpif *next_port;
1028
1029         LIST_FOR_EACH_SAFE (port, next_port, bundle_node, &bundle->ports) {
1030             for (i = 0; i < s->n_slaves; i++) {
1031                 if (s->slaves[i] == port->up.ofp_port) {
1032                     goto found;
1033                 }
1034             }
1035
1036             bundle_del_port(port);
1037         found: ;
1038         }
1039     }
1040     assert(list_size(&bundle->ports) <= s->n_slaves);
1041
1042     if (list_is_empty(&bundle->ports)) {
1043         bundle_destroy(bundle);
1044         return EINVAL;
1045     }
1046
1047     /* Set VLAN tag. */
1048     if (s->vlan != bundle->vlan) {
1049         bundle->vlan = s->vlan;
1050         need_flush = true;
1051     }
1052
1053     /* Get trunked VLANs. */
1054     trunks = s->vlan == -1 ? NULL : s->trunks;
1055     if (!vlan_bitmap_equal(trunks, bundle->trunks)) {
1056         free(bundle->trunks);
1057         bundle->trunks = vlan_bitmap_clone(trunks);
1058         need_flush = true;
1059     }
1060
1061     /* Bonding. */
1062     if (!list_is_short(&bundle->ports)) {
1063         bundle->ofproto->has_bonded_bundles = true;
1064         if (bundle->bond) {
1065             if (bond_reconfigure(bundle->bond, s->bond)) {
1066                 ofproto->need_revalidate = true;
1067             }
1068         } else {
1069             bundle->bond = bond_create(s->bond);
1070             ofproto->need_revalidate = true;
1071         }
1072
1073         LIST_FOR_EACH (port, bundle_node, &bundle->ports) {
1074             bond_slave_register(bundle->bond, port, port->bond_stable_id,
1075                                 port->up.netdev);
1076         }
1077     } else {
1078         bond_destroy(bundle->bond);
1079         bundle->bond = NULL;
1080     }
1081
1082     /* If we changed something that would affect MAC learning, un-learn
1083      * everything on this port and force flow revalidation. */
1084     if (need_flush) {
1085         bundle_flush_macs(bundle);
1086     }
1087
1088     return 0;
1089 }
1090
1091 static void
1092 bundle_remove(struct ofport *port_)
1093 {
1094     struct ofport_dpif *port = ofport_dpif_cast(port_);
1095     struct ofbundle *bundle = port->bundle;
1096
1097     if (bundle) {
1098         bundle_del_port(port);
1099         if (list_is_empty(&bundle->ports)) {
1100             bundle_destroy(bundle);
1101         } else if (list_is_short(&bundle->ports)) {
1102             bond_destroy(bundle->bond);
1103             bundle->bond = NULL;
1104         }
1105     }
1106 }
1107
1108 static void
1109 send_pdu_cb(void *port_, const struct lacp_pdu *pdu)
1110 {
1111     static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 10);
1112     struct ofport_dpif *port = port_;
1113     uint8_t ea[ETH_ADDR_LEN];
1114     int error;
1115
1116     error = netdev_get_etheraddr(port->up.netdev, ea);
1117     if (!error) {
1118         struct lacp_pdu *packet_pdu;
1119         struct ofpbuf packet;
1120
1121         ofpbuf_init(&packet, 0);
1122         packet_pdu = eth_compose(&packet, eth_addr_lacp, ea, ETH_TYPE_LACP,
1123                                  sizeof *packet_pdu);
1124         *packet_pdu = *pdu;
1125         error = netdev_send(port->up.netdev, &packet);
1126         if (error) {
1127             VLOG_WARN_RL(&rl, "port %s: sending LACP PDU on iface %s failed "
1128                          "(%s)", port->bundle->name,
1129                          netdev_get_name(port->up.netdev), strerror(error));
1130         }
1131         ofpbuf_uninit(&packet);
1132     } else {
1133         VLOG_ERR_RL(&rl, "port %s: cannot obtain Ethernet address of iface "
1134                     "%s (%s)", port->bundle->name,
1135                     netdev_get_name(port->up.netdev), strerror(error));
1136     }
1137 }
1138
1139 static void
1140 bundle_send_learning_packets(struct ofbundle *bundle)
1141 {
1142     struct ofproto_dpif *ofproto = bundle->ofproto;
1143     int error, n_packets, n_errors;
1144     struct mac_entry *e;
1145
1146     error = n_packets = n_errors = 0;
1147     LIST_FOR_EACH (e, lru_node, &ofproto->ml->lrus) {
1148         if (e->port.p != bundle) {
1149             int ret = bond_send_learning_packet(bundle->bond, e->mac, e->vlan);
1150             if (ret) {
1151                 error = ret;
1152                 n_errors++;
1153             }
1154             n_packets++;
1155         }
1156     }
1157
1158     if (n_errors) {
1159         static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
1160         VLOG_WARN_RL(&rl, "bond %s: %d errors sending %d gratuitous learning "
1161                      "packets, last error was: %s",
1162                      bundle->name, n_errors, n_packets, strerror(error));
1163     } else {
1164         VLOG_DBG("bond %s: sent %d gratuitous learning packets",
1165                  bundle->name, n_packets);
1166     }
1167 }
1168
1169 static void
1170 bundle_run(struct ofbundle *bundle)
1171 {
1172     if (bundle->lacp) {
1173         lacp_run(bundle->lacp, send_pdu_cb);
1174     }
1175     if (bundle->bond) {
1176         struct ofport_dpif *port;
1177
1178         LIST_FOR_EACH (port, bundle_node, &bundle->ports) {
1179             bool may_enable = lacp_slave_may_enable(bundle->lacp, port);
1180
1181             if (may_enable && port->cfm) {
1182                 may_enable = !cfm_get_fault(port->cfm);
1183             }
1184             bond_slave_set_may_enable(bundle->bond, port, may_enable);
1185         }
1186
1187         bond_run(bundle->bond, &bundle->ofproto->revalidate_set,
1188                  lacp_negotiated(bundle->lacp));
1189         if (bond_should_send_learning_packets(bundle->bond)) {
1190             bundle_send_learning_packets(bundle);
1191         }
1192     }
1193 }
1194
1195 static void
1196 bundle_wait(struct ofbundle *bundle)
1197 {
1198     if (bundle->lacp) {
1199         lacp_wait(bundle->lacp);
1200     }
1201     if (bundle->bond) {
1202         bond_wait(bundle->bond);
1203     }
1204 }
1205 \f
1206 /* Mirrors. */
1207
1208 static int
1209 mirror_scan(struct ofproto_dpif *ofproto)
1210 {
1211     int idx;
1212
1213     for (idx = 0; idx < MAX_MIRRORS; idx++) {
1214         if (!ofproto->mirrors[idx]) {
1215             return idx;
1216         }
1217     }
1218     return -1;
1219 }
1220
1221 static struct ofmirror *
1222 mirror_lookup(struct ofproto_dpif *ofproto, void *aux)
1223 {
1224     int i;
1225
1226     for (i = 0; i < MAX_MIRRORS; i++) {
1227         struct ofmirror *mirror = ofproto->mirrors[i];
1228         if (mirror && mirror->aux == aux) {
1229             return mirror;
1230         }
1231     }
1232
1233     return NULL;
1234 }
1235
1236 static int
1237 mirror_set(struct ofproto *ofproto_, void *aux,
1238            const struct ofproto_mirror_settings *s)
1239 {
1240     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1241     mirror_mask_t mirror_bit;
1242     struct ofbundle *bundle;
1243     struct ofmirror *mirror;
1244     struct ofbundle *out;
1245     struct hmapx srcs;          /* Contains "struct ofbundle *"s. */
1246     struct hmapx dsts;          /* Contains "struct ofbundle *"s. */
1247     int out_vlan;
1248
1249     mirror = mirror_lookup(ofproto, aux);
1250     if (!s) {
1251         mirror_destroy(mirror);
1252         return 0;
1253     }
1254     if (!mirror) {
1255         int idx;
1256
1257         idx = mirror_scan(ofproto);
1258         if (idx < 0) {
1259             VLOG_WARN("bridge %s: maximum of %d port mirrors reached, "
1260                       "cannot create %s",
1261                       ofproto->up.name, MAX_MIRRORS, s->name);
1262             return EFBIG;
1263         }
1264
1265         mirror = ofproto->mirrors[idx] = xzalloc(sizeof *mirror);
1266         mirror->ofproto = ofproto;
1267         mirror->idx = idx;
1268         mirror->out_vlan = -1;
1269         mirror->name = NULL;
1270     }
1271
1272     if (!mirror->name || strcmp(s->name, mirror->name)) {
1273         free(mirror->name);
1274         mirror->name = xstrdup(s->name);
1275     }
1276
1277     /* Get the new configuration. */
1278     if (s->out_bundle) {
1279         out = bundle_lookup(ofproto, s->out_bundle);
1280         if (!out) {
1281             mirror_destroy(mirror);
1282             return EINVAL;
1283         }
1284         out_vlan = -1;
1285     } else {
1286         out = NULL;
1287         out_vlan = s->out_vlan;
1288     }
1289     bundle_lookup_multiple(ofproto, s->srcs, s->n_srcs, &srcs);
1290     bundle_lookup_multiple(ofproto, s->dsts, s->n_dsts, &dsts);
1291
1292     /* If the configuration has not changed, do nothing. */
1293     if (hmapx_equals(&srcs, &mirror->srcs)
1294         && hmapx_equals(&dsts, &mirror->dsts)
1295         && vlan_bitmap_equal(mirror->vlans, s->src_vlans)
1296         && mirror->out == out
1297         && mirror->out_vlan == out_vlan)
1298     {
1299         hmapx_destroy(&srcs);
1300         hmapx_destroy(&dsts);
1301         return 0;
1302     }
1303
1304     hmapx_swap(&srcs, &mirror->srcs);
1305     hmapx_destroy(&srcs);
1306
1307     hmapx_swap(&dsts, &mirror->dsts);
1308     hmapx_destroy(&dsts);
1309
1310     free(mirror->vlans);
1311     mirror->vlans = vlan_bitmap_clone(s->src_vlans);
1312
1313     mirror->out = out;
1314     mirror->out_vlan = out_vlan;
1315
1316     /* Update bundles. */
1317     mirror_bit = MIRROR_MASK_C(1) << mirror->idx;
1318     HMAP_FOR_EACH (bundle, hmap_node, &mirror->ofproto->bundles) {
1319         if (hmapx_contains(&mirror->srcs, bundle)) {
1320             bundle->src_mirrors |= mirror_bit;
1321         } else {
1322             bundle->src_mirrors &= ~mirror_bit;
1323         }
1324
1325         if (hmapx_contains(&mirror->dsts, bundle)) {
1326             bundle->dst_mirrors |= mirror_bit;
1327         } else {
1328             bundle->dst_mirrors &= ~mirror_bit;
1329         }
1330
1331         if (mirror->out == bundle) {
1332             bundle->mirror_out |= mirror_bit;
1333         } else {
1334             bundle->mirror_out &= ~mirror_bit;
1335         }
1336     }
1337
1338     ofproto->need_revalidate = true;
1339     mac_learning_flush(ofproto->ml);
1340
1341     return 0;
1342 }
1343
1344 static void
1345 mirror_destroy(struct ofmirror *mirror)
1346 {
1347     struct ofproto_dpif *ofproto;
1348     mirror_mask_t mirror_bit;
1349     struct ofbundle *bundle;
1350
1351     if (!mirror) {
1352         return;
1353     }
1354
1355     ofproto = mirror->ofproto;
1356     ofproto->need_revalidate = true;
1357     mac_learning_flush(ofproto->ml);
1358
1359     mirror_bit = MIRROR_MASK_C(1) << mirror->idx;
1360     HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
1361         bundle->src_mirrors &= ~mirror_bit;
1362         bundle->dst_mirrors &= ~mirror_bit;
1363         bundle->mirror_out &= ~mirror_bit;
1364     }
1365
1366     hmapx_destroy(&mirror->srcs);
1367     hmapx_destroy(&mirror->dsts);
1368     free(mirror->vlans);
1369
1370     ofproto->mirrors[mirror->idx] = NULL;
1371     free(mirror->name);
1372     free(mirror);
1373 }
1374
1375 static int
1376 set_flood_vlans(struct ofproto *ofproto_, unsigned long *flood_vlans)
1377 {
1378     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1379     if (mac_learning_set_flood_vlans(ofproto->ml, flood_vlans)) {
1380         ofproto->need_revalidate = true;
1381         mac_learning_flush(ofproto->ml);
1382     }
1383     return 0;
1384 }
1385
1386 static bool
1387 is_mirror_output_bundle(struct ofproto *ofproto_, void *aux)
1388 {
1389     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1390     struct ofbundle *bundle = bundle_lookup(ofproto, aux);
1391     return bundle && bundle->mirror_out != 0;
1392 }
1393 \f
1394 /* Ports. */
1395
1396 static struct ofport_dpif *
1397 get_ofp_port(struct ofproto_dpif *ofproto, uint16_t ofp_port)
1398 {
1399     struct ofport *ofport = ofproto_get_port(&ofproto->up, ofp_port);
1400     return ofport ? ofport_dpif_cast(ofport) : NULL;
1401 }
1402
1403 static struct ofport_dpif *
1404 get_odp_port(struct ofproto_dpif *ofproto, uint32_t odp_port)
1405 {
1406     return get_ofp_port(ofproto, odp_port_to_ofp_port(odp_port));
1407 }
1408
1409 static void
1410 ofproto_port_from_dpif_port(struct ofproto_port *ofproto_port,
1411                             struct dpif_port *dpif_port)
1412 {
1413     ofproto_port->name = dpif_port->name;
1414     ofproto_port->type = dpif_port->type;
1415     ofproto_port->ofp_port = odp_port_to_ofp_port(dpif_port->port_no);
1416 }
1417
1418 static void
1419 port_run(struct ofport_dpif *ofport)
1420 {
1421     if (ofport->cfm) {
1422         cfm_run(ofport->cfm);
1423
1424         if (cfm_should_send_ccm(ofport->cfm)) {
1425             struct ofpbuf packet;
1426
1427             ofpbuf_init(&packet, 0);
1428             cfm_compose_ccm(ofport->cfm, &packet, ofport->up.opp.hw_addr);
1429             send_packet(ofproto_dpif_cast(ofport->up.ofproto),
1430                         ofport->odp_port, &packet);
1431             ofpbuf_uninit(&packet);
1432         }
1433     }
1434 }
1435
1436 static void
1437 port_wait(struct ofport_dpif *ofport)
1438 {
1439     if (ofport->cfm) {
1440         cfm_wait(ofport->cfm);
1441     }
1442 }
1443
1444 static int
1445 port_query_by_name(const struct ofproto *ofproto_, const char *devname,
1446                    struct ofproto_port *ofproto_port)
1447 {
1448     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1449     struct dpif_port dpif_port;
1450     int error;
1451
1452     error = dpif_port_query_by_name(ofproto->dpif, devname, &dpif_port);
1453     if (!error) {
1454         ofproto_port_from_dpif_port(ofproto_port, &dpif_port);
1455     }
1456     return error;
1457 }
1458
1459 static int
1460 port_add(struct ofproto *ofproto_, struct netdev *netdev, uint16_t *ofp_portp)
1461 {
1462     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1463     uint16_t odp_port;
1464     int error;
1465
1466     error = dpif_port_add(ofproto->dpif, netdev, &odp_port);
1467     if (!error) {
1468         *ofp_portp = odp_port_to_ofp_port(odp_port);
1469     }
1470     return error;
1471 }
1472
1473 static int
1474 port_del(struct ofproto *ofproto_, uint16_t ofp_port)
1475 {
1476     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1477     int error;
1478
1479     error = dpif_port_del(ofproto->dpif, ofp_port_to_odp_port(ofp_port));
1480     if (!error) {
1481         struct ofport_dpif *ofport = get_ofp_port(ofproto, ofp_port);
1482         if (ofport) {
1483             /* The caller is going to close ofport->up.netdev.  If this is a
1484              * bonded port, then the bond is using that netdev, so remove it
1485              * from the bond.  The client will need to reconfigure everything
1486              * after deleting ports, so then the slave will get re-added. */
1487             bundle_remove(&ofport->up);
1488         }
1489     }
1490     return error;
1491 }
1492
1493 struct port_dump_state {
1494     struct dpif_port_dump dump;
1495     bool done;
1496 };
1497
1498 static int
1499 port_dump_start(const struct ofproto *ofproto_, void **statep)
1500 {
1501     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1502     struct port_dump_state *state;
1503
1504     *statep = state = xmalloc(sizeof *state);
1505     dpif_port_dump_start(&state->dump, ofproto->dpif);
1506     state->done = false;
1507     return 0;
1508 }
1509
1510 static int
1511 port_dump_next(const struct ofproto *ofproto_ OVS_UNUSED, void *state_,
1512                struct ofproto_port *port)
1513 {
1514     struct port_dump_state *state = state_;
1515     struct dpif_port dpif_port;
1516
1517     if (dpif_port_dump_next(&state->dump, &dpif_port)) {
1518         ofproto_port_from_dpif_port(port, &dpif_port);
1519         return 0;
1520     } else {
1521         int error = dpif_port_dump_done(&state->dump);
1522         state->done = true;
1523         return error ? error : EOF;
1524     }
1525 }
1526
1527 static int
1528 port_dump_done(const struct ofproto *ofproto_ OVS_UNUSED, void *state_)
1529 {
1530     struct port_dump_state *state = state_;
1531
1532     if (!state->done) {
1533         dpif_port_dump_done(&state->dump);
1534     }
1535     free(state);
1536     return 0;
1537 }
1538
1539 static int
1540 port_poll(const struct ofproto *ofproto_, char **devnamep)
1541 {
1542     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1543     return dpif_port_poll(ofproto->dpif, devnamep);
1544 }
1545
1546 static void
1547 port_poll_wait(const struct ofproto *ofproto_)
1548 {
1549     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
1550     dpif_port_poll_wait(ofproto->dpif);
1551 }
1552
1553 static int
1554 port_is_lacp_current(const struct ofport *ofport_)
1555 {
1556     const struct ofport_dpif *ofport = ofport_dpif_cast(ofport_);
1557     return (ofport->bundle && ofport->bundle->lacp
1558             ? lacp_slave_is_current(ofport->bundle->lacp, ofport)
1559             : -1);
1560 }
1561 \f
1562 /* Upcall handling. */
1563
1564 /* Given 'upcall', of type DPIF_UC_ACTION or DPIF_UC_MISS, sends an
1565  * OFPT_PACKET_IN message to each OpenFlow controller as necessary according to
1566  * their individual configurations.
1567  *
1568  * If 'clone' is true, the caller retains ownership of 'upcall->packet'.
1569  * Otherwise, ownership is transferred to this function. */
1570 static void
1571 send_packet_in(struct ofproto_dpif *ofproto, struct dpif_upcall *upcall,
1572                const struct flow *flow, bool clone)
1573 {
1574     struct ofputil_packet_in pin;
1575
1576     pin.packet = upcall->packet;
1577     pin.in_port = flow->in_port;
1578     pin.reason = upcall->type == DPIF_UC_MISS ? OFPR_NO_MATCH : OFPR_ACTION;
1579     pin.buffer_id = 0;          /* not yet known */
1580     pin.send_len = upcall->userdata;
1581     connmgr_send_packet_in(ofproto->up.connmgr, &pin, flow,
1582                            clone ? NULL : upcall->packet);
1583 }
1584
1585 static bool
1586 process_special(struct ofproto_dpif *ofproto, const struct flow *flow,
1587                 const struct ofpbuf *packet)
1588 {
1589     if (cfm_should_process_flow(flow)) {
1590         struct ofport_dpif *ofport = get_ofp_port(ofproto, flow->in_port);
1591         if (packet && ofport && ofport->cfm) {
1592             cfm_process_heartbeat(ofport->cfm, packet);
1593         }
1594         return true;
1595     } else if (flow->dl_type == htons(ETH_TYPE_LACP)) {
1596         struct ofport_dpif *port = get_ofp_port(ofproto, flow->in_port);
1597         if (packet && port && port->bundle && port->bundle->lacp) {
1598             const struct lacp_pdu *pdu = parse_lacp_packet(packet);
1599             if (pdu) {
1600                 lacp_process_pdu(port->bundle->lacp, port, pdu);
1601             }
1602         }
1603         return true;
1604     }
1605     return false;
1606 }
1607
1608 static void
1609 handle_miss_upcall(struct ofproto_dpif *ofproto, struct dpif_upcall *upcall)
1610 {
1611     struct facet *facet;
1612     struct flow flow;
1613
1614     /* Obtain in_port and tun_id, at least. */
1615     odp_flow_key_to_flow(upcall->key, upcall->key_len, &flow);
1616
1617     /* Set header pointers in 'flow'. */
1618     flow_extract(upcall->packet, flow.tun_id, flow.in_port, &flow);
1619
1620     /* Handle 802.1ag and LACP. */
1621     if (process_special(ofproto, &flow, upcall->packet)) {
1622         ofpbuf_delete(upcall->packet);
1623         ofproto->n_matches++;
1624         return;
1625     }
1626
1627     /* Check with in-band control to see if this packet should be sent
1628      * to the local port regardless of the flow table. */
1629     if (connmgr_msg_in_hook(ofproto->up.connmgr, &flow, upcall->packet)) {
1630         send_packet(ofproto, ODPP_LOCAL, upcall->packet);
1631     }
1632
1633     facet = facet_lookup_valid(ofproto, &flow);
1634     if (!facet) {
1635         struct rule_dpif *rule = rule_dpif_lookup(ofproto, &flow);
1636         if (!rule) {
1637             /* Don't send a packet-in if OFPPC_NO_PACKET_IN asserted. */
1638             struct ofport_dpif *port = get_ofp_port(ofproto, flow.in_port);
1639             if (port) {
1640                 if (port->up.opp.config & htonl(OFPPC_NO_PACKET_IN)) {
1641                     COVERAGE_INC(ofproto_dpif_no_packet_in);
1642                     /* XXX install 'drop' flow entry */
1643                     ofpbuf_delete(upcall->packet);
1644                     return;
1645                 }
1646             } else {
1647                 VLOG_WARN_RL(&rl, "packet-in on unknown port %"PRIu16,
1648                              flow.in_port);
1649             }
1650
1651             send_packet_in(ofproto, upcall, &flow, false);
1652             return;
1653         }
1654
1655         facet = facet_create(rule, &flow, upcall->packet);
1656     } else if (!facet->may_install) {
1657         /* The facet is not installable, that is, we need to process every
1658          * packet, so process the current packet's actions into 'facet'. */
1659         facet_make_actions(ofproto, facet, upcall->packet);
1660     }
1661
1662     if (facet->rule->up.cr.priority == FAIL_OPEN_PRIORITY) {
1663         /*
1664          * Extra-special case for fail-open mode.
1665          *
1666          * We are in fail-open mode and the packet matched the fail-open rule,
1667          * but we are connected to a controller too.  We should send the packet
1668          * up to the controller in the hope that it will try to set up a flow
1669          * and thereby allow us to exit fail-open.
1670          *
1671          * See the top-level comment in fail-open.c for more information.
1672          */
1673         send_packet_in(ofproto, upcall, &flow, true);
1674     }
1675
1676     facet_execute(ofproto, facet, upcall->packet);
1677     facet_install(ofproto, facet, false);
1678     ofproto->n_matches++;
1679 }
1680
1681 static void
1682 handle_upcall(struct ofproto_dpif *ofproto, struct dpif_upcall *upcall)
1683 {
1684     struct flow flow;
1685
1686     switch (upcall->type) {
1687     case DPIF_UC_ACTION:
1688         COVERAGE_INC(ofproto_dpif_ctlr_action);
1689         odp_flow_key_to_flow(upcall->key, upcall->key_len, &flow);
1690         send_packet_in(ofproto, upcall, &flow, false);
1691         break;
1692
1693     case DPIF_UC_SAMPLE:
1694         if (ofproto->sflow) {
1695             odp_flow_key_to_flow(upcall->key, upcall->key_len, &flow);
1696             dpif_sflow_received(ofproto->sflow, upcall, &flow);
1697         }
1698         ofpbuf_delete(upcall->packet);
1699         break;
1700
1701     case DPIF_UC_MISS:
1702         handle_miss_upcall(ofproto, upcall);
1703         break;
1704
1705     case DPIF_N_UC_TYPES:
1706     default:
1707         VLOG_WARN_RL(&rl, "upcall has unexpected type %"PRIu32, upcall->type);
1708         break;
1709     }
1710 }
1711 \f
1712 /* Flow expiration. */
1713
1714 static int facet_max_idle(const struct ofproto_dpif *);
1715 static void update_stats(struct ofproto_dpif *);
1716 static void rule_expire(struct rule_dpif *);
1717 static void expire_facets(struct ofproto_dpif *, int dp_max_idle);
1718
1719 /* This function is called periodically by run().  Its job is to collect
1720  * updates for the flows that have been installed into the datapath, most
1721  * importantly when they last were used, and then use that information to
1722  * expire flows that have not been used recently.
1723  *
1724  * Returns the number of milliseconds after which it should be called again. */
1725 static int
1726 expire(struct ofproto_dpif *ofproto)
1727 {
1728     struct rule_dpif *rule, *next_rule;
1729     struct cls_cursor cursor;
1730     int dp_max_idle;
1731
1732     /* Update stats for each flow in the datapath. */
1733     update_stats(ofproto);
1734
1735     /* Expire facets that have been idle too long. */
1736     dp_max_idle = facet_max_idle(ofproto);
1737     expire_facets(ofproto, dp_max_idle);
1738
1739     /* Expire OpenFlow flows whose idle_timeout or hard_timeout has passed. */
1740     cls_cursor_init(&cursor, &ofproto->up.tables[0], NULL);
1741     CLS_CURSOR_FOR_EACH_SAFE (rule, next_rule, up.cr, &cursor) {
1742         rule_expire(rule);
1743     }
1744
1745     /* All outstanding data in existing flows has been accounted, so it's a
1746      * good time to do bond rebalancing. */
1747     if (ofproto->has_bonded_bundles) {
1748         struct ofbundle *bundle;
1749
1750         HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
1751             if (bundle->bond) {
1752                 bond_rebalance(bundle->bond, &ofproto->revalidate_set);
1753             }
1754         }
1755     }
1756
1757     return MIN(dp_max_idle, 1000);
1758 }
1759
1760 /* Update 'packet_count', 'byte_count', and 'used' members of installed facets.
1761  *
1762  * This function also pushes statistics updates to rules which each facet
1763  * resubmits into.  Generally these statistics will be accurate.  However, if a
1764  * facet changes the rule it resubmits into at some time in between
1765  * update_stats() runs, it is possible that statistics accrued to the
1766  * old rule will be incorrectly attributed to the new rule.  This could be
1767  * avoided by calling update_stats() whenever rules are created or
1768  * deleted.  However, the performance impact of making so many calls to the
1769  * datapath do not justify the benefit of having perfectly accurate statistics.
1770  */
1771 static void
1772 update_stats(struct ofproto_dpif *p)
1773 {
1774     const struct dpif_flow_stats *stats;
1775     struct dpif_flow_dump dump;
1776     const struct nlattr *key;
1777     size_t key_len;
1778
1779     dpif_flow_dump_start(&dump, p->dpif);
1780     while (dpif_flow_dump_next(&dump, &key, &key_len, NULL, NULL, &stats)) {
1781         struct facet *facet;
1782         struct flow flow;
1783
1784         if (odp_flow_key_to_flow(key, key_len, &flow)) {
1785             struct ds s;
1786
1787             ds_init(&s);
1788             odp_flow_key_format(key, key_len, &s);
1789             VLOG_WARN_RL(&rl, "failed to convert ODP flow key to flow: %s",
1790                          ds_cstr(&s));
1791             ds_destroy(&s);
1792
1793             continue;
1794         }
1795         facet = facet_find(p, &flow);
1796
1797         if (facet && facet->installed) {
1798
1799             if (stats->n_packets >= facet->dp_packet_count) {
1800                 uint64_t extra = stats->n_packets - facet->dp_packet_count;
1801                 facet->packet_count += extra;
1802             } else {
1803                 VLOG_WARN_RL(&rl, "unexpected packet count from the datapath");
1804             }
1805
1806             if (stats->n_bytes >= facet->dp_byte_count) {
1807                 facet->byte_count += stats->n_bytes - facet->dp_byte_count;
1808             } else {
1809                 VLOG_WARN_RL(&rl, "unexpected byte count from datapath");
1810             }
1811
1812             facet->dp_packet_count = stats->n_packets;
1813             facet->dp_byte_count = stats->n_bytes;
1814
1815             facet_update_time(p, facet, stats->used);
1816             facet_account(p, facet, stats->n_bytes);
1817             facet_push_stats(facet);
1818         } else {
1819             /* There's a flow in the datapath that we know nothing about.
1820              * Delete it. */
1821             COVERAGE_INC(facet_unexpected);
1822             dpif_flow_del(p->dpif, key, key_len, NULL);
1823         }
1824     }
1825     dpif_flow_dump_done(&dump);
1826 }
1827
1828 /* Calculates and returns the number of milliseconds of idle time after which
1829  * facets should expire from the datapath and we should fold their statistics
1830  * into their parent rules in userspace. */
1831 static int
1832 facet_max_idle(const struct ofproto_dpif *ofproto)
1833 {
1834     /*
1835      * Idle time histogram.
1836      *
1837      * Most of the time a switch has a relatively small number of facets.  When
1838      * this is the case we might as well keep statistics for all of them in
1839      * userspace and to cache them in the kernel datapath for performance as
1840      * well.
1841      *
1842      * As the number of facets increases, the memory required to maintain
1843      * statistics about them in userspace and in the kernel becomes
1844      * significant.  However, with a large number of facets it is likely that
1845      * only a few of them are "heavy hitters" that consume a large amount of
1846      * bandwidth.  At this point, only heavy hitters are worth caching in the
1847      * kernel and maintaining in userspaces; other facets we can discard.
1848      *
1849      * The technique used to compute the idle time is to build a histogram with
1850      * N_BUCKETS buckets whose width is BUCKET_WIDTH msecs each.  Each facet
1851      * that is installed in the kernel gets dropped in the appropriate bucket.
1852      * After the histogram has been built, we compute the cutoff so that only
1853      * the most-recently-used 1% of facets (but at least 1000 flows) are kept
1854      * cached.  At least the most-recently-used bucket of facets is kept, so
1855      * actually an arbitrary number of facets can be kept in any given
1856      * expiration run (though the next run will delete most of those unless
1857      * they receive additional data).
1858      *
1859      * This requires a second pass through the facets, in addition to the pass
1860      * made by update_stats(), because the former function never looks
1861      * at uninstallable facets.
1862      */
1863     enum { BUCKET_WIDTH = ROUND_UP(100, TIME_UPDATE_INTERVAL) };
1864     enum { N_BUCKETS = 5000 / BUCKET_WIDTH };
1865     int buckets[N_BUCKETS] = { 0 };
1866     int total, subtotal, bucket;
1867     struct facet *facet;
1868     long long int now;
1869     int i;
1870
1871     total = hmap_count(&ofproto->facets);
1872     if (total <= 1000) {
1873         return N_BUCKETS * BUCKET_WIDTH;
1874     }
1875
1876     /* Build histogram. */
1877     now = time_msec();
1878     HMAP_FOR_EACH (facet, hmap_node, &ofproto->facets) {
1879         long long int idle = now - facet->used;
1880         int bucket = (idle <= 0 ? 0
1881                       : idle >= BUCKET_WIDTH * N_BUCKETS ? N_BUCKETS - 1
1882                       : (unsigned int) idle / BUCKET_WIDTH);
1883         buckets[bucket]++;
1884     }
1885
1886     /* Find the first bucket whose flows should be expired. */
1887     subtotal = bucket = 0;
1888     do {
1889         subtotal += buckets[bucket++];
1890     } while (bucket < N_BUCKETS && subtotal < MAX(1000, total / 100));
1891
1892     if (VLOG_IS_DBG_ENABLED()) {
1893         struct ds s;
1894
1895         ds_init(&s);
1896         ds_put_cstr(&s, "keep");
1897         for (i = 0; i < N_BUCKETS; i++) {
1898             if (i == bucket) {
1899                 ds_put_cstr(&s, ", drop");
1900             }
1901             if (buckets[i]) {
1902                 ds_put_format(&s, " %d:%d", i * BUCKET_WIDTH, buckets[i]);
1903             }
1904         }
1905         VLOG_INFO("%s: %s (msec:count)", ofproto->up.name, ds_cstr(&s));
1906         ds_destroy(&s);
1907     }
1908
1909     return bucket * BUCKET_WIDTH;
1910 }
1911
1912 static void
1913 facet_active_timeout(struct ofproto_dpif *ofproto, struct facet *facet)
1914 {
1915     if (ofproto->netflow && !facet_is_controller_flow(facet) &&
1916         netflow_active_timeout_expired(ofproto->netflow, &facet->nf_flow)) {
1917         struct ofexpired expired;
1918
1919         if (facet->installed) {
1920             struct dpif_flow_stats stats;
1921
1922             facet_put__(ofproto, facet, facet->actions, facet->actions_len,
1923                         &stats);
1924             facet_update_stats(ofproto, facet, &stats);
1925         }
1926
1927         expired.flow = facet->flow;
1928         expired.packet_count = facet->packet_count;
1929         expired.byte_count = facet->byte_count;
1930         expired.used = facet->used;
1931         netflow_expire(ofproto->netflow, &facet->nf_flow, &expired);
1932     }
1933 }
1934
1935 static void
1936 expire_facets(struct ofproto_dpif *ofproto, int dp_max_idle)
1937 {
1938     long long int cutoff = time_msec() - dp_max_idle;
1939     struct facet *facet, *next_facet;
1940
1941     HMAP_FOR_EACH_SAFE (facet, next_facet, hmap_node, &ofproto->facets) {
1942         facet_active_timeout(ofproto, facet);
1943         if (facet->used < cutoff) {
1944             facet_remove(ofproto, facet);
1945         }
1946     }
1947 }
1948
1949 /* If 'rule' is an OpenFlow rule, that has expired according to OpenFlow rules,
1950  * then delete it entirely. */
1951 static void
1952 rule_expire(struct rule_dpif *rule)
1953 {
1954     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
1955     struct facet *facet, *next_facet;
1956     long long int now;
1957     uint8_t reason;
1958
1959     /* Has 'rule' expired? */
1960     now = time_msec();
1961     if (rule->up.hard_timeout
1962         && now > rule->up.created + rule->up.hard_timeout * 1000) {
1963         reason = OFPRR_HARD_TIMEOUT;
1964     } else if (rule->up.idle_timeout && list_is_empty(&rule->facets)
1965                && now > rule->used + rule->up.idle_timeout * 1000) {
1966         reason = OFPRR_IDLE_TIMEOUT;
1967     } else {
1968         return;
1969     }
1970
1971     COVERAGE_INC(ofproto_dpif_expired);
1972
1973     /* Update stats.  (This is a no-op if the rule expired due to an idle
1974      * timeout, because that only happens when the rule has no facets left.) */
1975     LIST_FOR_EACH_SAFE (facet, next_facet, list_node, &rule->facets) {
1976         facet_remove(ofproto, facet);
1977     }
1978
1979     /* Get rid of the rule. */
1980     ofproto_rule_expire(&rule->up, reason);
1981 }
1982 \f
1983 /* Facets. */
1984
1985 /* Creates and returns a new facet owned by 'rule', given a 'flow' and an
1986  * example 'packet' within that flow.
1987  *
1988  * The caller must already have determined that no facet with an identical
1989  * 'flow' exists in 'ofproto' and that 'flow' is the best match for 'rule' in
1990  * the ofproto's classifier table. */
1991 static struct facet *
1992 facet_create(struct rule_dpif *rule, const struct flow *flow,
1993              const struct ofpbuf *packet)
1994 {
1995     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
1996     struct facet *facet;
1997
1998     facet = xzalloc(sizeof *facet);
1999     facet->used = time_msec();
2000     hmap_insert(&ofproto->facets, &facet->hmap_node, flow_hash(flow, 0));
2001     list_push_back(&rule->facets, &facet->list_node);
2002     facet->rule = rule;
2003     facet->flow = *flow;
2004     netflow_flow_init(&facet->nf_flow);
2005     netflow_flow_update_time(ofproto->netflow, &facet->nf_flow, facet->used);
2006
2007     facet_make_actions(ofproto, facet, packet);
2008
2009     return facet;
2010 }
2011
2012 static void
2013 facet_free(struct facet *facet)
2014 {
2015     free(facet->actions);
2016     free(facet);
2017 }
2018
2019 /* Executes, within 'ofproto', the 'n_actions' actions in 'actions' on
2020  * 'packet', which arrived on 'in_port'.
2021  *
2022  * Takes ownership of 'packet'. */
2023 static bool
2024 execute_odp_actions(struct ofproto_dpif *ofproto, const struct flow *flow,
2025                     const struct nlattr *odp_actions, size_t actions_len,
2026                     struct ofpbuf *packet)
2027 {
2028     if (actions_len == NLA_ALIGN(NLA_HDRLEN + sizeof(uint64_t))
2029         && odp_actions->nla_type == ODP_ACTION_ATTR_CONTROLLER) {
2030         /* As an optimization, avoid a round-trip from userspace to kernel to
2031          * userspace.  This also avoids possibly filling up kernel packet
2032          * buffers along the way. */
2033         struct dpif_upcall upcall;
2034
2035         upcall.type = DPIF_UC_ACTION;
2036         upcall.packet = packet;
2037         upcall.key = NULL;
2038         upcall.key_len = 0;
2039         upcall.userdata = nl_attr_get_u64(odp_actions);
2040         upcall.sample_pool = 0;
2041         upcall.actions = NULL;
2042         upcall.actions_len = 0;
2043
2044         send_packet_in(ofproto, &upcall, flow, false);
2045
2046         return true;
2047     } else {
2048         struct odputil_keybuf keybuf;
2049         struct ofpbuf key;
2050         int error;
2051
2052         ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
2053         odp_flow_key_from_flow(&key, flow);
2054
2055         error = dpif_execute(ofproto->dpif, key.data, key.size,
2056                              odp_actions, actions_len, packet);
2057
2058         ofpbuf_delete(packet);
2059         return !error;
2060     }
2061 }
2062
2063 /* Executes the actions indicated by 'facet' on 'packet' and credits 'facet''s
2064  * statistics appropriately.  'packet' must have at least sizeof(struct
2065  * ofp_packet_in) bytes of headroom.
2066  *
2067  * For correct results, 'packet' must actually be in 'facet''s flow; that is,
2068  * applying flow_extract() to 'packet' would yield the same flow as
2069  * 'facet->flow'.
2070  *
2071  * 'facet' must have accurately composed ODP actions; that is, it must not be
2072  * in need of revalidation.
2073  *
2074  * Takes ownership of 'packet'. */
2075 static void
2076 facet_execute(struct ofproto_dpif *ofproto, struct facet *facet,
2077               struct ofpbuf *packet)
2078 {
2079     struct dpif_flow_stats stats;
2080
2081     assert(ofpbuf_headroom(packet) >= sizeof(struct ofp_packet_in));
2082
2083     flow_extract_stats(&facet->flow, packet, &stats);
2084     stats.used = time_msec();
2085     if (execute_odp_actions(ofproto, &facet->flow,
2086                             facet->actions, facet->actions_len, packet)) {
2087         facet_update_stats(ofproto, facet, &stats);
2088     }
2089 }
2090
2091 /* Remove 'facet' from 'ofproto' and free up the associated memory:
2092  *
2093  *   - If 'facet' was installed in the datapath, uninstalls it and updates its
2094  *     rule's statistics, via facet_uninstall().
2095  *
2096  *   - Removes 'facet' from its rule and from ofproto->facets.
2097  */
2098 static void
2099 facet_remove(struct ofproto_dpif *ofproto, struct facet *facet)
2100 {
2101     facet_uninstall(ofproto, facet);
2102     facet_flush_stats(ofproto, facet);
2103     hmap_remove(&ofproto->facets, &facet->hmap_node);
2104     list_remove(&facet->list_node);
2105     facet_free(facet);
2106 }
2107
2108 /* Composes the ODP actions for 'facet' based on its rule's actions. */
2109 static void
2110 facet_make_actions(struct ofproto_dpif *p, struct facet *facet,
2111                    const struct ofpbuf *packet)
2112 {
2113     const struct rule_dpif *rule = facet->rule;
2114     struct ofpbuf *odp_actions;
2115     struct action_xlate_ctx ctx;
2116
2117     action_xlate_ctx_init(&ctx, p, &facet->flow, packet);
2118     odp_actions = xlate_actions(&ctx, rule->up.actions, rule->up.n_actions);
2119     facet->tags = ctx.tags;
2120     facet->may_install = ctx.may_set_up_flow;
2121     facet->nf_flow.output_iface = ctx.nf_output_iface;
2122
2123     if (facet->actions_len != odp_actions->size
2124         || memcmp(facet->actions, odp_actions->data, odp_actions->size)) {
2125         free(facet->actions);
2126         facet->actions_len = odp_actions->size;
2127         facet->actions = xmemdup(odp_actions->data, odp_actions->size);
2128     }
2129
2130     ofpbuf_delete(odp_actions);
2131 }
2132
2133 /* Updates 'facet''s flow in the datapath setting its actions to 'actions_len'
2134  * bytes of actions in 'actions'.  If 'stats' is non-null, statistics counters
2135  * in the datapath will be zeroed and 'stats' will be updated with traffic new
2136  * since 'facet' was last updated.
2137  *
2138  * Returns 0 if successful, otherwise a positive errno value.*/
2139 static int
2140 facet_put__(struct ofproto_dpif *ofproto, struct facet *facet,
2141             const struct nlattr *actions, size_t actions_len,
2142             struct dpif_flow_stats *stats)
2143 {
2144     struct odputil_keybuf keybuf;
2145     enum dpif_flow_put_flags flags;
2146     struct ofpbuf key;
2147     int ret;
2148
2149     flags = DPIF_FP_CREATE | DPIF_FP_MODIFY;
2150     if (stats) {
2151         flags |= DPIF_FP_ZERO_STATS;
2152     }
2153
2154     ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
2155     odp_flow_key_from_flow(&key, &facet->flow);
2156
2157     ret = dpif_flow_put(ofproto->dpif, flags, key.data, key.size,
2158                         actions, actions_len, stats);
2159
2160     if (stats) {
2161         facet_reset_dp_stats(facet, stats);
2162     }
2163
2164     return ret;
2165 }
2166
2167 /* If 'facet' is installable, inserts or re-inserts it into 'p''s datapath.  If
2168  * 'zero_stats' is true, clears any existing statistics from the datapath for
2169  * 'facet'. */
2170 static void
2171 facet_install(struct ofproto_dpif *p, struct facet *facet, bool zero_stats)
2172 {
2173     struct dpif_flow_stats stats;
2174
2175     if (facet->may_install
2176         && !facet_put__(p, facet, facet->actions, facet->actions_len,
2177                         zero_stats ? &stats : NULL)) {
2178         facet->installed = true;
2179     }
2180 }
2181
2182 static int
2183 vlan_tci_to_openflow_vlan(ovs_be16 vlan_tci)
2184 {
2185     return vlan_tci != htons(0) ? vlan_tci_to_vid(vlan_tci) : OFP_VLAN_NONE;
2186 }
2187
2188 static void
2189 facet_account(struct ofproto_dpif *ofproto,
2190               struct facet *facet, uint64_t extra_bytes)
2191 {
2192     uint64_t total_bytes, n_bytes;
2193     struct ofbundle *in_bundle;
2194     const struct nlattr *a;
2195     tag_type dummy = 0;
2196     unsigned int left;
2197     ovs_be16 vlan_tci;
2198     int vlan;
2199
2200     total_bytes = facet->byte_count + extra_bytes;
2201     if (total_bytes <= facet->accounted_bytes) {
2202         return;
2203     }
2204     n_bytes = total_bytes - facet->accounted_bytes;
2205     facet->accounted_bytes = total_bytes;
2206
2207     /* Test that 'tags' is nonzero to ensure that only flows that include an
2208      * OFPP_NORMAL action are used for learning and bond slave rebalancing.
2209      * This works because OFPP_NORMAL always sets a nonzero tag value.
2210      *
2211      * Feed information from the active flows back into the learning table to
2212      * ensure that table is always in sync with what is actually flowing
2213      * through the datapath. */
2214     if (!facet->tags
2215         || !is_admissible(ofproto, &facet->flow, false, &dummy,
2216                           &vlan, &in_bundle)) {
2217         return;
2218     }
2219
2220     update_learning_table(ofproto, &facet->flow, vlan, in_bundle);
2221
2222     if (!ofproto->has_bonded_bundles) {
2223         return;
2224     }
2225
2226     /* This loop feeds byte counters to bond_account() for rebalancing to use
2227      * as a basis.  We also need to track the actual VLAN on which the packet
2228      * is going to be sent to ensure that it matches the one passed to
2229      * bond_choose_output_slave().  (Otherwise, we will account to the wrong
2230      * hash bucket.) */
2231     vlan_tci = facet->flow.vlan_tci;
2232     NL_ATTR_FOR_EACH_UNSAFE (a, left, facet->actions, facet->actions_len) {
2233         struct ofport_dpif *port;
2234
2235         switch (nl_attr_type(a)) {
2236         case ODP_ACTION_ATTR_OUTPUT:
2237             port = get_odp_port(ofproto, nl_attr_get_u32(a));
2238             if (port && port->bundle && port->bundle->bond) {
2239                 bond_account(port->bundle->bond, &facet->flow,
2240                              vlan_tci_to_openflow_vlan(vlan_tci), n_bytes);
2241             }
2242             break;
2243
2244         case ODP_ACTION_ATTR_STRIP_VLAN:
2245             vlan_tci = htons(0);
2246             break;
2247
2248         case ODP_ACTION_ATTR_SET_DL_TCI:
2249             vlan_tci = nl_attr_get_be16(a);
2250             break;
2251         }
2252     }
2253 }
2254
2255 /* If 'rule' is installed in the datapath, uninstalls it. */
2256 static void
2257 facet_uninstall(struct ofproto_dpif *p, struct facet *facet)
2258 {
2259     if (facet->installed) {
2260         struct odputil_keybuf keybuf;
2261         struct dpif_flow_stats stats;
2262         struct ofpbuf key;
2263         int error;
2264
2265         ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
2266         odp_flow_key_from_flow(&key, &facet->flow);
2267
2268         error = dpif_flow_del(p->dpif, key.data, key.size, &stats);
2269         facet_reset_dp_stats(facet, &stats);
2270         if (!error) {
2271             facet_update_stats(p, facet, &stats);
2272         }
2273         facet->installed = false;
2274     } else {
2275         assert(facet->dp_packet_count == 0);
2276         assert(facet->dp_byte_count == 0);
2277     }
2278 }
2279
2280 /* Returns true if the only action for 'facet' is to send to the controller.
2281  * (We don't report NetFlow expiration messages for such facets because they
2282  * are just part of the control logic for the network, not real traffic). */
2283 static bool
2284 facet_is_controller_flow(struct facet *facet)
2285 {
2286     return (facet
2287             && facet->rule->up.n_actions == 1
2288             && action_outputs_to_port(&facet->rule->up.actions[0],
2289                                       htons(OFPP_CONTROLLER)));
2290 }
2291
2292 /* Resets 'facet''s datapath statistics counters.  This should be called when
2293  * 'facet''s statistics are cleared in the datapath.  If 'stats' is non-null,
2294  * it should contain the statistics returned by dpif when 'facet' was reset in
2295  * the datapath.  'stats' will be modified to only included statistics new
2296  * since 'facet' was last updated. */
2297 static void
2298 facet_reset_dp_stats(struct facet *facet, struct dpif_flow_stats *stats)
2299 {
2300     if (stats && facet->dp_packet_count <= stats->n_packets
2301         && facet->dp_byte_count <= stats->n_bytes) {
2302         stats->n_packets -= facet->dp_packet_count;
2303         stats->n_bytes -= facet->dp_byte_count;
2304     }
2305
2306     facet->dp_packet_count = 0;
2307     facet->dp_byte_count = 0;
2308 }
2309
2310 /* Folds all of 'facet''s statistics into its rule.  Also updates the
2311  * accounting ofhook and emits a NetFlow expiration if appropriate.  All of
2312  * 'facet''s statistics in the datapath should have been zeroed and folded into
2313  * its packet and byte counts before this function is called. */
2314 static void
2315 facet_flush_stats(struct ofproto_dpif *ofproto, struct facet *facet)
2316 {
2317     assert(!facet->dp_byte_count);
2318     assert(!facet->dp_packet_count);
2319
2320     facet_push_stats(facet);
2321     facet_account(ofproto, facet, 0);
2322
2323     if (ofproto->netflow && !facet_is_controller_flow(facet)) {
2324         struct ofexpired expired;
2325         expired.flow = facet->flow;
2326         expired.packet_count = facet->packet_count;
2327         expired.byte_count = facet->byte_count;
2328         expired.used = facet->used;
2329         netflow_expire(ofproto->netflow, &facet->nf_flow, &expired);
2330     }
2331
2332     facet->rule->packet_count += facet->packet_count;
2333     facet->rule->byte_count += facet->byte_count;
2334
2335     /* Reset counters to prevent double counting if 'facet' ever gets
2336      * reinstalled. */
2337     facet->packet_count = 0;
2338     facet->byte_count = 0;
2339     facet->rs_packet_count = 0;
2340     facet->rs_byte_count = 0;
2341     facet->accounted_bytes = 0;
2342
2343     netflow_flow_clear(&facet->nf_flow);
2344 }
2345
2346 /* Searches 'ofproto''s table of facets for one exactly equal to 'flow'.
2347  * Returns it if found, otherwise a null pointer.
2348  *
2349  * The returned facet might need revalidation; use facet_lookup_valid()
2350  * instead if that is important. */
2351 static struct facet *
2352 facet_find(struct ofproto_dpif *ofproto, const struct flow *flow)
2353 {
2354     struct facet *facet;
2355
2356     HMAP_FOR_EACH_WITH_HASH (facet, hmap_node, flow_hash(flow, 0),
2357                              &ofproto->facets) {
2358         if (flow_equal(flow, &facet->flow)) {
2359             return facet;
2360         }
2361     }
2362
2363     return NULL;
2364 }
2365
2366 /* Searches 'ofproto''s table of facets for one exactly equal to 'flow'.
2367  * Returns it if found, otherwise a null pointer.
2368  *
2369  * The returned facet is guaranteed to be valid. */
2370 static struct facet *
2371 facet_lookup_valid(struct ofproto_dpif *ofproto, const struct flow *flow)
2372 {
2373     struct facet *facet = facet_find(ofproto, flow);
2374
2375     /* The facet we found might not be valid, since we could be in need of
2376      * revalidation.  If it is not valid, don't return it. */
2377     if (facet
2378         && ofproto->need_revalidate
2379         && !facet_revalidate(ofproto, facet)) {
2380         COVERAGE_INC(facet_invalidated);
2381         return NULL;
2382     }
2383
2384     return facet;
2385 }
2386
2387 /* Re-searches 'ofproto''s classifier for a rule matching 'facet':
2388  *
2389  *   - If the rule found is different from 'facet''s current rule, moves
2390  *     'facet' to the new rule and recompiles its actions.
2391  *
2392  *   - If the rule found is the same as 'facet''s current rule, leaves 'facet'
2393  *     where it is and recompiles its actions anyway.
2394  *
2395  *   - If there is none, destroys 'facet'.
2396  *
2397  * Returns true if 'facet' still exists, false if it has been destroyed. */
2398 static bool
2399 facet_revalidate(struct ofproto_dpif *ofproto, struct facet *facet)
2400 {
2401     struct action_xlate_ctx ctx;
2402     struct ofpbuf *odp_actions;
2403     struct rule_dpif *new_rule;
2404     bool actions_changed;
2405
2406     COVERAGE_INC(facet_revalidate);
2407
2408     /* Determine the new rule. */
2409     new_rule = rule_dpif_lookup(ofproto, &facet->flow);
2410     if (!new_rule) {
2411         /* No new rule, so delete the facet. */
2412         facet_remove(ofproto, facet);
2413         return false;
2414     }
2415
2416     /* Calculate new ODP actions.
2417      *
2418      * We do not modify any 'facet' state yet, because we might need to, e.g.,
2419      * emit a NetFlow expiration and, if so, we need to have the old state
2420      * around to properly compose it. */
2421     action_xlate_ctx_init(&ctx, ofproto, &facet->flow, NULL);
2422     odp_actions = xlate_actions(&ctx,
2423                                 new_rule->up.actions, new_rule->up.n_actions);
2424     actions_changed = (facet->actions_len != odp_actions->size
2425                        || memcmp(facet->actions, odp_actions->data,
2426                                  facet->actions_len));
2427
2428     /* If the ODP actions changed or the installability changed, then we need
2429      * to talk to the datapath. */
2430     if (actions_changed || ctx.may_set_up_flow != facet->installed) {
2431         if (ctx.may_set_up_flow) {
2432             struct dpif_flow_stats stats;
2433
2434             facet_put__(ofproto, facet,
2435                         odp_actions->data, odp_actions->size, &stats);
2436             facet_update_stats(ofproto, facet, &stats);
2437         } else {
2438             facet_uninstall(ofproto, facet);
2439         }
2440
2441         /* The datapath flow is gone or has zeroed stats, so push stats out of
2442          * 'facet' into 'rule'. */
2443         facet_flush_stats(ofproto, facet);
2444     }
2445
2446     /* Update 'facet' now that we've taken care of all the old state. */
2447     facet->tags = ctx.tags;
2448     facet->nf_flow.output_iface = ctx.nf_output_iface;
2449     facet->may_install = ctx.may_set_up_flow;
2450     if (actions_changed) {
2451         free(facet->actions);
2452         facet->actions_len = odp_actions->size;
2453         facet->actions = xmemdup(odp_actions->data, odp_actions->size);
2454     }
2455     if (facet->rule != new_rule) {
2456         COVERAGE_INC(facet_changed_rule);
2457         list_remove(&facet->list_node);
2458         list_push_back(&new_rule->facets, &facet->list_node);
2459         facet->rule = new_rule;
2460         facet->used = new_rule->up.created;
2461         facet->rs_used = facet->used;
2462     }
2463
2464     ofpbuf_delete(odp_actions);
2465
2466     return true;
2467 }
2468
2469 /* Updates 'facet''s used time.  Caller is responsible for calling
2470  * facet_push_stats() to update the flows which 'facet' resubmits into. */
2471 static void
2472 facet_update_time(struct ofproto_dpif *ofproto, struct facet *facet,
2473                   long long int used)
2474 {
2475     if (used > facet->used) {
2476         facet->used = used;
2477         if (used > facet->rule->used) {
2478             facet->rule->used = used;
2479         }
2480         netflow_flow_update_time(ofproto->netflow, &facet->nf_flow, used);
2481     }
2482 }
2483
2484 /* Folds the statistics from 'stats' into the counters in 'facet'.
2485  *
2486  * Because of the meaning of a facet's counters, it only makes sense to do this
2487  * if 'stats' are not tracked in the datapath, that is, if 'stats' represents a
2488  * packet that was sent by hand or if it represents statistics that have been
2489  * cleared out of the datapath. */
2490 static void
2491 facet_update_stats(struct ofproto_dpif *ofproto, struct facet *facet,
2492                    const struct dpif_flow_stats *stats)
2493 {
2494     if (stats->n_packets || stats->used > facet->used) {
2495         facet_update_time(ofproto, facet, stats->used);
2496         facet->packet_count += stats->n_packets;
2497         facet->byte_count += stats->n_bytes;
2498         facet_push_stats(facet);
2499         netflow_flow_update_flags(&facet->nf_flow, stats->tcp_flags);
2500     }
2501 }
2502
2503 static void
2504 facet_push_stats(struct facet *facet)
2505 {
2506     uint64_t rs_packets, rs_bytes;
2507
2508     assert(facet->packet_count >= facet->rs_packet_count);
2509     assert(facet->byte_count >= facet->rs_byte_count);
2510     assert(facet->used >= facet->rs_used);
2511
2512     rs_packets = facet->packet_count - facet->rs_packet_count;
2513     rs_bytes = facet->byte_count - facet->rs_byte_count;
2514
2515     if (rs_packets || rs_bytes || facet->used > facet->rs_used) {
2516         facet->rs_packet_count = facet->packet_count;
2517         facet->rs_byte_count = facet->byte_count;
2518         facet->rs_used = facet->used;
2519
2520         flow_push_stats(facet->rule, &facet->flow,
2521                         rs_packets, rs_bytes, facet->used);
2522     }
2523 }
2524
2525 struct ofproto_push {
2526     struct action_xlate_ctx ctx;
2527     uint64_t packets;
2528     uint64_t bytes;
2529     long long int used;
2530 };
2531
2532 static void
2533 push_resubmit(struct action_xlate_ctx *ctx, struct rule_dpif *rule)
2534 {
2535     struct ofproto_push *push = CONTAINER_OF(ctx, struct ofproto_push, ctx);
2536
2537     if (rule) {
2538         rule->packet_count += push->packets;
2539         rule->byte_count += push->bytes;
2540         rule->used = MAX(push->used, rule->used);
2541     }
2542 }
2543
2544 /* Pushes flow statistics to the rules which 'flow' resubmits into given
2545  * 'rule''s actions. */
2546 static void
2547 flow_push_stats(const struct rule_dpif *rule,
2548                 struct flow *flow, uint64_t packets, uint64_t bytes,
2549                 long long int used)
2550 {
2551     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2552     struct ofproto_push push;
2553
2554     push.packets = packets;
2555     push.bytes = bytes;
2556     push.used = used;
2557
2558     action_xlate_ctx_init(&push.ctx, ofproto, flow, NULL);
2559     push.ctx.resubmit_hook = push_resubmit;
2560     ofpbuf_delete(xlate_actions(&push.ctx,
2561                                 rule->up.actions, rule->up.n_actions));
2562 }
2563 \f
2564 /* Rules. */
2565
2566 static struct rule_dpif *
2567 rule_dpif_lookup(struct ofproto_dpif *ofproto, const struct flow *flow)
2568 {
2569     return rule_dpif_cast(rule_from_cls_rule(
2570                               classifier_lookup(&ofproto->up.tables[0],
2571                                                 flow)));
2572 }
2573
2574 static void
2575 complete_operation(struct rule_dpif *rule)
2576 {
2577     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2578
2579     ofproto->need_revalidate = true;
2580     if (clogged) {
2581         struct dpif_completion *c = xmalloc(sizeof *c);
2582         c->op = rule->up.pending;
2583         list_push_back(&ofproto->completions, &c->list_node);
2584     } else {
2585         ofoperation_complete(rule->up.pending, 0);
2586     }
2587 }
2588
2589 static struct rule *
2590 rule_alloc(void)
2591 {
2592     struct rule_dpif *rule = xmalloc(sizeof *rule);
2593     return &rule->up;
2594 }
2595
2596 static void
2597 rule_dealloc(struct rule *rule_)
2598 {
2599     struct rule_dpif *rule = rule_dpif_cast(rule_);
2600     free(rule);
2601 }
2602
2603 static int
2604 rule_construct(struct rule *rule_)
2605 {
2606     struct rule_dpif *rule = rule_dpif_cast(rule_);
2607     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2608     struct rule_dpif *victim;
2609     int error;
2610
2611     error = validate_actions(rule->up.actions, rule->up.n_actions,
2612                              &rule->up.cr.flow, ofproto->max_ports);
2613     if (error) {
2614         return error;
2615     }
2616
2617     rule->used = rule->up.created;
2618     rule->packet_count = 0;
2619     rule->byte_count = 0;
2620
2621     victim = rule_dpif_cast(ofoperation_get_victim(rule->up.pending));
2622     if (victim && !list_is_empty(&victim->facets)) {
2623         struct facet *facet;
2624
2625         rule->facets = victim->facets;
2626         list_moved(&rule->facets);
2627         LIST_FOR_EACH (facet, list_node, &rule->facets) {
2628             facet->rule = rule;
2629         }
2630     } else {
2631         /* Must avoid list_moved() in this case. */
2632         list_init(&rule->facets);
2633     }
2634
2635     complete_operation(rule);
2636     return 0;
2637 }
2638
2639 static void
2640 rule_destruct(struct rule *rule_)
2641 {
2642     struct rule_dpif *rule = rule_dpif_cast(rule_);
2643     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2644     struct facet *facet, *next_facet;
2645
2646     LIST_FOR_EACH_SAFE (facet, next_facet, list_node, &rule->facets) {
2647         facet_revalidate(ofproto, facet);
2648     }
2649
2650     complete_operation(rule);
2651 }
2652
2653 static void
2654 rule_get_stats(struct rule *rule_, uint64_t *packets, uint64_t *bytes)
2655 {
2656     struct rule_dpif *rule = rule_dpif_cast(rule_);
2657     struct facet *facet;
2658
2659     /* Start from historical data for 'rule' itself that are no longer tracked
2660      * in facets.  This counts, for example, facets that have expired. */
2661     *packets = rule->packet_count;
2662     *bytes = rule->byte_count;
2663
2664     /* Add any statistics that are tracked by facets.  This includes
2665      * statistical data recently updated by ofproto_update_stats() as well as
2666      * stats for packets that were executed "by hand" via dpif_execute(). */
2667     LIST_FOR_EACH (facet, list_node, &rule->facets) {
2668         *packets += facet->packet_count;
2669         *bytes += facet->byte_count;
2670     }
2671 }
2672
2673 static int
2674 rule_execute(struct rule *rule_, struct flow *flow, struct ofpbuf *packet)
2675 {
2676     struct rule_dpif *rule = rule_dpif_cast(rule_);
2677     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2678     struct action_xlate_ctx ctx;
2679     struct ofpbuf *odp_actions;
2680     struct facet *facet;
2681     size_t size;
2682
2683     /* First look for a related facet.  If we find one, account it to that. */
2684     facet = facet_lookup_valid(ofproto, flow);
2685     if (facet && facet->rule == rule) {
2686         facet_execute(ofproto, facet, packet);
2687         return 0;
2688     }
2689
2690     /* Otherwise, if 'rule' is in fact the correct rule for 'packet', then
2691      * create a new facet for it and use that. */
2692     if (rule_dpif_lookup(ofproto, flow) == rule) {
2693         facet = facet_create(rule, flow, packet);
2694         facet_execute(ofproto, facet, packet);
2695         facet_install(ofproto, facet, true);
2696         return 0;
2697     }
2698
2699     /* We can't account anything to a facet.  If we were to try, then that
2700      * facet would have a non-matching rule, busting our invariants. */
2701     action_xlate_ctx_init(&ctx, ofproto, flow, packet);
2702     odp_actions = xlate_actions(&ctx, rule->up.actions, rule->up.n_actions);
2703     size = packet->size;
2704     if (execute_odp_actions(ofproto, flow, odp_actions->data,
2705                             odp_actions->size, packet)) {
2706         rule->used = time_msec();
2707         rule->packet_count++;
2708         rule->byte_count += size;
2709         flow_push_stats(rule, flow, 1, size, rule->used);
2710     }
2711     ofpbuf_delete(odp_actions);
2712
2713     return 0;
2714 }
2715
2716 static void
2717 rule_modify_actions(struct rule *rule_)
2718 {
2719     struct rule_dpif *rule = rule_dpif_cast(rule_);
2720     struct ofproto_dpif *ofproto = ofproto_dpif_cast(rule->up.ofproto);
2721     int error;
2722
2723     error = validate_actions(rule->up.actions, rule->up.n_actions,
2724                              &rule->up.cr.flow, ofproto->max_ports);
2725     if (error) {
2726         ofoperation_complete(rule->up.pending, error);
2727         return;
2728     }
2729
2730     complete_operation(rule);
2731 }
2732 \f
2733 /* Sends 'packet' out of port 'odp_port' within 'p'.
2734  * Returns 0 if successful, otherwise a positive errno value. */
2735 static int
2736 send_packet(struct ofproto_dpif *ofproto, uint32_t odp_port,
2737             const struct ofpbuf *packet)
2738 {
2739     struct ofpbuf key, odp_actions;
2740     struct odputil_keybuf keybuf;
2741     struct flow flow;
2742     int error;
2743
2744     flow_extract((struct ofpbuf *) packet, 0, 0, &flow);
2745     ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
2746     odp_flow_key_from_flow(&key, &flow);
2747
2748     ofpbuf_init(&odp_actions, 32);
2749     nl_msg_put_u32(&odp_actions, ODP_ACTION_ATTR_OUTPUT, odp_port);
2750     error = dpif_execute(ofproto->dpif,
2751                          key.data, key.size,
2752                          odp_actions.data, odp_actions.size,
2753                          packet);
2754     ofpbuf_uninit(&odp_actions);
2755
2756     if (error) {
2757         VLOG_WARN_RL(&rl, "%s: failed to send packet on port %"PRIu32" (%s)",
2758                      ofproto->up.name, odp_port, strerror(error));
2759     }
2760     return error;
2761 }
2762 \f
2763 /* OpenFlow to ODP action translation. */
2764
2765 static void do_xlate_actions(const union ofp_action *in, size_t n_in,
2766                              struct action_xlate_ctx *ctx);
2767 static bool xlate_normal(struct action_xlate_ctx *);
2768
2769 static void
2770 commit_odp_actions(struct action_xlate_ctx *ctx)
2771 {
2772     const struct flow *flow = &ctx->flow;
2773     struct flow *base = &ctx->base_flow;
2774     struct ofpbuf *odp_actions = ctx->odp_actions;
2775
2776     if (base->tun_id != flow->tun_id) {
2777         nl_msg_put_be64(odp_actions, ODP_ACTION_ATTR_SET_TUNNEL, flow->tun_id);
2778         base->tun_id = flow->tun_id;
2779     }
2780
2781     if (base->nw_src != flow->nw_src) {
2782         nl_msg_put_be32(odp_actions, ODP_ACTION_ATTR_SET_NW_SRC, flow->nw_src);
2783         base->nw_src = flow->nw_src;
2784     }
2785
2786     if (base->nw_dst != flow->nw_dst) {
2787         nl_msg_put_be32(odp_actions, ODP_ACTION_ATTR_SET_NW_DST, flow->nw_dst);
2788         base->nw_dst = flow->nw_dst;
2789     }
2790
2791     if (base->vlan_tci != flow->vlan_tci) {
2792         if (!(flow->vlan_tci & htons(VLAN_CFI))) {
2793             nl_msg_put_flag(odp_actions, ODP_ACTION_ATTR_STRIP_VLAN);
2794         } else {
2795             nl_msg_put_be16(odp_actions, ODP_ACTION_ATTR_SET_DL_TCI,
2796                             flow->vlan_tci & ~htons(VLAN_CFI));
2797         }
2798         base->vlan_tci = flow->vlan_tci;
2799     }
2800
2801     if (base->tp_src != flow->tp_src) {
2802         nl_msg_put_be16(odp_actions, ODP_ACTION_ATTR_SET_TP_SRC, flow->tp_src);
2803         base->tp_src = flow->tp_src;
2804     }
2805
2806     if (base->tp_dst != flow->tp_dst) {
2807         nl_msg_put_be16(odp_actions, ODP_ACTION_ATTR_SET_TP_DST, flow->tp_dst);
2808         base->tp_dst = flow->tp_dst;
2809     }
2810
2811     if (!eth_addr_equals(base->dl_src, flow->dl_src)) {
2812         nl_msg_put_unspec(odp_actions, ODP_ACTION_ATTR_SET_DL_SRC,
2813                           flow->dl_src, ETH_ADDR_LEN);
2814         memcpy(base->dl_src, flow->dl_src, ETH_ADDR_LEN);
2815     }
2816
2817     if (!eth_addr_equals(base->dl_dst, flow->dl_dst)) {
2818         nl_msg_put_unspec(odp_actions, ODP_ACTION_ATTR_SET_DL_DST,
2819                           flow->dl_dst, ETH_ADDR_LEN);
2820         memcpy(base->dl_dst, flow->dl_dst, ETH_ADDR_LEN);
2821     }
2822
2823     if (ctx->base_priority != ctx->priority) {
2824         if (ctx->priority) {
2825             nl_msg_put_u32(odp_actions, ODP_ACTION_ATTR_SET_PRIORITY,
2826                            ctx->priority);
2827         } else {
2828             nl_msg_put_flag(odp_actions, ODP_ACTION_ATTR_POP_PRIORITY);
2829         }
2830         ctx->base_priority = ctx->priority;
2831     }
2832 }
2833
2834 static void
2835 add_output_action(struct action_xlate_ctx *ctx, uint16_t ofp_port)
2836 {
2837     const struct ofport_dpif *ofport = get_ofp_port(ctx->ofproto, ofp_port);
2838     uint16_t odp_port = ofp_port_to_odp_port(ofp_port);
2839
2840     if (ofport) {
2841         if (ofport->up.opp.config & htonl(OFPPC_NO_FWD)) {
2842             /* Forwarding disabled on port. */
2843             return;
2844         }
2845     } else {
2846         /*
2847          * We don't have an ofport record for this port, but it doesn't hurt to
2848          * allow forwarding to it anyhow.  Maybe such a port will appear later
2849          * and we're pre-populating the flow table.
2850          */
2851     }
2852
2853     commit_odp_actions(ctx);
2854     nl_msg_put_u32(ctx->odp_actions, ODP_ACTION_ATTR_OUTPUT, odp_port);
2855     ctx->nf_output_iface = ofp_port;
2856 }
2857
2858 static void
2859 xlate_table_action(struct action_xlate_ctx *ctx, uint16_t in_port)
2860 {
2861     if (ctx->recurse < MAX_RESUBMIT_RECURSION) {
2862         struct rule_dpif *rule;
2863         uint16_t old_in_port;
2864
2865         /* Look up a flow with 'in_port' as the input port.  Then restore the
2866          * original input port (otherwise OFPP_NORMAL and OFPP_IN_PORT will
2867          * have surprising behavior). */
2868         old_in_port = ctx->flow.in_port;
2869         ctx->flow.in_port = in_port;
2870         rule = rule_dpif_lookup(ctx->ofproto, &ctx->flow);
2871         ctx->flow.in_port = old_in_port;
2872
2873         if (ctx->resubmit_hook) {
2874             ctx->resubmit_hook(ctx, rule);
2875         }
2876
2877         if (rule) {
2878             ctx->recurse++;
2879             do_xlate_actions(rule->up.actions, rule->up.n_actions, ctx);
2880             ctx->recurse--;
2881         }
2882     } else {
2883         static struct vlog_rate_limit recurse_rl = VLOG_RATE_LIMIT_INIT(1, 1);
2884
2885         VLOG_ERR_RL(&recurse_rl, "NXAST_RESUBMIT recursed over %d times",
2886                     MAX_RESUBMIT_RECURSION);
2887     }
2888 }
2889
2890 static void
2891 flood_packets(struct action_xlate_ctx *ctx, ovs_be32 mask)
2892 {
2893     struct ofport_dpif *ofport;
2894
2895     commit_odp_actions(ctx);
2896     HMAP_FOR_EACH (ofport, up.hmap_node, &ctx->ofproto->up.ports) {
2897         uint16_t ofp_port = ofport->up.ofp_port;
2898         if (ofp_port != ctx->flow.in_port && !(ofport->up.opp.config & mask)) {
2899             nl_msg_put_u32(ctx->odp_actions, ODP_ACTION_ATTR_OUTPUT,
2900                            ofport->odp_port);
2901         }
2902     }
2903
2904     ctx->nf_output_iface = NF_OUT_FLOOD;
2905 }
2906
2907 static void
2908 xlate_output_action__(struct action_xlate_ctx *ctx,
2909                       uint16_t port, uint16_t max_len)
2910 {
2911     uint16_t prev_nf_output_iface = ctx->nf_output_iface;
2912
2913     ctx->nf_output_iface = NF_OUT_DROP;
2914
2915     switch (port) {
2916     case OFPP_IN_PORT:
2917         add_output_action(ctx, ctx->flow.in_port);
2918         break;
2919     case OFPP_TABLE:
2920         xlate_table_action(ctx, ctx->flow.in_port);
2921         break;
2922     case OFPP_NORMAL:
2923         xlate_normal(ctx);
2924         break;
2925     case OFPP_FLOOD:
2926         flood_packets(ctx,  htonl(OFPPC_NO_FLOOD));
2927         break;
2928     case OFPP_ALL:
2929         flood_packets(ctx, htonl(0));
2930         break;
2931     case OFPP_CONTROLLER:
2932         commit_odp_actions(ctx);
2933         nl_msg_put_u64(ctx->odp_actions, ODP_ACTION_ATTR_CONTROLLER, max_len);
2934         break;
2935     case OFPP_LOCAL:
2936         add_output_action(ctx, OFPP_LOCAL);
2937         break;
2938     case OFPP_NONE:
2939         break;
2940     default:
2941         if (port != ctx->flow.in_port) {
2942             add_output_action(ctx, port);
2943         }
2944         break;
2945     }
2946
2947     if (prev_nf_output_iface == NF_OUT_FLOOD) {
2948         ctx->nf_output_iface = NF_OUT_FLOOD;
2949     } else if (ctx->nf_output_iface == NF_OUT_DROP) {
2950         ctx->nf_output_iface = prev_nf_output_iface;
2951     } else if (prev_nf_output_iface != NF_OUT_DROP &&
2952                ctx->nf_output_iface != NF_OUT_FLOOD) {
2953         ctx->nf_output_iface = NF_OUT_MULTI;
2954     }
2955 }
2956
2957 static void
2958 xlate_output_action(struct action_xlate_ctx *ctx,
2959                     const struct ofp_action_output *oao)
2960 {
2961     xlate_output_action__(ctx, ntohs(oao->port), ntohs(oao->max_len));
2962 }
2963
2964 static void
2965 xlate_enqueue_action(struct action_xlate_ctx *ctx,
2966                      const struct ofp_action_enqueue *oae)
2967 {
2968     uint16_t ofp_port, odp_port;
2969     uint32_t ctx_priority, priority;
2970     int error;
2971
2972     error = dpif_queue_to_priority(ctx->ofproto->dpif, ntohl(oae->queue_id),
2973                                    &priority);
2974     if (error) {
2975         /* Fall back to ordinary output action. */
2976         xlate_output_action__(ctx, ntohs(oae->port), 0);
2977         return;
2978     }
2979
2980     /* Figure out ODP output port. */
2981     ofp_port = ntohs(oae->port);
2982     if (ofp_port == OFPP_IN_PORT) {
2983         ofp_port = ctx->flow.in_port;
2984     }
2985     odp_port = ofp_port_to_odp_port(ofp_port);
2986
2987     /* Add ODP actions. */
2988     ctx_priority = ctx->priority;
2989     ctx->priority = priority;
2990     add_output_action(ctx, odp_port);
2991     ctx->priority = ctx_priority;
2992
2993     /* Update NetFlow output port. */
2994     if (ctx->nf_output_iface == NF_OUT_DROP) {
2995         ctx->nf_output_iface = odp_port;
2996     } else if (ctx->nf_output_iface != NF_OUT_FLOOD) {
2997         ctx->nf_output_iface = NF_OUT_MULTI;
2998     }
2999 }
3000
3001 static void
3002 xlate_set_queue_action(struct action_xlate_ctx *ctx,
3003                        const struct nx_action_set_queue *nasq)
3004 {
3005     uint32_t priority;
3006     int error;
3007
3008     error = dpif_queue_to_priority(ctx->ofproto->dpif, ntohl(nasq->queue_id),
3009                                    &priority);
3010     if (error) {
3011         /* Couldn't translate queue to a priority, so ignore.  A warning
3012          * has already been logged. */
3013         return;
3014     }
3015
3016     ctx->priority = priority;
3017 }
3018
3019 struct xlate_reg_state {
3020     ovs_be16 vlan_tci;
3021     ovs_be64 tun_id;
3022 };
3023
3024 static void
3025 xlate_autopath(struct action_xlate_ctx *ctx,
3026                const struct nx_action_autopath *naa)
3027 {
3028     uint16_t ofp_port = ntohl(naa->id);
3029     struct ofport_dpif *port = get_ofp_port(ctx->ofproto, ofp_port);
3030
3031     if (!port || !port->bundle) {
3032         ofp_port = OFPP_NONE;
3033     } else if (port->bundle->bond) {
3034         /* Autopath does not support VLAN hashing. */
3035         struct ofport_dpif *slave = bond_choose_output_slave(
3036             port->bundle->bond, &ctx->flow, OFP_VLAN_NONE, &ctx->tags);
3037         if (slave) {
3038             ofp_port = slave->up.ofp_port;
3039         }
3040     }
3041     autopath_execute(naa, &ctx->flow, ofp_port);
3042 }
3043
3044 static void
3045 do_xlate_actions(const union ofp_action *in, size_t n_in,
3046                  struct action_xlate_ctx *ctx)
3047 {
3048     const struct ofport_dpif *port;
3049     const union ofp_action *ia;
3050     size_t left;
3051
3052     port = get_ofp_port(ctx->ofproto, ctx->flow.in_port);
3053     if (port
3054         && port->up.opp.config & htonl(OFPPC_NO_RECV | OFPPC_NO_RECV_STP) &&
3055         port->up.opp.config & (eth_addr_equals(ctx->flow.dl_dst, eth_addr_stp)
3056                                ? htonl(OFPPC_NO_RECV_STP)
3057                                : htonl(OFPPC_NO_RECV))) {
3058         /* Drop this flow. */
3059         return;
3060     }
3061
3062     OFPUTIL_ACTION_FOR_EACH_UNSAFE (ia, left, in, n_in) {
3063         const struct ofp_action_dl_addr *oada;
3064         const struct nx_action_resubmit *nar;
3065         const struct nx_action_set_tunnel *nast;
3066         const struct nx_action_set_queue *nasq;
3067         const struct nx_action_multipath *nam;
3068         const struct nx_action_autopath *naa;
3069         enum ofputil_action_code code;
3070         ovs_be64 tun_id;
3071
3072         code = ofputil_decode_action_unsafe(ia);
3073         switch (code) {
3074         case OFPUTIL_OFPAT_OUTPUT:
3075             xlate_output_action(ctx, &ia->output);
3076             break;
3077
3078         case OFPUTIL_OFPAT_SET_VLAN_VID:
3079             ctx->flow.vlan_tci &= ~htons(VLAN_VID_MASK);
3080             ctx->flow.vlan_tci |= ia->vlan_vid.vlan_vid | htons(VLAN_CFI);
3081             break;
3082
3083         case OFPUTIL_OFPAT_SET_VLAN_PCP:
3084             ctx->flow.vlan_tci &= ~htons(VLAN_PCP_MASK);
3085             ctx->flow.vlan_tci |= htons(
3086                 (ia->vlan_pcp.vlan_pcp << VLAN_PCP_SHIFT) | VLAN_CFI);
3087             break;
3088
3089         case OFPUTIL_OFPAT_STRIP_VLAN:
3090             ctx->flow.vlan_tci = htons(0);
3091             break;
3092
3093         case OFPUTIL_OFPAT_SET_DL_SRC:
3094             oada = ((struct ofp_action_dl_addr *) ia);
3095             memcpy(ctx->flow.dl_src, oada->dl_addr, ETH_ADDR_LEN);
3096             break;
3097
3098         case OFPUTIL_OFPAT_SET_DL_DST:
3099             oada = ((struct ofp_action_dl_addr *) ia);
3100             memcpy(ctx->flow.dl_dst, oada->dl_addr, ETH_ADDR_LEN);
3101             break;
3102
3103         case OFPUTIL_OFPAT_SET_NW_SRC:
3104             ctx->flow.nw_src = ia->nw_addr.nw_addr;
3105             break;
3106
3107         case OFPUTIL_OFPAT_SET_NW_DST:
3108             ctx->flow.nw_dst = ia->nw_addr.nw_addr;
3109             break;
3110
3111         case OFPUTIL_OFPAT_SET_NW_TOS:
3112             ctx->flow.nw_tos = ia->nw_tos.nw_tos;
3113             break;
3114
3115         case OFPUTIL_OFPAT_SET_TP_SRC:
3116             ctx->flow.tp_src = ia->tp_port.tp_port;
3117             break;
3118
3119         case OFPUTIL_OFPAT_SET_TP_DST:
3120             ctx->flow.tp_dst = ia->tp_port.tp_port;
3121             break;
3122
3123         case OFPUTIL_OFPAT_ENQUEUE:
3124             xlate_enqueue_action(ctx, (const struct ofp_action_enqueue *) ia);
3125             break;
3126
3127         case OFPUTIL_NXAST_RESUBMIT:
3128             nar = (const struct nx_action_resubmit *) ia;
3129             xlate_table_action(ctx, ntohs(nar->in_port));
3130             break;
3131
3132         case OFPUTIL_NXAST_SET_TUNNEL:
3133             nast = (const struct nx_action_set_tunnel *) ia;
3134             tun_id = htonll(ntohl(nast->tun_id));
3135             ctx->flow.tun_id = tun_id;
3136             break;
3137
3138         case OFPUTIL_NXAST_SET_QUEUE:
3139             nasq = (const struct nx_action_set_queue *) ia;
3140             xlate_set_queue_action(ctx, nasq);
3141             break;
3142
3143         case OFPUTIL_NXAST_POP_QUEUE:
3144             ctx->priority = 0;
3145             break;
3146
3147         case OFPUTIL_NXAST_REG_MOVE:
3148             nxm_execute_reg_move((const struct nx_action_reg_move *) ia,
3149                                  &ctx->flow);
3150             break;
3151
3152         case OFPUTIL_NXAST_REG_LOAD:
3153             nxm_execute_reg_load((const struct nx_action_reg_load *) ia,
3154                                  &ctx->flow);
3155             break;
3156
3157         case OFPUTIL_NXAST_NOTE:
3158             /* Nothing to do. */
3159             break;
3160
3161         case OFPUTIL_NXAST_SET_TUNNEL64:
3162             tun_id = ((const struct nx_action_set_tunnel64 *) ia)->tun_id;
3163             ctx->flow.tun_id = tun_id;
3164             break;
3165
3166         case OFPUTIL_NXAST_MULTIPATH:
3167             nam = (const struct nx_action_multipath *) ia;
3168             multipath_execute(nam, &ctx->flow);
3169             break;
3170
3171         case OFPUTIL_NXAST_AUTOPATH:
3172             naa = (const struct nx_action_autopath *) ia;
3173             xlate_autopath(ctx, naa);
3174             break;
3175         }
3176     }
3177 }
3178
3179 static void
3180 action_xlate_ctx_init(struct action_xlate_ctx *ctx,
3181                       struct ofproto_dpif *ofproto, const struct flow *flow,
3182                       const struct ofpbuf *packet)
3183 {
3184     ctx->ofproto = ofproto;
3185     ctx->flow = *flow;
3186     ctx->packet = packet;
3187     ctx->resubmit_hook = NULL;
3188 }
3189
3190 static struct ofpbuf *
3191 xlate_actions(struct action_xlate_ctx *ctx,
3192               const union ofp_action *in, size_t n_in)
3193 {
3194     COVERAGE_INC(ofproto_dpif_xlate);
3195
3196     ctx->odp_actions = ofpbuf_new(512);
3197     ctx->tags = 0;
3198     ctx->may_set_up_flow = true;
3199     ctx->nf_output_iface = NF_OUT_DROP;
3200     ctx->recurse = 0;
3201     ctx->priority = 0;
3202     ctx->base_priority = 0;
3203     ctx->base_flow = ctx->flow;
3204
3205     if (process_special(ctx->ofproto, &ctx->flow, ctx->packet)) {
3206         ctx->may_set_up_flow = false;
3207     } else {
3208         do_xlate_actions(in, n_in, ctx);
3209     }
3210
3211     /* Check with in-band control to see if we're allowed to set up this
3212      * flow. */
3213     if (!connmgr_may_set_up_flow(ctx->ofproto->up.connmgr, &ctx->flow,
3214                                  ctx->odp_actions->data,
3215                                  ctx->odp_actions->size)) {
3216         ctx->may_set_up_flow = false;
3217     }
3218
3219     return ctx->odp_actions;
3220 }
3221 \f
3222 /* OFPP_NORMAL implementation. */
3223
3224 struct dst {
3225     struct ofport_dpif *port;
3226     uint16_t vlan;
3227 };
3228
3229 struct dst_set {
3230     struct dst builtin[32];
3231     struct dst *dsts;
3232     size_t n, allocated;
3233 };
3234
3235 static void dst_set_init(struct dst_set *);
3236 static void dst_set_add(struct dst_set *, const struct dst *);
3237 static void dst_set_free(struct dst_set *);
3238
3239 static struct ofport_dpif *ofbundle_get_a_port(const struct ofbundle *);
3240
3241 static bool
3242 set_dst(struct action_xlate_ctx *ctx, struct dst *dst,
3243         const struct ofbundle *in_bundle, const struct ofbundle *out_bundle)
3244 {
3245     dst->vlan = (out_bundle->vlan >= 0 ? OFP_VLAN_NONE
3246                  : in_bundle->vlan >= 0 ? in_bundle->vlan
3247                  : ctx->flow.vlan_tci == 0 ? OFP_VLAN_NONE
3248                  : vlan_tci_to_vid(ctx->flow.vlan_tci));
3249
3250     dst->port = (!out_bundle->bond
3251                  ? ofbundle_get_a_port(out_bundle)
3252                  : bond_choose_output_slave(out_bundle->bond, &ctx->flow,
3253                                             dst->vlan, &ctx->tags));
3254
3255     return dst->port != NULL;
3256 }
3257
3258 static int
3259 mirror_mask_ffs(mirror_mask_t mask)
3260 {
3261     BUILD_ASSERT_DECL(sizeof(unsigned int) >= sizeof(mask));
3262     return ffs(mask);
3263 }
3264
3265 static void
3266 dst_set_init(struct dst_set *set)
3267 {
3268     set->dsts = set->builtin;
3269     set->n = 0;
3270     set->allocated = ARRAY_SIZE(set->builtin);
3271 }
3272
3273 static void
3274 dst_set_add(struct dst_set *set, const struct dst *dst)
3275 {
3276     if (set->n >= set->allocated) {
3277         size_t new_allocated;
3278         struct dst *new_dsts;
3279
3280         new_allocated = set->allocated * 2;
3281         new_dsts = xmalloc(new_allocated * sizeof *new_dsts);
3282         memcpy(new_dsts, set->dsts, set->n * sizeof *new_dsts);
3283
3284         dst_set_free(set);
3285
3286         set->dsts = new_dsts;
3287         set->allocated = new_allocated;
3288     }
3289     set->dsts[set->n++] = *dst;
3290 }
3291
3292 static void
3293 dst_set_free(struct dst_set *set)
3294 {
3295     if (set->dsts != set->builtin) {
3296         free(set->dsts);
3297     }
3298 }
3299
3300 static bool
3301 dst_is_duplicate(const struct dst_set *set, const struct dst *test)
3302 {
3303     size_t i;
3304     for (i = 0; i < set->n; i++) {
3305         if (set->dsts[i].vlan == test->vlan
3306             && set->dsts[i].port == test->port) {
3307             return true;
3308         }
3309     }
3310     return false;
3311 }
3312
3313 static bool
3314 ofbundle_trunks_vlan(const struct ofbundle *bundle, uint16_t vlan)
3315 {
3316     return bundle->vlan < 0 && vlan_bitmap_contains(bundle->trunks, vlan);
3317 }
3318
3319 static bool
3320 ofbundle_includes_vlan(const struct ofbundle *bundle, uint16_t vlan)
3321 {
3322     return vlan == bundle->vlan || ofbundle_trunks_vlan(bundle, vlan);
3323 }
3324
3325 /* Returns an arbitrary interface within 'bundle'. */
3326 static struct ofport_dpif *
3327 ofbundle_get_a_port(const struct ofbundle *bundle)
3328 {
3329     return CONTAINER_OF(list_front(&bundle->ports),
3330                         struct ofport_dpif, bundle_node);
3331 }
3332
3333 static void
3334 compose_dsts(struct action_xlate_ctx *ctx, uint16_t vlan,
3335              const struct ofbundle *in_bundle,
3336              const struct ofbundle *out_bundle, struct dst_set *set)
3337 {
3338     struct dst dst;
3339
3340     if (out_bundle == OFBUNDLE_FLOOD) {
3341         struct ofbundle *bundle;
3342
3343         HMAP_FOR_EACH (bundle, hmap_node, &ctx->ofproto->bundles) {
3344             if (bundle != in_bundle
3345                 && ofbundle_includes_vlan(bundle, vlan)
3346                 && bundle->floodable
3347                 && !bundle->mirror_out
3348                 && set_dst(ctx, &dst, in_bundle, bundle)) {
3349                 dst_set_add(set, &dst);
3350             }
3351         }
3352         ctx->nf_output_iface = NF_OUT_FLOOD;
3353     } else if (out_bundle && set_dst(ctx, &dst, in_bundle, out_bundle)) {
3354         dst_set_add(set, &dst);
3355         ctx->nf_output_iface = dst.port->odp_port;
3356     }
3357 }
3358
3359 static bool
3360 vlan_is_mirrored(const struct ofmirror *m, int vlan)
3361 {
3362     return vlan_bitmap_contains(m->vlans, vlan);
3363 }
3364
3365 /* Returns true if a packet with Ethernet destination MAC 'dst' may be mirrored
3366  * to a VLAN.  In general most packets may be mirrored but we want to drop
3367  * protocols that may confuse switches. */
3368 static bool
3369 eth_dst_may_rspan(const uint8_t dst[ETH_ADDR_LEN])
3370 {
3371     /* If you change this function's behavior, please update corresponding
3372      * documentation in vswitch.xml at the same time. */
3373     if (dst[0] != 0x01) {
3374         /* All the currently banned MACs happen to start with 01 currently, so
3375          * this is a quick way to eliminate most of the good ones. */
3376     } else {
3377         if (eth_addr_is_reserved(dst)) {
3378             /* Drop STP, IEEE pause frames, and other reserved protocols
3379              * (01-80-c2-00-00-0x). */
3380             return false;
3381         }
3382
3383         if (dst[0] == 0x01 && dst[1] == 0x00 && dst[2] == 0x0c) {
3384             /* Cisco OUI. */
3385             if ((dst[3] & 0xfe) == 0xcc &&
3386                 (dst[4] & 0xfe) == 0xcc &&
3387                 (dst[5] & 0xfe) == 0xcc) {
3388                 /* Drop the following protocols plus others following the same
3389                    pattern:
3390
3391                    CDP, VTP, DTP, PAgP  (01-00-0c-cc-cc-cc)
3392                    Spanning Tree PVSTP+ (01-00-0c-cc-cc-cd)
3393                    STP Uplink Fast      (01-00-0c-cd-cd-cd) */
3394                 return false;
3395             }
3396
3397             if (!(dst[3] | dst[4] | dst[5])) {
3398                 /* Drop Inter Switch Link packets (01-00-0c-00-00-00). */
3399                 return false;
3400             }
3401         }
3402     }
3403     return true;
3404 }
3405
3406 static void
3407 compose_mirror_dsts(struct action_xlate_ctx *ctx,
3408                     uint16_t vlan, const struct ofbundle *in_bundle,
3409                     struct dst_set *set)
3410 {
3411     struct ofproto_dpif *ofproto = ctx->ofproto;
3412     mirror_mask_t mirrors;
3413     int flow_vlan;
3414     size_t i;
3415
3416     mirrors = in_bundle->src_mirrors;
3417     for (i = 0; i < set->n; i++) {
3418         mirrors |= set->dsts[i].port->bundle->dst_mirrors;
3419     }
3420
3421     if (!mirrors) {
3422         return;
3423     }
3424
3425     flow_vlan = vlan_tci_to_vid(ctx->flow.vlan_tci);
3426     if (flow_vlan == 0) {
3427         flow_vlan = OFP_VLAN_NONE;
3428     }
3429
3430     while (mirrors) {
3431         struct ofmirror *m = ofproto->mirrors[mirror_mask_ffs(mirrors) - 1];
3432         if (vlan_is_mirrored(m, vlan)) {
3433             struct dst dst;
3434
3435             if (m->out) {
3436                 if (set_dst(ctx, &dst, in_bundle, m->out)
3437                     && !dst_is_duplicate(set, &dst)) {
3438                     dst_set_add(set, &dst);
3439                 }
3440             } else if (eth_dst_may_rspan(ctx->flow.dl_dst)) {
3441                 struct ofbundle *bundle;
3442
3443                 HMAP_FOR_EACH (bundle, hmap_node, &ofproto->bundles) {
3444                     if (ofbundle_includes_vlan(bundle, m->out_vlan)
3445                         && set_dst(ctx, &dst, in_bundle, bundle))
3446                     {
3447                         if (bundle->vlan < 0) {
3448                             dst.vlan = m->out_vlan;
3449                         }
3450                         if (dst_is_duplicate(set, &dst)) {
3451                             continue;
3452                         }
3453
3454                         /* Use the vlan tag on the original flow instead of
3455                          * the one passed in the vlan parameter.  This ensures
3456                          * that we compare the vlan from before any implicit
3457                          * tagging tags place. This is necessary because
3458                          * dst->vlan is the final vlan, after removing implicit
3459                          * tags. */
3460                         if (bundle == in_bundle && dst.vlan == flow_vlan) {
3461                             /* Don't send out input port on same VLAN. */
3462                             continue;
3463                         }
3464                         dst_set_add(set, &dst);
3465                     }
3466                 }
3467             }
3468         }
3469         mirrors &= mirrors - 1;
3470     }
3471 }
3472
3473 static void
3474 compose_actions(struct action_xlate_ctx *ctx, uint16_t vlan,
3475                 const struct ofbundle *in_bundle,
3476                 const struct ofbundle *out_bundle)
3477 {
3478     uint16_t initial_vlan, cur_vlan;
3479     const struct dst *dst;
3480     struct dst_set set;
3481
3482     dst_set_init(&set);
3483     compose_dsts(ctx, vlan, in_bundle, out_bundle, &set);
3484     compose_mirror_dsts(ctx, vlan, in_bundle, &set);
3485
3486     /* Output all the packets we can without having to change the VLAN. */
3487     initial_vlan = vlan_tci_to_vid(ctx->flow.vlan_tci);
3488     if (initial_vlan == 0) {
3489         initial_vlan = OFP_VLAN_NONE;
3490     }
3491     for (dst = set.dsts; dst < &set.dsts[set.n]; dst++) {
3492         if (dst->vlan != initial_vlan) {
3493             continue;
3494         }
3495         nl_msg_put_u32(ctx->odp_actions,
3496                        ODP_ACTION_ATTR_OUTPUT, dst->port->odp_port);
3497     }
3498
3499     /* Then output the rest. */
3500     cur_vlan = initial_vlan;
3501     for (dst = set.dsts; dst < &set.dsts[set.n]; dst++) {
3502         if (dst->vlan == initial_vlan) {
3503             continue;
3504         }
3505         if (dst->vlan != cur_vlan) {
3506             if (dst->vlan == OFP_VLAN_NONE) {
3507                 nl_msg_put_flag(ctx->odp_actions, ODP_ACTION_ATTR_STRIP_VLAN);
3508             } else {
3509                 ovs_be16 tci;
3510                 tci = htons(dst->vlan & VLAN_VID_MASK);
3511                 tci |= ctx->flow.vlan_tci & htons(VLAN_PCP_MASK);
3512                 nl_msg_put_be16(ctx->odp_actions,
3513                                 ODP_ACTION_ATTR_SET_DL_TCI, tci);
3514             }
3515             cur_vlan = dst->vlan;
3516         }
3517         nl_msg_put_u32(ctx->odp_actions,
3518                        ODP_ACTION_ATTR_OUTPUT, dst->port->odp_port);
3519     }
3520
3521     dst_set_free(&set);
3522 }
3523
3524 /* Returns the effective vlan of a packet, taking into account both the
3525  * 802.1Q header and implicitly tagged ports.  A value of 0 indicates that
3526  * the packet is untagged and -1 indicates it has an invalid header and
3527  * should be dropped. */
3528 static int
3529 flow_get_vlan(struct ofproto_dpif *ofproto, const struct flow *flow,
3530               struct ofbundle *in_bundle, bool have_packet)
3531 {
3532     int vlan = vlan_tci_to_vid(flow->vlan_tci);
3533     if (in_bundle->vlan >= 0) {
3534         if (vlan) {
3535             if (have_packet) {
3536                 static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
3537                 VLOG_WARN_RL(&rl, "bridge %s: dropping VLAN %d tagged "
3538                              "packet received on port %s configured with "
3539                              "implicit VLAN %"PRIu16,
3540                              ofproto->up.name, vlan,
3541                              in_bundle->name, in_bundle->vlan);
3542             }
3543             return -1;
3544         }
3545         vlan = in_bundle->vlan;
3546     } else {
3547         if (!ofbundle_includes_vlan(in_bundle, vlan)) {
3548             if (have_packet) {
3549                 static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
3550                 VLOG_WARN_RL(&rl, "bridge %s: dropping VLAN %d tagged "
3551                              "packet received on port %s not configured for "
3552                              "trunking VLAN %d",
3553                              ofproto->up.name, vlan, in_bundle->name, vlan);
3554             }
3555             return -1;
3556         }
3557     }
3558
3559     return vlan;
3560 }
3561
3562 /* A VM broadcasts a gratuitous ARP to indicate that it has resumed after
3563  * migration.  Older Citrix-patched Linux DomU used gratuitous ARP replies to
3564  * indicate this; newer upstream kernels use gratuitous ARP requests. */
3565 static bool
3566 is_gratuitous_arp(const struct flow *flow)
3567 {
3568     return (flow->dl_type == htons(ETH_TYPE_ARP)
3569             && eth_addr_is_broadcast(flow->dl_dst)
3570             && (flow->nw_proto == ARP_OP_REPLY
3571                 || (flow->nw_proto == ARP_OP_REQUEST
3572                     && flow->nw_src == flow->nw_dst)));
3573 }
3574
3575 static void
3576 update_learning_table(struct ofproto_dpif *ofproto,
3577                       const struct flow *flow, int vlan,
3578                       struct ofbundle *in_bundle)
3579 {
3580     struct mac_entry *mac;
3581
3582     if (!mac_learning_may_learn(ofproto->ml, flow->dl_src, vlan)) {
3583         return;
3584     }
3585
3586     mac = mac_learning_insert(ofproto->ml, flow->dl_src, vlan);
3587     if (is_gratuitous_arp(flow)) {
3588         /* We don't want to learn from gratuitous ARP packets that are
3589          * reflected back over bond slaves so we lock the learning table. */
3590         if (!in_bundle->bond) {
3591             mac_entry_set_grat_arp_lock(mac);
3592         } else if (mac_entry_is_grat_arp_locked(mac)) {
3593             return;
3594         }
3595     }
3596
3597     if (mac_entry_is_new(mac) || mac->port.p != in_bundle) {
3598         /* The log messages here could actually be useful in debugging,
3599          * so keep the rate limit relatively high. */
3600         static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(30, 300);
3601         VLOG_DBG_RL(&rl, "bridge %s: learned that "ETH_ADDR_FMT" is "
3602                     "on port %s in VLAN %d",
3603                     ofproto->up.name, ETH_ADDR_ARGS(flow->dl_src),
3604                     in_bundle->name, vlan);
3605
3606         mac->port.p = in_bundle;
3607         tag_set_add(&ofproto->revalidate_set,
3608                     mac_learning_changed(ofproto->ml, mac));
3609     }
3610 }
3611
3612 /* Determines whether packets in 'flow' within 'br' should be forwarded or
3613  * dropped.  Returns true if they may be forwarded, false if they should be
3614  * dropped.
3615  *
3616  * If 'have_packet' is true, it indicates that the caller is processing a
3617  * received packet.  If 'have_packet' is false, then the caller is just
3618  * revalidating an existing flow because configuration has changed.  Either
3619  * way, 'have_packet' only affects logging (there is no point in logging errors
3620  * during revalidation).
3621  *
3622  * Sets '*in_portp' to the input port.  This will be a null pointer if
3623  * flow->in_port does not designate a known input port (in which case
3624  * is_admissible() returns false).
3625  *
3626  * When returning true, sets '*vlanp' to the effective VLAN of the input
3627  * packet, as returned by flow_get_vlan().
3628  *
3629  * May also add tags to '*tags', although the current implementation only does
3630  * so in one special case.
3631  */
3632 static bool
3633 is_admissible(struct ofproto_dpif *ofproto, const struct flow *flow,
3634               bool have_packet,
3635               tag_type *tags, int *vlanp, struct ofbundle **in_bundlep)
3636 {
3637     struct ofport_dpif *in_port;
3638     struct ofbundle *in_bundle;
3639     int vlan;
3640
3641     /* Find the port and bundle for the received packet. */
3642     in_port = get_ofp_port(ofproto, flow->in_port);
3643     *in_bundlep = in_bundle = in_port ? in_port->bundle : NULL;
3644     if (!in_port || !in_bundle) {
3645         /* No interface?  Something fishy... */
3646         if (have_packet) {
3647             /* Odd.  A few possible reasons here:
3648              *
3649              * - We deleted a port but there are still a few packets queued up
3650              *   from it.
3651              *
3652              * - Someone externally added a port (e.g. "ovs-dpctl add-if") that
3653              *   we don't know about.
3654              *
3655              * - Packet arrived on the local port but the local port is not
3656              *   part of a bundle.
3657              */
3658             static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
3659
3660             VLOG_WARN_RL(&rl, "bridge %s: received packet on unknown "
3661                          "port %"PRIu16,
3662                          ofproto->up.name, flow->in_port);
3663         }
3664         return false;
3665     }
3666     *vlanp = vlan = flow_get_vlan(ofproto, flow, in_bundle, have_packet);
3667     if (vlan < 0) {
3668         return false;
3669     }
3670
3671     /* Drop frames for reserved multicast addresses. */
3672     if (eth_addr_is_reserved(flow->dl_dst)) {
3673         return false;
3674     }
3675
3676     /* Drop frames on bundles reserved for mirroring. */
3677     if (in_bundle->mirror_out) {
3678         if (have_packet) {
3679             static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(1, 5);
3680             VLOG_WARN_RL(&rl, "bridge %s: dropping packet received on port "
3681                          "%s, which is reserved exclusively for mirroring",
3682                          ofproto->up.name, in_bundle->name);
3683         }
3684         return false;
3685     }
3686
3687     if (in_bundle->bond) {
3688         struct mac_entry *mac;
3689
3690         switch (bond_check_admissibility(in_bundle->bond, in_port,
3691                                          flow->dl_dst, tags)) {
3692         case BV_ACCEPT:
3693             break;
3694
3695         case BV_DROP:
3696             return false;
3697
3698         case BV_DROP_IF_MOVED:
3699             mac = mac_learning_lookup(ofproto->ml, flow->dl_src, vlan, NULL);
3700             if (mac && mac->port.p != in_bundle &&
3701                 (!is_gratuitous_arp(flow)
3702                  || mac_entry_is_grat_arp_locked(mac))) {
3703                 return false;
3704             }
3705             break;
3706         }
3707     }
3708
3709     return true;
3710 }
3711
3712 /* If the composed actions may be applied to any packet in the given 'flow',
3713  * returns true.  Otherwise, the actions should only be applied to 'packet', or
3714  * not at all, if 'packet' was NULL. */
3715 static bool
3716 xlate_normal(struct action_xlate_ctx *ctx)
3717 {
3718     struct ofbundle *in_bundle;
3719     struct ofbundle *out_bundle;
3720     struct mac_entry *mac;
3721     int vlan;
3722
3723     /* Check whether we should drop packets in this flow. */
3724     if (!is_admissible(ctx->ofproto, &ctx->flow, ctx->packet != NULL,
3725                        &ctx->tags, &vlan, &in_bundle)) {
3726         out_bundle = NULL;
3727         goto done;
3728     }
3729
3730     /* Learn source MAC (but don't try to learn from revalidation). */
3731     if (ctx->packet) {
3732         update_learning_table(ctx->ofproto, &ctx->flow, vlan, in_bundle);
3733     }
3734
3735     /* Determine output bundle. */
3736     mac = mac_learning_lookup(ctx->ofproto->ml, ctx->flow.dl_dst, vlan,
3737                               &ctx->tags);
3738     if (mac) {
3739         out_bundle = mac->port.p;
3740     } else if (!ctx->packet && !eth_addr_is_multicast(ctx->flow.dl_dst)) {
3741         /* If we are revalidating but don't have a learning entry then eject
3742          * the flow.  Installing a flow that floods packets opens up a window
3743          * of time where we could learn from a packet reflected on a bond and
3744          * blackhole packets before the learning table is updated to reflect
3745          * the correct port. */
3746         return false;
3747     } else {
3748         out_bundle = OFBUNDLE_FLOOD;
3749     }
3750
3751     /* Don't send packets out their input bundles. */
3752     if (in_bundle == out_bundle) {
3753         out_bundle = NULL;
3754     }
3755
3756 done:
3757     if (in_bundle) {
3758         compose_actions(ctx, vlan, in_bundle, out_bundle);
3759     }
3760
3761     return true;
3762 }
3763 \f
3764 static bool
3765 get_drop_frags(struct ofproto *ofproto_)
3766 {
3767     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
3768     bool drop_frags;
3769
3770     dpif_get_drop_frags(ofproto->dpif, &drop_frags);
3771     return drop_frags;
3772 }
3773
3774 static void
3775 set_drop_frags(struct ofproto *ofproto_, bool drop_frags)
3776 {
3777     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
3778
3779     dpif_set_drop_frags(ofproto->dpif, drop_frags);
3780 }
3781
3782 static int
3783 packet_out(struct ofproto *ofproto_, struct ofpbuf *packet,
3784            const struct flow *flow,
3785            const union ofp_action *ofp_actions, size_t n_ofp_actions)
3786 {
3787     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
3788     int error;
3789
3790     error = validate_actions(ofp_actions, n_ofp_actions, flow,
3791                              ofproto->max_ports);
3792     if (!error) {
3793         struct odputil_keybuf keybuf;
3794         struct action_xlate_ctx ctx;
3795         struct ofpbuf *odp_actions;
3796         struct ofpbuf key;
3797
3798         ofpbuf_use_stack(&key, &keybuf, sizeof keybuf);
3799         odp_flow_key_from_flow(&key, flow);
3800
3801         action_xlate_ctx_init(&ctx, ofproto, flow, packet);
3802         odp_actions = xlate_actions(&ctx, ofp_actions, n_ofp_actions);
3803         dpif_execute(ofproto->dpif, key.data, key.size,
3804                      odp_actions->data, odp_actions->size, packet);
3805         ofpbuf_delete(odp_actions);
3806     }
3807     return error;
3808 }
3809
3810 static void
3811 get_netflow_ids(const struct ofproto *ofproto_,
3812                 uint8_t *engine_type, uint8_t *engine_id)
3813 {
3814     struct ofproto_dpif *ofproto = ofproto_dpif_cast(ofproto_);
3815
3816     dpif_get_netflow_ids(ofproto->dpif, engine_type, engine_id);
3817 }
3818 \f
3819 static struct ofproto_dpif *
3820 ofproto_dpif_lookup(const char *name)
3821 {
3822     struct ofproto *ofproto = ofproto_lookup(name);
3823     return (ofproto && ofproto->ofproto_class == &ofproto_dpif_class
3824             ? ofproto_dpif_cast(ofproto)
3825             : NULL);
3826 }
3827
3828 static void
3829 ofproto_unixctl_fdb_show(struct unixctl_conn *conn,
3830                          const char *args, void *aux OVS_UNUSED)
3831 {
3832     struct ds ds = DS_EMPTY_INITIALIZER;
3833     const struct ofproto_dpif *ofproto;
3834     const struct mac_entry *e;
3835
3836     ofproto = ofproto_dpif_lookup(args);
3837     if (!ofproto) {
3838         unixctl_command_reply(conn, 501, "no such bridge");
3839         return;
3840     }
3841
3842     ds_put_cstr(&ds, " port  VLAN  MAC                Age\n");
3843     LIST_FOR_EACH (e, lru_node, &ofproto->ml->lrus) {
3844         struct ofbundle *bundle = e->port.p;
3845         ds_put_format(&ds, "%5d  %4d  "ETH_ADDR_FMT"  %3d\n",
3846                       ofbundle_get_a_port(bundle)->odp_port,
3847                       e->vlan, ETH_ADDR_ARGS(e->mac), mac_entry_age(e));
3848     }
3849     unixctl_command_reply(conn, 200, ds_cstr(&ds));
3850     ds_destroy(&ds);
3851 }
3852
3853 struct ofproto_trace {
3854     struct action_xlate_ctx ctx;
3855     struct flow flow;
3856     struct ds *result;
3857 };
3858
3859 static void
3860 trace_format_rule(struct ds *result, int level, const struct rule *rule)
3861 {
3862     ds_put_char_multiple(result, '\t', level);
3863     if (!rule) {
3864         ds_put_cstr(result, "No match\n");
3865         return;
3866     }
3867
3868     ds_put_format(result, "Rule: cookie=%#"PRIx64" ",
3869                   ntohll(rule->flow_cookie));
3870     cls_rule_format(&rule->cr, result);
3871     ds_put_char(result, '\n');
3872
3873     ds_put_char_multiple(result, '\t', level);
3874     ds_put_cstr(result, "OpenFlow ");
3875     ofp_print_actions(result, rule->actions, rule->n_actions);
3876     ds_put_char(result, '\n');
3877 }
3878
3879 static void
3880 trace_format_flow(struct ds *result, int level, const char *title,
3881                  struct ofproto_trace *trace)
3882 {
3883     ds_put_char_multiple(result, '\t', level);
3884     ds_put_format(result, "%s: ", title);
3885     if (flow_equal(&trace->ctx.flow, &trace->flow)) {
3886         ds_put_cstr(result, "unchanged");
3887     } else {
3888         flow_format(result, &trace->ctx.flow);
3889         trace->flow = trace->ctx.flow;
3890     }
3891     ds_put_char(result, '\n');
3892 }
3893
3894 static void
3895 trace_resubmit(struct action_xlate_ctx *ctx, struct rule_dpif *rule)
3896 {
3897     struct ofproto_trace *trace = CONTAINER_OF(ctx, struct ofproto_trace, ctx);
3898     struct ds *result = trace->result;
3899
3900     ds_put_char(result, '\n');
3901     trace_format_flow(result, ctx->recurse + 1, "Resubmitted flow", trace);
3902     trace_format_rule(result, ctx->recurse + 1, &rule->up);
3903 }
3904
3905 static void
3906 ofproto_unixctl_trace(struct unixctl_conn *conn, const char *args_,
3907                       void *aux OVS_UNUSED)
3908 {
3909     char *dpname, *in_port_s, *tun_id_s, *packet_s;
3910     char *args = xstrdup(args_);
3911     char *save_ptr = NULL;
3912     struct ofproto_dpif *ofproto;
3913     struct ofpbuf packet;
3914     struct rule_dpif *rule;
3915     struct ds result;
3916     struct flow flow;
3917     uint16_t in_port;
3918     ovs_be64 tun_id;
3919     char *s;
3920
3921     ofpbuf_init(&packet, strlen(args) / 2);
3922     ds_init(&result);
3923
3924     dpname = strtok_r(args, " ", &save_ptr);
3925     tun_id_s = strtok_r(NULL, " ", &save_ptr);
3926     in_port_s = strtok_r(NULL, " ", &save_ptr);
3927     packet_s = strtok_r(NULL, "", &save_ptr); /* Get entire rest of line. */
3928     if (!dpname || !in_port_s || !packet_s) {
3929         unixctl_command_reply(conn, 501, "Bad command syntax");
3930         goto exit;
3931     }
3932
3933     ofproto = ofproto_dpif_lookup(dpname);
3934     if (!ofproto) {
3935         unixctl_command_reply(conn, 501, "Unknown ofproto (use ofproto/list "
3936                               "for help)");
3937         goto exit;
3938     }
3939
3940     tun_id = htonll(strtoull(tun_id_s, NULL, 0));
3941     in_port = ofp_port_to_odp_port(atoi(in_port_s));
3942
3943     packet_s = ofpbuf_put_hex(&packet, packet_s, NULL);
3944     packet_s += strspn(packet_s, " ");
3945     if (*packet_s != '\0') {
3946         unixctl_command_reply(conn, 501, "Trailing garbage in command");
3947         goto exit;
3948     }
3949     if (packet.size < ETH_HEADER_LEN) {
3950         unixctl_command_reply(conn, 501, "Packet data too short for Ethernet");
3951         goto exit;
3952     }
3953
3954     ds_put_cstr(&result, "Packet: ");
3955     s = ofp_packet_to_string(packet.data, packet.size, packet.size);
3956     ds_put_cstr(&result, s);
3957     free(s);
3958
3959     flow_extract(&packet, tun_id, in_port, &flow);
3960     ds_put_cstr(&result, "Flow: ");
3961     flow_format(&result, &flow);
3962     ds_put_char(&result, '\n');
3963
3964     rule = rule_dpif_lookup(ofproto, &flow);
3965     trace_format_rule(&result, 0, &rule->up);
3966     if (rule) {
3967         struct ofproto_trace trace;
3968         struct ofpbuf *odp_actions;
3969
3970         trace.result = &result;
3971         trace.flow = flow;
3972         action_xlate_ctx_init(&trace.ctx, ofproto, &flow, &packet);
3973         trace.ctx.resubmit_hook = trace_resubmit;
3974         odp_actions = xlate_actions(&trace.ctx,
3975                                     rule->up.actions, rule->up.n_actions);
3976
3977         ds_put_char(&result, '\n');
3978         trace_format_flow(&result, 0, "Final flow", &trace);
3979         ds_put_cstr(&result, "Datapath actions: ");
3980         format_odp_actions(&result, odp_actions->data, odp_actions->size);
3981         ofpbuf_delete(odp_actions);
3982     }
3983
3984     unixctl_command_reply(conn, 200, ds_cstr(&result));
3985
3986 exit:
3987     ds_destroy(&result);
3988     ofpbuf_uninit(&packet);
3989     free(args);
3990 }
3991
3992 static void
3993 ofproto_dpif_clog(struct unixctl_conn *conn OVS_UNUSED,
3994                   const char *args_ OVS_UNUSED, void *aux OVS_UNUSED)
3995 {
3996     clogged = true;
3997     unixctl_command_reply(conn, 200, NULL);
3998 }
3999
4000 static void
4001 ofproto_dpif_unclog(struct unixctl_conn *conn OVS_UNUSED,
4002                     const char *args_ OVS_UNUSED, void *aux OVS_UNUSED)
4003 {
4004     clogged = false;
4005     unixctl_command_reply(conn, 200, NULL);
4006 }
4007
4008 static void
4009 ofproto_dpif_unixctl_init(void)
4010 {
4011     static bool registered;
4012     if (registered) {
4013         return;
4014     }
4015     registered = true;
4016
4017     unixctl_command_register("ofproto/trace", ofproto_unixctl_trace, NULL);
4018     unixctl_command_register("fdb/show", ofproto_unixctl_fdb_show, NULL);
4019
4020     unixctl_command_register("ofproto/clog", ofproto_dpif_clog, NULL);
4021     unixctl_command_register("ofproto/unclog", ofproto_dpif_unclog, NULL);
4022 }
4023 \f
4024 const struct ofproto_class ofproto_dpif_class = {
4025     enumerate_types,
4026     enumerate_names,
4027     del,
4028     alloc,
4029     construct,
4030     destruct,
4031     dealloc,
4032     run,
4033     wait,
4034     flush,
4035     get_features,
4036     get_tables,
4037     port_alloc,
4038     port_construct,
4039     port_destruct,
4040     port_dealloc,
4041     port_modified,
4042     port_reconfigured,
4043     port_query_by_name,
4044     port_add,
4045     port_del,
4046     port_dump_start,
4047     port_dump_next,
4048     port_dump_done,
4049     port_poll,
4050     port_poll_wait,
4051     port_is_lacp_current,
4052     NULL,                       /* rule_choose_table */
4053     rule_alloc,
4054     rule_construct,
4055     rule_destruct,
4056     rule_dealloc,
4057     rule_get_stats,
4058     rule_execute,
4059     rule_modify_actions,
4060     get_drop_frags,
4061     set_drop_frags,
4062     packet_out,
4063     set_netflow,
4064     get_netflow_ids,
4065     set_sflow,
4066     set_cfm,
4067     get_cfm_fault,
4068     bundle_set,
4069     bundle_remove,
4070     mirror_set,
4071     set_flood_vlans,
4072     is_mirror_output_bundle,
4073 };