Classifier: Staged subtable matching.
[sliver-openvswitch.git] / tests / test-classifier.c
1 /*
2  * Copyright (c) 2009, 2010, 2011, 2012, 2013 Nicira, Inc.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 /* "White box" tests for classifier.
18  *
19  * With very few exceptions, these tests obtain complete coverage of every
20  * basic block and every branch in the classifier implementation, e.g. a clean
21  * report from "gcov -b".  (Covering the exceptions would require finding
22  * collisions in the hash function used for flow data, etc.)
23  *
24  * This test should receive a clean report from "valgrind --leak-check=full":
25  * it frees every heap block that it allocates.
26  */
27
28 #include <config.h>
29 #include "classifier.h"
30 #include <errno.h>
31 #include <limits.h>
32 #include "byte-order.h"
33 #include "command-line.h"
34 #include "flow.h"
35 #include "ofp-util.h"
36 #include "packets.h"
37 #include "random.h"
38 #include "unaligned.h"
39
40 #undef NDEBUG
41 #include <assert.h>
42
43 /* Fields in a rule. */
44 #define CLS_FIELDS                                                  \
45     /*        struct flow    all-caps */  \
46     /*        member name    name     */  \
47     /*        -----------    -------- */  \
48     CLS_FIELD(tunnel.tun_id, TUN_ID)      \
49     CLS_FIELD(metadata,      METADATA)    \
50     CLS_FIELD(nw_src,        NW_SRC)      \
51     CLS_FIELD(nw_dst,        NW_DST)      \
52     CLS_FIELD(in_port,       IN_PORT)     \
53     CLS_FIELD(vlan_tci,      VLAN_TCI)    \
54     CLS_FIELD(dl_type,       DL_TYPE)     \
55     CLS_FIELD(tp_src,        TP_SRC)      \
56     CLS_FIELD(tp_dst,        TP_DST)      \
57     CLS_FIELD(dl_src,        DL_SRC)      \
58     CLS_FIELD(dl_dst,        DL_DST)      \
59     CLS_FIELD(nw_proto,      NW_PROTO)    \
60     CLS_FIELD(nw_tos,        NW_DSCP)
61
62 /* Field indexes.
63  *
64  * (These are also indexed into struct classifier's 'tables' array.) */
65 enum {
66 #define CLS_FIELD(MEMBER, NAME) CLS_F_IDX_##NAME,
67     CLS_FIELDS
68 #undef CLS_FIELD
69     CLS_N_FIELDS
70 };
71
72 /* Field information. */
73 struct cls_field {
74     int ofs;                    /* Offset in struct flow. */
75     int len;                    /* Length in bytes. */
76     const char *name;           /* Name (for debugging). */
77 };
78
79 static const struct cls_field cls_fields[CLS_N_FIELDS] = {
80 #define CLS_FIELD(MEMBER, NAME)                 \
81     { offsetof(struct flow, MEMBER),            \
82       sizeof ((struct flow *)0)->MEMBER,        \
83       #NAME },
84     CLS_FIELDS
85 #undef CLS_FIELD
86 };
87
88 struct test_rule {
89     int aux;                    /* Auxiliary data. */
90     struct cls_rule cls_rule;   /* Classifier rule data. */
91 };
92
93 static struct test_rule *
94 test_rule_from_cls_rule(const struct cls_rule *rule)
95 {
96     return rule ? CONTAINER_OF(rule, struct test_rule, cls_rule) : NULL;
97 }
98
99 static void
100 test_rule_destroy(struct test_rule *rule)
101 {
102     if (rule) {
103         cls_rule_destroy(&rule->cls_rule);
104         free(rule);
105     }
106 }
107
108 static struct test_rule *make_rule(int wc_fields, unsigned int priority,
109                                    int value_pat);
110 static void free_rule(struct test_rule *);
111 static struct test_rule *clone_rule(const struct test_rule *);
112
113 /* Trivial (linear) classifier. */
114 struct tcls {
115     size_t n_rules;
116     size_t allocated_rules;
117     struct test_rule **rules;
118 };
119
120 static void
121 tcls_init(struct tcls *tcls)
122 {
123     tcls->n_rules = 0;
124     tcls->allocated_rules = 0;
125     tcls->rules = NULL;
126 }
127
128 static void
129 tcls_destroy(struct tcls *tcls)
130 {
131     if (tcls) {
132         size_t i;
133
134         for (i = 0; i < tcls->n_rules; i++) {
135             test_rule_destroy(tcls->rules[i]);
136         }
137         free(tcls->rules);
138     }
139 }
140
141 static bool
142 tcls_is_empty(const struct tcls *tcls)
143 {
144     return tcls->n_rules == 0;
145 }
146
147 static struct test_rule *
148 tcls_insert(struct tcls *tcls, const struct test_rule *rule)
149 {
150     size_t i;
151
152     for (i = 0; i < tcls->n_rules; i++) {
153         const struct cls_rule *pos = &tcls->rules[i]->cls_rule;
154         if (cls_rule_equal(pos, &rule->cls_rule)) {
155             /* Exact match. */
156             free_rule(tcls->rules[i]);
157             tcls->rules[i] = clone_rule(rule);
158             return tcls->rules[i];
159         } else if (pos->priority < rule->cls_rule.priority) {
160             break;
161         }
162     }
163
164     if (tcls->n_rules >= tcls->allocated_rules) {
165         tcls->rules = x2nrealloc(tcls->rules, &tcls->allocated_rules,
166                                  sizeof *tcls->rules);
167     }
168     if (i != tcls->n_rules) {
169         memmove(&tcls->rules[i + 1], &tcls->rules[i],
170                 sizeof *tcls->rules * (tcls->n_rules - i));
171     }
172     tcls->rules[i] = clone_rule(rule);
173     tcls->n_rules++;
174     return tcls->rules[i];
175 }
176
177 static void
178 tcls_remove(struct tcls *cls, const struct test_rule *rule)
179 {
180     size_t i;
181
182     for (i = 0; i < cls->n_rules; i++) {
183         struct test_rule *pos = cls->rules[i];
184         if (pos == rule) {
185             test_rule_destroy(pos);
186
187             memmove(&cls->rules[i], &cls->rules[i + 1],
188                     sizeof *cls->rules * (cls->n_rules - i - 1));
189
190             cls->n_rules--;
191             return;
192         }
193     }
194     NOT_REACHED();
195 }
196
197 static bool
198 match(const struct cls_rule *wild_, const struct flow *fixed)
199 {
200     struct match wild;
201     int f_idx;
202
203     minimatch_expand(&wild_->match, &wild);
204     for (f_idx = 0; f_idx < CLS_N_FIELDS; f_idx++) {
205         bool eq;
206
207         if (f_idx == CLS_F_IDX_NW_SRC) {
208             eq = !((fixed->nw_src ^ wild.flow.nw_src)
209                    & wild.wc.masks.nw_src);
210         } else if (f_idx == CLS_F_IDX_NW_DST) {
211             eq = !((fixed->nw_dst ^ wild.flow.nw_dst)
212                    & wild.wc.masks.nw_dst);
213         } else if (f_idx == CLS_F_IDX_TP_SRC) {
214             eq = !((fixed->tp_src ^ wild.flow.tp_src)
215                    & wild.wc.masks.tp_src);
216         } else if (f_idx == CLS_F_IDX_TP_DST) {
217             eq = !((fixed->tp_dst ^ wild.flow.tp_dst)
218                    & wild.wc.masks.tp_dst);
219         } else if (f_idx == CLS_F_IDX_DL_SRC) {
220             eq = eth_addr_equal_except(fixed->dl_src, wild.flow.dl_src,
221                                        wild.wc.masks.dl_src);
222         } else if (f_idx == CLS_F_IDX_DL_DST) {
223             eq = eth_addr_equal_except(fixed->dl_dst, wild.flow.dl_dst,
224                                        wild.wc.masks.dl_dst);
225         } else if (f_idx == CLS_F_IDX_VLAN_TCI) {
226             eq = !((fixed->vlan_tci ^ wild.flow.vlan_tci)
227                    & wild.wc.masks.vlan_tci);
228         } else if (f_idx == CLS_F_IDX_TUN_ID) {
229             eq = !((fixed->tunnel.tun_id ^ wild.flow.tunnel.tun_id)
230                    & wild.wc.masks.tunnel.tun_id);
231         } else if (f_idx == CLS_F_IDX_METADATA) {
232             eq = !((fixed->metadata ^ wild.flow.metadata)
233                    & wild.wc.masks.metadata);
234         } else if (f_idx == CLS_F_IDX_NW_DSCP) {
235             eq = !((fixed->nw_tos ^ wild.flow.nw_tos) &
236                    (wild.wc.masks.nw_tos & IP_DSCP_MASK));
237         } else if (f_idx == CLS_F_IDX_NW_PROTO) {
238             eq = !((fixed->nw_proto ^ wild.flow.nw_proto)
239                    & wild.wc.masks.nw_proto);
240         } else if (f_idx == CLS_F_IDX_DL_TYPE) {
241             eq = !((fixed->dl_type ^ wild.flow.dl_type)
242                    & wild.wc.masks.dl_type);
243         } else if (f_idx == CLS_F_IDX_IN_PORT) {
244             eq = !((fixed->in_port.ofp_port
245                     ^ wild.flow.in_port.ofp_port)
246                    & wild.wc.masks.in_port.ofp_port);
247         } else {
248             NOT_REACHED();
249         }
250
251         if (!eq) {
252             return false;
253         }
254     }
255     return true;
256 }
257
258 static struct cls_rule *
259 tcls_lookup(const struct tcls *cls, const struct flow *flow)
260 {
261     size_t i;
262
263     for (i = 0; i < cls->n_rules; i++) {
264         struct test_rule *pos = cls->rules[i];
265         if (match(&pos->cls_rule, flow)) {
266             return &pos->cls_rule;
267         }
268     }
269     return NULL;
270 }
271
272 static void
273 tcls_delete_matches(struct tcls *cls, const struct cls_rule *target)
274 {
275     size_t i;
276
277     for (i = 0; i < cls->n_rules; ) {
278         struct test_rule *pos = cls->rules[i];
279         if (!minimask_has_extra(&pos->cls_rule.match.mask,
280                                 &target->match.mask)) {
281             struct flow flow;
282
283             miniflow_expand(&pos->cls_rule.match.flow, &flow);
284             if (match(target, &flow)) {
285                 tcls_remove(cls, pos);
286                 continue;
287             }
288         }
289         i++;
290     }
291 }
292 \f
293 static ovs_be32 nw_src_values[] = { CONSTANT_HTONL(0xc0a80001),
294                                     CONSTANT_HTONL(0xc0a04455) };
295 static ovs_be32 nw_dst_values[] = { CONSTANT_HTONL(0xc0a80002),
296                                     CONSTANT_HTONL(0xc0a04455) };
297 static ovs_be64 tun_id_values[] = {
298     0,
299     CONSTANT_HTONLL(UINT64_C(0xfedcba9876543210)) };
300 static ovs_be64 metadata_values[] = {
301     0,
302     CONSTANT_HTONLL(UINT64_C(0xfedcba9876543210)) };
303 static ofp_port_t in_port_values[] = { OFP_PORT_C(1), OFPP_LOCAL };
304 static ovs_be16 vlan_tci_values[] = { CONSTANT_HTONS(101), CONSTANT_HTONS(0) };
305 static ovs_be16 dl_type_values[]
306             = { CONSTANT_HTONS(ETH_TYPE_IP), CONSTANT_HTONS(ETH_TYPE_ARP) };
307 static ovs_be16 tp_src_values[] = { CONSTANT_HTONS(49362),
308                                     CONSTANT_HTONS(80) };
309 static ovs_be16 tp_dst_values[] = { CONSTANT_HTONS(6667), CONSTANT_HTONS(22) };
310 static uint8_t dl_src_values[][6] = { { 0x00, 0x02, 0xe3, 0x0f, 0x80, 0xa4 },
311                                       { 0x5e, 0x33, 0x7f, 0x5f, 0x1e, 0x99 } };
312 static uint8_t dl_dst_values[][6] = { { 0x4a, 0x27, 0x71, 0xae, 0x64, 0xc1 },
313                                       { 0xff, 0xff, 0xff, 0xff, 0xff, 0xff } };
314 static uint8_t nw_proto_values[] = { IPPROTO_TCP, IPPROTO_ICMP };
315 static uint8_t nw_dscp_values[] = { 48, 0 };
316
317 static void *values[CLS_N_FIELDS][2];
318
319 static void
320 init_values(void)
321 {
322     values[CLS_F_IDX_TUN_ID][0] = &tun_id_values[0];
323     values[CLS_F_IDX_TUN_ID][1] = &tun_id_values[1];
324
325     values[CLS_F_IDX_METADATA][0] = &metadata_values[0];
326     values[CLS_F_IDX_METADATA][1] = &metadata_values[1];
327
328     values[CLS_F_IDX_IN_PORT][0] = &in_port_values[0];
329     values[CLS_F_IDX_IN_PORT][1] = &in_port_values[1];
330
331     values[CLS_F_IDX_VLAN_TCI][0] = &vlan_tci_values[0];
332     values[CLS_F_IDX_VLAN_TCI][1] = &vlan_tci_values[1];
333
334     values[CLS_F_IDX_DL_SRC][0] = dl_src_values[0];
335     values[CLS_F_IDX_DL_SRC][1] = dl_src_values[1];
336
337     values[CLS_F_IDX_DL_DST][0] = dl_dst_values[0];
338     values[CLS_F_IDX_DL_DST][1] = dl_dst_values[1];
339
340     values[CLS_F_IDX_DL_TYPE][0] = &dl_type_values[0];
341     values[CLS_F_IDX_DL_TYPE][1] = &dl_type_values[1];
342
343     values[CLS_F_IDX_NW_SRC][0] = &nw_src_values[0];
344     values[CLS_F_IDX_NW_SRC][1] = &nw_src_values[1];
345
346     values[CLS_F_IDX_NW_DST][0] = &nw_dst_values[0];
347     values[CLS_F_IDX_NW_DST][1] = &nw_dst_values[1];
348
349     values[CLS_F_IDX_NW_PROTO][0] = &nw_proto_values[0];
350     values[CLS_F_IDX_NW_PROTO][1] = &nw_proto_values[1];
351
352     values[CLS_F_IDX_NW_DSCP][0] = &nw_dscp_values[0];
353     values[CLS_F_IDX_NW_DSCP][1] = &nw_dscp_values[1];
354
355     values[CLS_F_IDX_TP_SRC][0] = &tp_src_values[0];
356     values[CLS_F_IDX_TP_SRC][1] = &tp_src_values[1];
357
358     values[CLS_F_IDX_TP_DST][0] = &tp_dst_values[0];
359     values[CLS_F_IDX_TP_DST][1] = &tp_dst_values[1];
360 }
361
362 #define N_NW_SRC_VALUES ARRAY_SIZE(nw_src_values)
363 #define N_NW_DST_VALUES ARRAY_SIZE(nw_dst_values)
364 #define N_TUN_ID_VALUES ARRAY_SIZE(tun_id_values)
365 #define N_METADATA_VALUES ARRAY_SIZE(metadata_values)
366 #define N_IN_PORT_VALUES ARRAY_SIZE(in_port_values)
367 #define N_VLAN_TCI_VALUES ARRAY_SIZE(vlan_tci_values)
368 #define N_DL_TYPE_VALUES ARRAY_SIZE(dl_type_values)
369 #define N_TP_SRC_VALUES ARRAY_SIZE(tp_src_values)
370 #define N_TP_DST_VALUES ARRAY_SIZE(tp_dst_values)
371 #define N_DL_SRC_VALUES ARRAY_SIZE(dl_src_values)
372 #define N_DL_DST_VALUES ARRAY_SIZE(dl_dst_values)
373 #define N_NW_PROTO_VALUES ARRAY_SIZE(nw_proto_values)
374 #define N_NW_DSCP_VALUES ARRAY_SIZE(nw_dscp_values)
375
376 #define N_FLOW_VALUES (N_NW_SRC_VALUES *        \
377                        N_NW_DST_VALUES *        \
378                        N_TUN_ID_VALUES *        \
379                        N_IN_PORT_VALUES *       \
380                        N_VLAN_TCI_VALUES *       \
381                        N_DL_TYPE_VALUES *       \
382                        N_TP_SRC_VALUES *        \
383                        N_TP_DST_VALUES *        \
384                        N_DL_SRC_VALUES *        \
385                        N_DL_DST_VALUES *        \
386                        N_NW_PROTO_VALUES *      \
387                        N_NW_DSCP_VALUES)
388
389 static unsigned int
390 get_value(unsigned int *x, unsigned n_values)
391 {
392     unsigned int rem = *x % n_values;
393     *x /= n_values;
394     return rem;
395 }
396
397 static void
398 compare_classifiers(struct classifier *cls, struct tcls *tcls)
399     OVS_REQ_RDLOCK(cls->rwlock)
400 {
401     static const int confidence = 500;
402     unsigned int i;
403
404     assert(classifier_count(cls) == tcls->n_rules);
405     for (i = 0; i < confidence; i++) {
406         struct cls_rule *cr0, *cr1, *cr2;
407         struct flow flow;
408         struct flow_wildcards wc;
409         unsigned int x;
410
411         flow_wildcards_init_catchall(&wc);
412         x = random_range(N_FLOW_VALUES);
413         memset(&flow, 0, sizeof flow);
414         flow.nw_src = nw_src_values[get_value(&x, N_NW_SRC_VALUES)];
415         flow.nw_dst = nw_dst_values[get_value(&x, N_NW_DST_VALUES)];
416         flow.tunnel.tun_id = tun_id_values[get_value(&x, N_TUN_ID_VALUES)];
417         flow.metadata = metadata_values[get_value(&x, N_METADATA_VALUES)];
418         flow.in_port.ofp_port = in_port_values[get_value(&x,
419                                                    N_IN_PORT_VALUES)];
420         flow.vlan_tci = vlan_tci_values[get_value(&x, N_VLAN_TCI_VALUES)];
421         flow.dl_type = dl_type_values[get_value(&x, N_DL_TYPE_VALUES)];
422         flow.tp_src = tp_src_values[get_value(&x, N_TP_SRC_VALUES)];
423         flow.tp_dst = tp_dst_values[get_value(&x, N_TP_DST_VALUES)];
424         memcpy(flow.dl_src, dl_src_values[get_value(&x, N_DL_SRC_VALUES)],
425                ETH_ADDR_LEN);
426         memcpy(flow.dl_dst, dl_dst_values[get_value(&x, N_DL_DST_VALUES)],
427                ETH_ADDR_LEN);
428         flow.nw_proto = nw_proto_values[get_value(&x, N_NW_PROTO_VALUES)];
429         flow.nw_tos = nw_dscp_values[get_value(&x, N_NW_DSCP_VALUES)];
430
431         cr0 = classifier_lookup(cls, &flow, &wc);
432         cr1 = tcls_lookup(tcls, &flow);
433         assert((cr0 == NULL) == (cr1 == NULL));
434         if (cr0 != NULL) {
435             const struct test_rule *tr0 = test_rule_from_cls_rule(cr0);
436             const struct test_rule *tr1 = test_rule_from_cls_rule(cr1);
437
438             assert(cls_rule_equal(cr0, cr1));
439             assert(tr0->aux == tr1->aux);
440         }
441         cr2 = classifier_lookup(cls, &flow, NULL);
442         assert(cr2 == cr0);
443     }
444 }
445
446 static void
447 destroy_classifier(struct classifier *cls)
448 {
449     struct test_rule *rule, *next_rule;
450     struct cls_cursor cursor;
451
452     ovs_rwlock_wrlock(&cls->rwlock);
453     cls_cursor_init(&cursor, cls, NULL);
454     CLS_CURSOR_FOR_EACH_SAFE (rule, next_rule, cls_rule, &cursor) {
455         classifier_remove(cls, &rule->cls_rule);
456         free_rule(rule);
457     }
458     ovs_rwlock_unlock(&cls->rwlock);
459     classifier_destroy(cls);
460 }
461
462 static void
463 check_tables(const struct classifier *cls, int n_tables, int n_rules,
464              int n_dups) OVS_REQ_RDLOCK(cls->rwlock)
465 {
466     const struct cls_subtable *table;
467     struct test_rule *test_rule;
468     struct cls_cursor cursor;
469     int found_tables = 0;
470     int found_rules = 0;
471     int found_dups = 0;
472     int found_rules2 = 0;
473
474     HMAP_FOR_EACH (table, hmap_node, &cls->subtables) {
475         const struct cls_rule *head;
476         unsigned int max_priority = 0;
477         unsigned int max_count = 0;
478
479         assert(!hmap_is_empty(&table->rules));
480
481         found_tables++;
482         HMAP_FOR_EACH (head, hmap_node, &table->rules) {
483             unsigned int prev_priority = UINT_MAX;
484             const struct cls_rule *rule;
485
486             if (head->priority > max_priority) {
487                 max_priority = head->priority;
488                 max_count = 1;
489             } else if (head->priority == max_priority) {
490                 ++max_count;
491             }
492
493             found_rules++;
494             LIST_FOR_EACH (rule, list, &head->list) {
495                 assert(rule->priority < prev_priority);
496                 assert(rule->priority <= table->max_priority);
497
498                 prev_priority = rule->priority;
499                 found_rules++;
500                 found_dups++;
501                 assert(classifier_find_rule_exactly(cls, rule) == rule);
502             }
503         }
504         assert(table->max_priority == max_priority);
505         assert(table->max_count == max_count);
506     }
507
508     assert(found_tables == hmap_count(&cls->subtables));
509     assert(n_tables == -1 || n_tables == hmap_count(&cls->subtables));
510     assert(n_rules == -1 || found_rules == n_rules);
511     assert(n_dups == -1 || found_dups == n_dups);
512
513     cls_cursor_init(&cursor, cls, NULL);
514     CLS_CURSOR_FOR_EACH (test_rule, cls_rule, &cursor) {
515         found_rules2++;
516     }
517     assert(found_rules == found_rules2);
518 }
519
520 static struct test_rule *
521 make_rule(int wc_fields, unsigned int priority, int value_pat)
522 {
523     const struct cls_field *f;
524     struct test_rule *rule;
525     struct match match;
526
527     match_init_catchall(&match);
528     for (f = &cls_fields[0]; f < &cls_fields[CLS_N_FIELDS]; f++) {
529         int f_idx = f - cls_fields;
530         int value_idx = (value_pat & (1u << f_idx)) != 0;
531         memcpy((char *) &match.flow + f->ofs,
532                values[f_idx][value_idx], f->len);
533
534         if (f_idx == CLS_F_IDX_NW_SRC) {
535             match.wc.masks.nw_src = OVS_BE32_MAX;
536         } else if (f_idx == CLS_F_IDX_NW_DST) {
537             match.wc.masks.nw_dst = OVS_BE32_MAX;
538         } else if (f_idx == CLS_F_IDX_TP_SRC) {
539             match.wc.masks.tp_src = OVS_BE16_MAX;
540         } else if (f_idx == CLS_F_IDX_TP_DST) {
541             match.wc.masks.tp_dst = OVS_BE16_MAX;
542         } else if (f_idx == CLS_F_IDX_DL_SRC) {
543             memset(match.wc.masks.dl_src, 0xff, ETH_ADDR_LEN);
544         } else if (f_idx == CLS_F_IDX_DL_DST) {
545             memset(match.wc.masks.dl_dst, 0xff, ETH_ADDR_LEN);
546         } else if (f_idx == CLS_F_IDX_VLAN_TCI) {
547             match.wc.masks.vlan_tci = OVS_BE16_MAX;
548         } else if (f_idx == CLS_F_IDX_TUN_ID) {
549             match.wc.masks.tunnel.tun_id = OVS_BE64_MAX;
550         } else if (f_idx == CLS_F_IDX_METADATA) {
551             match.wc.masks.metadata = OVS_BE64_MAX;
552         } else if (f_idx == CLS_F_IDX_NW_DSCP) {
553             match.wc.masks.nw_tos |= IP_DSCP_MASK;
554         } else if (f_idx == CLS_F_IDX_NW_PROTO) {
555             match.wc.masks.nw_proto = UINT8_MAX;
556         } else if (f_idx == CLS_F_IDX_DL_TYPE) {
557             match.wc.masks.dl_type = OVS_BE16_MAX;
558         } else if (f_idx == CLS_F_IDX_IN_PORT) {
559             match.wc.masks.in_port.ofp_port = u16_to_ofp(UINT16_MAX);
560         } else {
561             NOT_REACHED();
562         }
563     }
564
565     rule = xzalloc(sizeof *rule);
566     cls_rule_init(&rule->cls_rule, &match, wc_fields ? priority : UINT_MAX);
567     return rule;
568 }
569
570 static struct test_rule *
571 clone_rule(const struct test_rule *src)
572 {
573     struct test_rule *dst;
574
575     dst = xmalloc(sizeof *dst);
576     dst->aux = src->aux;
577     cls_rule_clone(&dst->cls_rule, &src->cls_rule);
578     return dst;
579 }
580
581 static void
582 free_rule(struct test_rule *rule)
583 {
584     cls_rule_destroy(&rule->cls_rule);
585     free(rule);
586 }
587
588 static void
589 shuffle(unsigned int *p, size_t n)
590 {
591     for (; n > 1; n--, p++) {
592         unsigned int *q = &p[random_range(n)];
593         unsigned int tmp = *p;
594         *p = *q;
595         *q = tmp;
596     }
597 }
598
599 static void
600 shuffle_u32s(uint32_t *p, size_t n)
601 {
602     for (; n > 1; n--, p++) {
603         uint32_t *q = &p[random_range(n)];
604         uint32_t tmp = *p;
605         *p = *q;
606         *q = tmp;
607     }
608 }
609 \f
610 /* Classifier tests. */
611
612 /* Tests an empty classifier. */
613 static void
614 test_empty(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
615 {
616     struct classifier cls;
617     struct tcls tcls;
618
619     classifier_init(&cls, flow_segment_u32s);
620     ovs_rwlock_rdlock(&cls.rwlock);
621     tcls_init(&tcls);
622     assert(classifier_is_empty(&cls));
623     assert(tcls_is_empty(&tcls));
624     compare_classifiers(&cls, &tcls);
625     ovs_rwlock_unlock(&cls.rwlock);
626     classifier_destroy(&cls);
627     tcls_destroy(&tcls);
628 }
629
630 /* Destroys a null classifier. */
631 static void
632 test_destroy_null(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
633 {
634     classifier_destroy(NULL);
635 }
636
637 /* Tests classification with one rule at a time. */
638 static void
639 test_single_rule(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
640 {
641     unsigned int wc_fields;     /* Hilarious. */
642
643     for (wc_fields = 0; wc_fields < (1u << CLS_N_FIELDS); wc_fields++) {
644         struct classifier cls;
645         struct test_rule *rule, *tcls_rule;
646         struct tcls tcls;
647
648         rule = make_rule(wc_fields,
649                          hash_bytes(&wc_fields, sizeof wc_fields, 0), 0);
650
651         classifier_init(&cls, flow_segment_u32s);
652         ovs_rwlock_wrlock(&cls.rwlock);
653         tcls_init(&tcls);
654
655         tcls_rule = tcls_insert(&tcls, rule);
656         classifier_insert(&cls, &rule->cls_rule);
657         check_tables(&cls, 1, 1, 0);
658         compare_classifiers(&cls, &tcls);
659
660         classifier_remove(&cls, &rule->cls_rule);
661         tcls_remove(&tcls, tcls_rule);
662         assert(classifier_is_empty(&cls));
663         assert(tcls_is_empty(&tcls));
664         compare_classifiers(&cls, &tcls);
665
666         free_rule(rule);
667         ovs_rwlock_unlock(&cls.rwlock);
668         classifier_destroy(&cls);
669         tcls_destroy(&tcls);
670     }
671 }
672
673 /* Tests replacing one rule by another. */
674 static void
675 test_rule_replacement(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
676 {
677     unsigned int wc_fields;
678
679     for (wc_fields = 0; wc_fields < (1u << CLS_N_FIELDS); wc_fields++) {
680         struct classifier cls;
681         struct test_rule *rule1;
682         struct test_rule *rule2;
683         struct tcls tcls;
684
685         rule1 = make_rule(wc_fields, OFP_DEFAULT_PRIORITY, UINT_MAX);
686         rule2 = make_rule(wc_fields, OFP_DEFAULT_PRIORITY, UINT_MAX);
687         rule2->aux += 5;
688         rule2->aux += 5;
689
690         classifier_init(&cls, flow_segment_u32s);
691         ovs_rwlock_wrlock(&cls.rwlock);
692         tcls_init(&tcls);
693         tcls_insert(&tcls, rule1);
694         classifier_insert(&cls, &rule1->cls_rule);
695         check_tables(&cls, 1, 1, 0);
696         compare_classifiers(&cls, &tcls);
697         tcls_destroy(&tcls);
698
699         tcls_init(&tcls);
700         tcls_insert(&tcls, rule2);
701         assert(test_rule_from_cls_rule(
702                    classifier_replace(&cls, &rule2->cls_rule)) == rule1);
703         free_rule(rule1);
704         check_tables(&cls, 1, 1, 0);
705         compare_classifiers(&cls, &tcls);
706         tcls_destroy(&tcls);
707         ovs_rwlock_unlock(&cls.rwlock);
708         destroy_classifier(&cls);
709     }
710 }
711
712 static int
713 factorial(int n_items)
714 {
715     int n, i;
716
717     n = 1;
718     for (i = 2; i <= n_items; i++) {
719         n *= i;
720     }
721     return n;
722 }
723
724 static void
725 swap(int *a, int *b)
726 {
727     int tmp = *a;
728     *a = *b;
729     *b = tmp;
730 }
731
732 static void
733 reverse(int *a, int n)
734 {
735     int i;
736
737     for (i = 0; i < n / 2; i++) {
738         int j = n - (i + 1);
739         swap(&a[i], &a[j]);
740     }
741 }
742
743 static bool
744 next_permutation(int *a, int n)
745 {
746     int k;
747
748     for (k = n - 2; k >= 0; k--) {
749         if (a[k] < a[k + 1]) {
750             int l;
751
752             for (l = n - 1; ; l--) {
753                 if (a[l] > a[k]) {
754                     swap(&a[k], &a[l]);
755                     reverse(a + (k + 1), n - (k + 1));
756                     return true;
757                 }
758             }
759         }
760     }
761     return false;
762 }
763
764 /* Tests classification with rules that have the same matching criteria. */
765 static void
766 test_many_rules_in_one_list (int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
767 {
768     enum { N_RULES = 3 };
769     int n_pris;
770
771     for (n_pris = N_RULES; n_pris >= 1; n_pris--) {
772         int ops[N_RULES * 2];
773         int pris[N_RULES];
774         int n_permutations;
775         int i;
776
777         pris[0] = 0;
778         for (i = 1; i < N_RULES; i++) {
779             pris[i] = pris[i - 1] + (n_pris > i);
780         }
781
782         for (i = 0; i < N_RULES * 2; i++) {
783             ops[i] = i / 2;
784         }
785
786         n_permutations = 0;
787         do {
788             struct test_rule *rules[N_RULES];
789             struct test_rule *tcls_rules[N_RULES];
790             int pri_rules[N_RULES];
791             struct classifier cls;
792             struct tcls tcls;
793
794             n_permutations++;
795
796             for (i = 0; i < N_RULES; i++) {
797                 rules[i] = make_rule(456, pris[i], 0);
798                 tcls_rules[i] = NULL;
799                 pri_rules[i] = -1;
800             }
801
802             classifier_init(&cls, flow_segment_u32s);
803             ovs_rwlock_wrlock(&cls.rwlock);
804             tcls_init(&tcls);
805
806             for (i = 0; i < ARRAY_SIZE(ops); i++) {
807                 int j = ops[i];
808                 int m, n;
809
810                 if (!tcls_rules[j]) {
811                     struct test_rule *displaced_rule;
812
813                     tcls_rules[j] = tcls_insert(&tcls, rules[j]);
814                     displaced_rule = test_rule_from_cls_rule(
815                         classifier_replace(&cls, &rules[j]->cls_rule));
816                     if (pri_rules[pris[j]] >= 0) {
817                         int k = pri_rules[pris[j]];
818                         assert(displaced_rule != NULL);
819                         assert(displaced_rule != rules[j]);
820                         assert(pris[j] == displaced_rule->cls_rule.priority);
821                         tcls_rules[k] = NULL;
822                     } else {
823                         assert(displaced_rule == NULL);
824                     }
825                     pri_rules[pris[j]] = j;
826                 } else {
827                     classifier_remove(&cls, &rules[j]->cls_rule);
828                     tcls_remove(&tcls, tcls_rules[j]);
829                     tcls_rules[j] = NULL;
830                     pri_rules[pris[j]] = -1;
831                 }
832
833                 n = 0;
834                 for (m = 0; m < N_RULES; m++) {
835                     n += tcls_rules[m] != NULL;
836                 }
837                 check_tables(&cls, n > 0, n, n - 1);
838
839                 compare_classifiers(&cls, &tcls);
840             }
841
842             ovs_rwlock_unlock(&cls.rwlock);
843             classifier_destroy(&cls);
844             tcls_destroy(&tcls);
845
846             for (i = 0; i < N_RULES; i++) {
847                 free_rule(rules[i]);
848             }
849         } while (next_permutation(ops, ARRAY_SIZE(ops)));
850         assert(n_permutations == (factorial(N_RULES * 2) >> N_RULES));
851     }
852 }
853
854 static int
855 count_ones(unsigned long int x)
856 {
857     int n = 0;
858
859     while (x) {
860         x = zero_rightmost_1bit(x);
861         n++;
862     }
863
864     return n;
865 }
866
867 static bool
868 array_contains(int *array, int n, int value)
869 {
870     int i;
871
872     for (i = 0; i < n; i++) {
873         if (array[i] == value) {
874             return true;
875         }
876     }
877
878     return false;
879 }
880
881 /* Tests classification with two rules at a time that fall into the same
882  * table but different lists. */
883 static void
884 test_many_rules_in_one_table(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
885 {
886     int iteration;
887
888     for (iteration = 0; iteration < 50; iteration++) {
889         enum { N_RULES = 20 };
890         struct test_rule *rules[N_RULES];
891         struct test_rule *tcls_rules[N_RULES];
892         struct classifier cls;
893         struct tcls tcls;
894         int value_pats[N_RULES];
895         int value_mask;
896         int wcf;
897         int i;
898
899         do {
900             wcf = random_uint32() & ((1u << CLS_N_FIELDS) - 1);
901             value_mask = ~wcf & ((1u << CLS_N_FIELDS) - 1);
902         } while ((1 << count_ones(value_mask)) < N_RULES);
903
904         classifier_init(&cls, flow_segment_u32s);
905         ovs_rwlock_wrlock(&cls.rwlock);
906         tcls_init(&tcls);
907
908         for (i = 0; i < N_RULES; i++) {
909             unsigned int priority = random_uint32();
910
911             do {
912                 value_pats[i] = random_uint32() & value_mask;
913             } while (array_contains(value_pats, i, value_pats[i]));
914
915             rules[i] = make_rule(wcf, priority, value_pats[i]);
916             tcls_rules[i] = tcls_insert(&tcls, rules[i]);
917             classifier_insert(&cls, &rules[i]->cls_rule);
918
919             check_tables(&cls, 1, i + 1, 0);
920             compare_classifiers(&cls, &tcls);
921         }
922
923         for (i = 0; i < N_RULES; i++) {
924             tcls_remove(&tcls, tcls_rules[i]);
925             classifier_remove(&cls, &rules[i]->cls_rule);
926             free_rule(rules[i]);
927
928             check_tables(&cls, i < N_RULES - 1, N_RULES - (i + 1), 0);
929             compare_classifiers(&cls, &tcls);
930         }
931
932         ovs_rwlock_unlock(&cls.rwlock);
933         classifier_destroy(&cls);
934         tcls_destroy(&tcls);
935     }
936 }
937
938 /* Tests classification with many rules at a time that fall into random lists
939  * in 'n' tables. */
940 static void
941 test_many_rules_in_n_tables(int n_tables)
942 {
943     enum { MAX_RULES = 50 };
944     int wcfs[10];
945     int iteration;
946     int i;
947
948     assert(n_tables < 10);
949     for (i = 0; i < n_tables; i++) {
950         do {
951             wcfs[i] = random_uint32() & ((1u << CLS_N_FIELDS) - 1);
952         } while (array_contains(wcfs, i, wcfs[i]));
953     }
954
955     for (iteration = 0; iteration < 30; iteration++) {
956         unsigned int priorities[MAX_RULES];
957         struct classifier cls;
958         struct tcls tcls;
959
960         random_set_seed(iteration + 1);
961         for (i = 0; i < MAX_RULES; i++) {
962             priorities[i] = i * 129;
963         }
964         shuffle(priorities, ARRAY_SIZE(priorities));
965
966         classifier_init(&cls, flow_segment_u32s);
967         ovs_rwlock_wrlock(&cls.rwlock);
968         tcls_init(&tcls);
969
970         for (i = 0; i < MAX_RULES; i++) {
971             struct test_rule *rule;
972             unsigned int priority = priorities[i];
973             int wcf = wcfs[random_range(n_tables)];
974             int value_pat = random_uint32() & ((1u << CLS_N_FIELDS) - 1);
975             rule = make_rule(wcf, priority, value_pat);
976             tcls_insert(&tcls, rule);
977             classifier_insert(&cls, &rule->cls_rule);
978             check_tables(&cls, -1, i + 1, -1);
979             compare_classifiers(&cls, &tcls);
980         }
981
982         while (!classifier_is_empty(&cls)) {
983             struct test_rule *rule, *next_rule;
984             struct test_rule *target;
985             struct cls_cursor cursor;
986
987             target = clone_rule(tcls.rules[random_range(tcls.n_rules)]);
988
989             cls_cursor_init(&cursor, &cls, &target->cls_rule);
990             CLS_CURSOR_FOR_EACH_SAFE (rule, next_rule, cls_rule, &cursor) {
991                 classifier_remove(&cls, &rule->cls_rule);
992                 free_rule(rule);
993             }
994             tcls_delete_matches(&tcls, &target->cls_rule);
995             compare_classifiers(&cls, &tcls);
996             check_tables(&cls, -1, -1, -1);
997             free_rule(target);
998         }
999
1000         ovs_rwlock_unlock(&cls.rwlock);
1001         destroy_classifier(&cls);
1002         tcls_destroy(&tcls);
1003     }
1004 }
1005
1006 static void
1007 test_many_rules_in_two_tables(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
1008 {
1009     test_many_rules_in_n_tables(2);
1010 }
1011
1012 static void
1013 test_many_rules_in_five_tables(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
1014 {
1015     test_many_rules_in_n_tables(5);
1016 }
1017 \f
1018 /* Miniflow tests. */
1019
1020 static uint32_t
1021 random_value(void)
1022 {
1023     static const uint32_t values[] =
1024         { 0xffffffff, 0xaaaaaaaa, 0x55555555, 0x80000000,
1025           0x00000001, 0xface0000, 0x00d00d1e, 0xdeadbeef };
1026
1027     return values[random_range(ARRAY_SIZE(values))];
1028 }
1029
1030 static bool
1031 choose(unsigned int n, unsigned int *idxp)
1032 {
1033     if (*idxp < n) {
1034         return true;
1035     } else {
1036         *idxp -= n;
1037         return false;
1038     }
1039 }
1040
1041 static bool
1042 init_consecutive_values(int n_consecutive, struct flow *flow,
1043                         unsigned int *idxp)
1044 {
1045     uint32_t *flow_u32 = (uint32_t *) flow;
1046
1047     if (choose(FLOW_U32S - n_consecutive + 1, idxp)) {
1048         int i;
1049
1050         for (i = 0; i < n_consecutive; i++) {
1051             flow_u32[*idxp + i] = random_value();
1052         }
1053         return true;
1054     } else {
1055         return false;
1056     }
1057 }
1058
1059 static bool
1060 next_random_flow(struct flow *flow, unsigned int idx)
1061 {
1062     uint32_t *flow_u32 = (uint32_t *) flow;
1063     int i;
1064
1065     memset(flow, 0, sizeof *flow);
1066
1067     /* Empty flow. */
1068     if (choose(1, &idx)) {
1069         return true;
1070     }
1071
1072     /* All flows with a small number of consecutive nonzero values. */
1073     for (i = 1; i <= 4; i++) {
1074         if (init_consecutive_values(i, flow, &idx)) {
1075             return true;
1076         }
1077     }
1078
1079     /* All flows with a large number of consecutive nonzero values. */
1080     for (i = FLOW_U32S - 4; i <= FLOW_U32S; i++) {
1081         if (init_consecutive_values(i, flow, &idx)) {
1082             return true;
1083         }
1084     }
1085
1086     /* All flows with exactly two nonconsecutive nonzero values. */
1087     if (choose((FLOW_U32S - 1) * (FLOW_U32S - 2) / 2, &idx)) {
1088         int ofs1;
1089
1090         for (ofs1 = 0; ofs1 < FLOW_U32S - 2; ofs1++) {
1091             int ofs2;
1092
1093             for (ofs2 = ofs1 + 2; ofs2 < FLOW_U32S; ofs2++) {
1094                 if (choose(1, &idx)) {
1095                     flow_u32[ofs1] = random_value();
1096                     flow_u32[ofs2] = random_value();
1097                     return true;
1098                 }
1099             }
1100         }
1101         NOT_REACHED();
1102     }
1103
1104     /* 16 randomly chosen flows with N >= 3 nonzero values. */
1105     if (choose(16 * (FLOW_U32S - 4), &idx)) {
1106         int n = idx / 16 + 3;
1107         int i;
1108
1109         for (i = 0; i < n; i++) {
1110             flow_u32[i] = random_value();
1111         }
1112         shuffle_u32s(flow_u32, FLOW_U32S);
1113
1114         return true;
1115     }
1116
1117     return false;
1118 }
1119
1120 static void
1121 any_random_flow(struct flow *flow)
1122 {
1123     static unsigned int max;
1124     if (!max) {
1125         while (next_random_flow(flow, max)) {
1126             max++;
1127         }
1128     }
1129
1130     next_random_flow(flow, random_range(max));
1131 }
1132
1133 static void
1134 toggle_masked_flow_bits(struct flow *flow, const struct flow_wildcards *mask)
1135 {
1136     const uint32_t *mask_u32 = (const uint32_t *) &mask->masks;
1137     uint32_t *flow_u32 = (uint32_t *) flow;
1138     int i;
1139
1140     for (i = 0; i < FLOW_U32S; i++) {
1141         if (mask_u32[i] != 0) {
1142             uint32_t bit;
1143
1144             do {
1145                 bit = 1u << random_range(32);
1146             } while (!(bit & mask_u32[i]));
1147             flow_u32[i] ^= bit;
1148         }
1149     }
1150 }
1151
1152 static void
1153 wildcard_extra_bits(struct flow_wildcards *mask)
1154 {
1155     uint32_t *mask_u32 = (uint32_t *) &mask->masks;
1156     int i;
1157
1158     for (i = 0; i < FLOW_U32S; i++) {
1159         if (mask_u32[i] != 0) {
1160             uint32_t bit;
1161
1162             do {
1163                 bit = 1u << random_range(32);
1164             } while (!(bit & mask_u32[i]));
1165             mask_u32[i] &= ~bit;
1166         }
1167     }
1168 }
1169
1170 static void
1171 test_miniflow(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
1172 {
1173     struct flow flow;
1174     unsigned int idx;
1175
1176     random_set_seed(0xb3faca38);
1177     for (idx = 0; next_random_flow(&flow, idx); idx++) {
1178         const uint32_t *flow_u32 = (const uint32_t *) &flow;
1179         struct miniflow miniflow, miniflow2, miniflow3;
1180         struct flow flow2, flow3;
1181         struct flow_wildcards mask;
1182         struct minimask minimask;
1183         int i;
1184
1185         /* Convert flow to miniflow. */
1186         miniflow_init(&miniflow, &flow);
1187
1188         /* Check that the flow equals its miniflow. */
1189         assert(miniflow_get_vid(&miniflow) == vlan_tci_to_vid(flow.vlan_tci));
1190         for (i = 0; i < FLOW_U32S; i++) {
1191             assert(miniflow_get(&miniflow, i) == flow_u32[i]);
1192         }
1193
1194         /* Check that the miniflow equals itself. */
1195         assert(miniflow_equal(&miniflow, &miniflow));
1196
1197         /* Convert miniflow back to flow and verify that it's the same. */
1198         miniflow_expand(&miniflow, &flow2);
1199         assert(flow_equal(&flow, &flow2));
1200
1201         /* Check that copying a miniflow works properly. */
1202         miniflow_clone(&miniflow2, &miniflow);
1203         assert(miniflow_equal(&miniflow, &miniflow2));
1204         assert(miniflow_hash(&miniflow, 0) == miniflow_hash(&miniflow2, 0));
1205         miniflow_expand(&miniflow2, &flow3);
1206         assert(flow_equal(&flow, &flow3));
1207
1208         /* Check that masked matches work as expected for identical flows and
1209          * miniflows. */
1210         do {
1211             next_random_flow(&mask.masks, 1);
1212         } while (flow_wildcards_is_catchall(&mask));
1213         minimask_init(&minimask, &mask);
1214         assert(minimask_is_catchall(&minimask)
1215                == flow_wildcards_is_catchall(&mask));
1216         assert(miniflow_equal_in_minimask(&miniflow, &miniflow2, &minimask));
1217         assert(miniflow_equal_flow_in_minimask(&miniflow, &flow2, &minimask));
1218         assert(miniflow_hash_in_minimask(&miniflow, &minimask, 0x12345678) ==
1219                flow_hash_in_minimask(&flow, &minimask, 0x12345678));
1220
1221         /* Check that masked matches work as expected for differing flows and
1222          * miniflows. */
1223         toggle_masked_flow_bits(&flow2, &mask);
1224         assert(!miniflow_equal_flow_in_minimask(&miniflow, &flow2, &minimask));
1225         miniflow_init(&miniflow3, &flow2);
1226         assert(!miniflow_equal_in_minimask(&miniflow, &miniflow3, &minimask));
1227
1228         /* Clean up. */
1229         miniflow_destroy(&miniflow);
1230         miniflow_destroy(&miniflow2);
1231         miniflow_destroy(&miniflow3);
1232         minimask_destroy(&minimask);
1233     }
1234 }
1235
1236 static void
1237 test_minimask_has_extra(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
1238 {
1239     struct flow_wildcards catchall;
1240     struct minimask minicatchall;
1241     struct flow flow;
1242     unsigned int idx;
1243
1244     flow_wildcards_init_catchall(&catchall);
1245     minimask_init(&minicatchall, &catchall);
1246     assert(minimask_is_catchall(&minicatchall));
1247
1248     random_set_seed(0x2ec7905b);
1249     for (idx = 0; next_random_flow(&flow, idx); idx++) {
1250         struct flow_wildcards mask;
1251         struct minimask minimask;
1252
1253         mask.masks = flow;
1254         minimask_init(&minimask, &mask);
1255         assert(!minimask_has_extra(&minimask, &minimask));
1256         assert(minimask_has_extra(&minicatchall, &minimask)
1257                == !minimask_is_catchall(&minimask));
1258         if (!minimask_is_catchall(&minimask)) {
1259             struct minimask minimask2;
1260
1261             wildcard_extra_bits(&mask);
1262             minimask_init(&minimask2, &mask);
1263             assert(minimask_has_extra(&minimask2, &minimask));
1264             assert(!minimask_has_extra(&minimask, &minimask2));
1265             minimask_destroy(&minimask2);
1266         }
1267
1268         minimask_destroy(&minimask);
1269     }
1270
1271     minimask_destroy(&minicatchall);
1272 }
1273
1274 static void
1275 test_minimask_combine(int argc OVS_UNUSED, char *argv[] OVS_UNUSED)
1276 {
1277     struct flow_wildcards catchall;
1278     struct minimask minicatchall;
1279     struct flow flow;
1280     unsigned int idx;
1281
1282     flow_wildcards_init_catchall(&catchall);
1283     minimask_init(&minicatchall, &catchall);
1284     assert(minimask_is_catchall(&minicatchall));
1285
1286     random_set_seed(0x181bf0cd);
1287     for (idx = 0; next_random_flow(&flow, idx); idx++) {
1288         struct minimask minimask, minimask2, minicombined;
1289         struct flow_wildcards mask, mask2, combined, combined2;
1290         uint32_t storage[FLOW_U32S];
1291         struct flow flow2;
1292
1293         mask.masks = flow;
1294         minimask_init(&minimask, &mask);
1295
1296         minimask_combine(&minicombined, &minimask, &minicatchall, storage);
1297         assert(minimask_is_catchall(&minicombined));
1298
1299         any_random_flow(&flow2);
1300         mask2.masks = flow2;
1301         minimask_init(&minimask2, &mask2);
1302
1303         minimask_combine(&minicombined, &minimask, &minimask2, storage);
1304         flow_wildcards_and(&combined, &mask, &mask2);
1305         minimask_expand(&minicombined, &combined2);
1306         assert(flow_wildcards_equal(&combined, &combined2));
1307
1308         minimask_destroy(&minimask);
1309         minimask_destroy(&minimask2);
1310     }
1311
1312     minimask_destroy(&minicatchall);
1313 }
1314 \f
1315 static const struct command commands[] = {
1316     /* Classifier tests. */
1317     {"empty", 0, 0, test_empty},
1318     {"destroy-null", 0, 0, test_destroy_null},
1319     {"single-rule", 0, 0, test_single_rule},
1320     {"rule-replacement", 0, 0, test_rule_replacement},
1321     {"many-rules-in-one-list", 0, 0, test_many_rules_in_one_list},
1322     {"many-rules-in-one-table", 0, 0, test_many_rules_in_one_table},
1323     {"many-rules-in-two-tables", 0, 0, test_many_rules_in_two_tables},
1324     {"many-rules-in-five-tables", 0, 0, test_many_rules_in_five_tables},
1325
1326     /* Miniflow and minimask tests. */
1327     {"miniflow", 0, 0, test_miniflow},
1328         {"minimask_has_extra", 0, 0, test_minimask_has_extra},
1329         {"minimask_combine", 0, 0, test_minimask_combine},
1330
1331     {NULL, 0, 0, NULL},
1332 };
1333
1334 int
1335 main(int argc, char *argv[])
1336 {
1337     set_program_name(argv[0]);
1338     init_values();
1339     run_command(argc - 1, argv + 1, commands);
1340     return 0;
1341 }