datapath: Silence RCU lockdep checks from flow lookup.
[sliver-openvswitch.git] / datapath / flow_table.c
index 72554c2..8597651 100644 (file)
@@ -76,15 +76,19 @@ void ovs_flow_mask_key(struct sw_flow_key *dst, const struct sw_flow_key *src,
 struct sw_flow *ovs_flow_alloc(void)
 {
        struct sw_flow *flow;
+       int cpu;
 
        flow = kmem_cache_alloc(flow_cache, GFP_KERNEL);
        if (!flow)
                return ERR_PTR(-ENOMEM);
 
-       spin_lock_init(&flow->lock);
        flow->sf_acts = NULL;
        flow->mask = NULL;
 
+       memset(flow->stats, 0, num_possible_cpus() * sizeof(struct sw_flow_stats));
+       for_each_possible_cpu(cpu)
+               spin_lock_init(&flow->stats[cpu].lock);
+
        return flow;
 }
 
@@ -129,12 +133,36 @@ static void rcu_free_flow_callback(struct rcu_head *rcu)
        flow_free(flow);
 }
 
+static void rcu_free_sw_flow_mask_cb(struct rcu_head *rcu)
+{
+       struct sw_flow_mask *mask = container_of(rcu, struct sw_flow_mask, rcu);
+
+       kfree(mask);
+}
+
+static void flow_mask_del_ref(struct sw_flow_mask *mask, bool deferred)
+{
+       if (!mask)
+               return;
+
+       BUG_ON(!mask->ref_count);
+       mask->ref_count--;
+
+       if (!mask->ref_count) {
+               list_del_rcu(&mask->list);
+               if (deferred)
+                       call_rcu(&mask->rcu, rcu_free_sw_flow_mask_cb);
+               else
+                       kfree(mask);
+       }
+}
+
 void ovs_flow_free(struct sw_flow *flow, bool deferred)
 {
        if (!flow)
                return;
 
-       ovs_sw_flow_mask_del_ref(flow->mask, deferred);
+       flow_mask_del_ref(flow->mask, deferred);
 
        if (deferred)
                call_rcu(&flow->rcu, rcu_free_flow_callback);
@@ -226,11 +254,11 @@ static void table_instance_destroy(struct table_instance *ti, bool deferred)
                __table_instance_destroy(ti);
 }
 
-void ovs_flow_tbl_destroy(struct flow_table *table, bool deferred)
+void ovs_flow_tbl_destroy(struct flow_table *table)
 {
        struct table_instance *ti = ovsl_dereference(table->ti);
 
-       table_instance_destroy(ti, deferred);
+       table_instance_destroy(ti, false);
 }
 
 struct sw_flow *ovs_flow_tbl_dump_next(struct table_instance *ti,
@@ -305,7 +333,7 @@ static struct table_instance *table_instance_rehash(struct table_instance *ti,
 
        new_ti = table_instance_alloc(n_buckets);
        if (!new_ti)
-               return ERR_PTR(-ENOMEM);
+               return NULL;
 
        flow_table_copy_flows(ti, new_ti);
 
@@ -398,7 +426,7 @@ static struct sw_flow *masked_flow_lookup(struct table_instance *ti,
        hash = flow_hash(&masked_key, key_start, key_end);
        head = find_bucket(ti, hash);
        hlist_for_each_entry_rcu(flow, head, hash_node[ti->node_ver]) {
-               if (flow->mask == mask &&
+               if (flow->mask == mask && flow->hash == hash &&
                    flow_cmp_masked_key(flow, &masked_key,
                                          key_start, key_end))
                        return flow;
@@ -406,14 +434,17 @@ static struct sw_flow *masked_flow_lookup(struct table_instance *ti,
        return NULL;
 }
 
-struct sw_flow *ovs_flow_tbl_lookup(struct flow_table *tbl,
-                                   const struct sw_flow_key *key)
+struct sw_flow *ovs_flow_tbl_lookup_stats(struct flow_table *tbl,
+                                   const struct sw_flow_key *key,
+                                   u32 *n_mask_hit)
 {
-       struct table_instance *ti = rcu_dereference(tbl->ti);
+       struct table_instance *ti = rcu_dereference_ovsl(tbl->ti);
        struct sw_flow_mask *mask;
        struct sw_flow *flow;
 
+       *n_mask_hit = 0;
        list_for_each_entry_rcu(mask, &tbl->mask_list, list) {
+               (*n_mask_hit)++;
                flow = masked_flow_lookup(ti, key, mask);
                if (flow)  /* Found */
                        return flow;
@@ -421,35 +452,28 @@ struct sw_flow *ovs_flow_tbl_lookup(struct flow_table *tbl,
        return NULL;
 }
 
-static struct table_instance *table_instance_expand(struct table_instance *ti)
+struct sw_flow *ovs_flow_tbl_lookup(struct flow_table *tbl,
+                                   const struct sw_flow_key *key)
 {
-       return table_instance_rehash(ti, ti->n_buckets * 2);
+       u32 __always_unused n_mask_hit;
+
+       return ovs_flow_tbl_lookup_stats(tbl, key, &n_mask_hit);
 }
 
-void ovs_flow_tbl_insert(struct flow_table *table, struct sw_flow *flow)
+int ovs_flow_tbl_num_masks(const struct flow_table *table)
 {
-       struct table_instance *ti = NULL;
-       struct table_instance *new_ti = NULL;
-
-       ti = ovsl_dereference(table->ti);
+       struct sw_flow_mask *mask;
+       int num = 0;
 
-       /* Expand table, if necessary, to make room. */
-       if (table->count > ti->n_buckets)
-               new_ti = table_instance_expand(ti);
-       else if (time_after(jiffies, table->last_rehash + REHASH_INTERVAL))
-               new_ti = table_instance_rehash(ti, ti->n_buckets);
+       list_for_each_entry(mask, &table->mask_list, list)
+               num++;
 
-       if (new_ti && !IS_ERR(new_ti)) {
-               rcu_assign_pointer(table->ti, new_ti);
-               ovs_flow_tbl_destroy(table, true);
-               ti = ovsl_dereference(table->ti);
-               table->last_rehash = jiffies;
-       }
+       return num;
+}
 
-       flow->hash = flow_hash(&flow->key, flow->mask->range.start,
-                       flow->mask->range.end);
-       table_instance_insert(ti, flow);
-       table->count++;
+static struct table_instance *table_instance_expand(struct table_instance *ti)
+{
+       return table_instance_rehash(ti, ti->n_buckets * 2);
 }
 
 void ovs_flow_tbl_remove(struct flow_table *table, struct sw_flow *flow)
@@ -461,7 +485,7 @@ void ovs_flow_tbl_remove(struct flow_table *table, struct sw_flow *flow)
        table->count--;
 }
 
-struct sw_flow_mask *ovs_sw_flow_mask_alloc(void)
+static struct sw_flow_mask *mask_alloc(void)
 {
        struct sw_flow_mask *mask;
 
@@ -472,35 +496,11 @@ struct sw_flow_mask *ovs_sw_flow_mask_alloc(void)
        return mask;
 }
 
-void ovs_sw_flow_mask_add_ref(struct sw_flow_mask *mask)
+static void mask_add_ref(struct sw_flow_mask *mask)
 {
        mask->ref_count++;
 }
 
-static void rcu_free_sw_flow_mask_cb(struct rcu_head *rcu)
-{
-       struct sw_flow_mask *mask = container_of(rcu, struct sw_flow_mask, rcu);
-
-       kfree(mask);
-}
-
-void ovs_sw_flow_mask_del_ref(struct sw_flow_mask *mask, bool deferred)
-{
-       if (!mask)
-               return;
-
-       BUG_ON(!mask->ref_count);
-       mask->ref_count--;
-
-       if (!mask->ref_count) {
-               list_del_rcu(&mask->list);
-               if (deferred)
-                       call_rcu(&mask->rcu, rcu_free_sw_flow_mask_cb);
-               else
-                       kfree(mask);
-       }
-}
-
 static bool mask_equal(const struct sw_flow_mask *a,
                       const struct sw_flow_mask *b)
 {
@@ -512,7 +512,7 @@ static bool mask_equal(const struct sw_flow_mask *a,
                && (memcmp(a_, b_, range_n_bytes(&a->range)) == 0);
 }
 
-struct sw_flow_mask *ovs_sw_flow_mask_find(const struct flow_table *tbl,
+static struct sw_flow_mask *flow_mask_find(const struct flow_table *tbl,
                                           const struct sw_flow_mask *mask)
 {
        struct list_head *ml;
@@ -527,25 +527,71 @@ struct sw_flow_mask *ovs_sw_flow_mask_find(const struct flow_table *tbl,
        return NULL;
 }
 
-/**
- * add a new mask into the mask list.
- * The caller needs to make sure that 'mask' is not the same
- * as any masks that are already on the list.
- */
-void ovs_sw_flow_mask_insert(struct flow_table *tbl, struct sw_flow_mask *mask)
+/* Add 'mask' into the mask list, if it is not already there. */
+static int flow_mask_insert(struct flow_table *tbl, struct sw_flow *flow,
+                           struct sw_flow_mask *new)
 {
-       list_add_rcu(&mask->list, &tbl->mask_list);
+       struct sw_flow_mask *mask;
+       mask = flow_mask_find(tbl, new);
+       if (!mask) {
+               /* Allocate a new mask if none exsits. */
+               mask = mask_alloc();
+               if (!mask)
+                       return -ENOMEM;
+               mask->key = new->key;
+               mask->range = new->range;
+               list_add_rcu(&mask->list, &tbl->mask_list);
+       }
+
+       mask_add_ref(mask);
+       flow->mask = mask;
+       return 0;
+}
+
+int ovs_flow_tbl_insert(struct flow_table *table, struct sw_flow *flow,
+                       struct sw_flow_mask *mask)
+{
+       struct table_instance *new_ti = NULL;
+       struct table_instance *ti;
+       int err;
+
+       err = flow_mask_insert(table, flow, mask);
+       if (err)
+               return err;
+
+       flow->hash = flow_hash(&flow->key, flow->mask->range.start,
+                       flow->mask->range.end);
+       ti = ovsl_dereference(table->ti);
+       table_instance_insert(ti, flow);
+       table->count++;
+
+       /* Expand table, if necessary, to make room. */
+       if (table->count > ti->n_buckets)
+               new_ti = table_instance_expand(ti);
+       else if (time_after(jiffies, table->last_rehash + REHASH_INTERVAL))
+               new_ti = table_instance_rehash(ti, ti->n_buckets);
+
+       if (new_ti) {
+               rcu_assign_pointer(table->ti, new_ti);
+               table_instance_destroy(ti, true);
+               table->last_rehash = jiffies;
+       }
+       return 0;
 }
 
 /* Initializes the flow module.
  * Returns zero if successful or a negative error code. */
 int ovs_flow_init(void)
 {
+       int flow_size;
+
        BUILD_BUG_ON(__alignof__(struct sw_flow_key) % __alignof__(long));
        BUILD_BUG_ON(sizeof(struct sw_flow_key) % sizeof(long));
 
-       flow_cache = kmem_cache_create("sw_flow", sizeof(struct sw_flow), 0,
-                                       0, NULL);
+       flow_size = sizeof(struct sw_flow) +
+                   (num_possible_cpus() * sizeof(struct sw_flow_stats));
+
+       flow_cache = kmem_cache_create("sw_flow", flow_size, 0, 0, NULL);
        if (flow_cache == NULL)
                return -ENOMEM;