Abstract everything that uses ofp_phy_port, add OF1.1 support.
[sliver-openvswitch.git] / lib / learning-switch.c
1 /*
2  * Copyright (c) 2008, 2009, 2010, 2011, 2012 Nicira Networks.
3  *
4  * Licensed under the Apache License, Version 2.0 (the "License");
5  * you may not use this file except in compliance with the License.
6  * You may obtain a copy of the License at:
7  *
8  *     http://www.apache.org/licenses/LICENSE-2.0
9  *
10  * Unless required by applicable law or agreed to in writing, software
11  * distributed under the License is distributed on an "AS IS" BASIS,
12  * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13  * See the License for the specific language governing permissions and
14  * limitations under the License.
15  */
16
17 #include <config.h>
18 #include "learning-switch.h"
19
20 #include <errno.h>
21 #include <inttypes.h>
22 #include <netinet/in.h>
23 #include <stdlib.h>
24 #include <time.h>
25
26 #include "byte-order.h"
27 #include "classifier.h"
28 #include "flow.h"
29 #include "hmap.h"
30 #include "mac-learning.h"
31 #include "ofpbuf.h"
32 #include "ofp-errors.h"
33 #include "ofp-parse.h"
34 #include "ofp-print.h"
35 #include "ofp-util.h"
36 #include "openflow/openflow.h"
37 #include "poll-loop.h"
38 #include "rconn.h"
39 #include "shash.h"
40 #include "timeval.h"
41 #include "vconn.h"
42 #include "vlog.h"
43
44 VLOG_DEFINE_THIS_MODULE(learning_switch);
45
46 struct lswitch_port {
47     struct hmap_node hmap_node; /* Hash node for port number. */
48     uint16_t port_no;           /* OpenFlow port number, in host byte order. */
49     uint32_t queue_id;          /* OpenFlow queue number. */
50 };
51
52 struct lswitch {
53     /* If nonnegative, the switch sets up flows that expire after the given
54      * number of seconds (or never expire, if the value is OFP_FLOW_PERMANENT).
55      * Otherwise, the switch processes every packet. */
56     int max_idle;
57
58     unsigned long long int datapath_id;
59     time_t last_features_request;
60     struct mac_learning *ml;    /* NULL to act as hub instead of switch. */
61     struct flow_wildcards wc;   /* Wildcards to apply to flows. */
62     bool action_normal;         /* Use OFPP_NORMAL? */
63
64     /* Queue distribution. */
65     uint32_t default_queue;     /* Default OpenFlow queue, or UINT32_MAX. */
66     struct hmap queue_numbers;  /* Map from port number to lswitch_port. */
67     struct shash queue_names;   /* Map from port name to lswitch_port. */
68
69     /* Number of outgoing queued packets on the rconn. */
70     struct rconn_packet_counter *queued;
71 };
72
73 /* The log messages here could actually be useful in debugging, so keep the
74  * rate limit relatively high. */
75 static struct vlog_rate_limit rl = VLOG_RATE_LIMIT_INIT(30, 300);
76
77 static void queue_tx(struct lswitch *, struct rconn *, struct ofpbuf *);
78 static void send_features_request(struct lswitch *, struct rconn *);
79
80 static enum ofperr process_switch_features(struct lswitch *,
81                                            struct ofp_switch_features *);
82 static void process_packet_in(struct lswitch *, struct rconn *,
83                               const struct ofp_packet_in *);
84 static void process_echo_request(struct lswitch *, struct rconn *,
85                                  const struct ofp_header *);
86
87 /* Creates and returns a new learning switch whose configuration is given by
88  * 'cfg'.
89  *
90  * 'rconn' is used to send out an OpenFlow features request. */
91 struct lswitch *
92 lswitch_create(struct rconn *rconn, const struct lswitch_config *cfg)
93 {
94     struct lswitch *sw;
95
96     sw = xzalloc(sizeof *sw);
97     sw->max_idle = cfg->max_idle;
98     sw->datapath_id = 0;
99     sw->last_features_request = time_now() - 1;
100     sw->ml = (cfg->mode == LSW_LEARN
101               ? mac_learning_create(MAC_ENTRY_DEFAULT_IDLE_TIME)
102               : NULL);
103     sw->action_normal = cfg->mode == LSW_NORMAL;
104
105     flow_wildcards_init_exact(&sw->wc);
106     if (cfg->wildcards) {
107         uint32_t ofpfw;
108
109         if (cfg->wildcards == UINT32_MAX) {
110             /* Try to wildcard as many fields as possible, but we cannot
111              * wildcard all fields.  We need in_port to detect moves.  We need
112              * Ethernet source and dest and VLAN VID to do L2 learning. */
113             ofpfw = (OFPFW_DL_TYPE | OFPFW_DL_VLAN_PCP
114                      | OFPFW_NW_SRC_ALL | OFPFW_NW_DST_ALL
115                      | OFPFW_NW_TOS | OFPFW_NW_PROTO
116                      | OFPFW_TP_SRC | OFPFW_TP_DST);
117         } else {
118             ofpfw = cfg->wildcards;
119         }
120
121         ofputil_wildcard_from_openflow(ofpfw, &sw->wc);
122     }
123
124     sw->default_queue = cfg->default_queue;
125     hmap_init(&sw->queue_numbers);
126     shash_init(&sw->queue_names);
127     if (cfg->port_queues) {
128         struct shash_node *node;
129
130         SHASH_FOR_EACH (node, cfg->port_queues) {
131             struct lswitch_port *port = xmalloc(sizeof *port);
132             hmap_node_nullify(&port->hmap_node);
133             port->queue_id = (uintptr_t) node->data;
134             shash_add(&sw->queue_names, node->name, port);
135         }
136     }
137
138     sw->queued = rconn_packet_counter_create();
139     send_features_request(sw, rconn);
140
141     if (cfg->default_flows) {
142         enum ofputil_protocol usable_protocols;
143         enum ofputil_protocol protocol;
144         struct ofpbuf *msg = NULL;
145         int ofp_version;
146         int error = 0;
147         size_t i;
148
149         /* Figure out the initial protocol on the connection. */
150         ofp_version = rconn_get_version(rconn);
151         protocol = ofputil_protocol_from_ofp_version(ofp_version);
152
153         /* If the initial protocol isn't good enough for default_flows, then
154          * pick one that will work and encode messages to set up that
155          * protocol.
156          *
157          * This could be improved by actually negotiating a mutually acceptable
158          * flow format with the switch, but that would require an asynchronous
159          * state machine.  This version ought to work fine in practice. */
160         usable_protocols = ofputil_flow_mod_usable_protocols(
161             cfg->default_flows, cfg->n_default_flows);
162         if (!(protocol & usable_protocols)) {
163             enum ofputil_protocol want = rightmost_1bit(usable_protocols);
164             while (!error) {
165                 msg = ofputil_encode_set_protocol(protocol, want, &protocol);
166                 if (!msg) {
167                     break;
168                 }
169                 error = rconn_send(rconn, msg, NULL);
170             }
171         }
172
173         for (i = 0; !error && i < cfg->n_default_flows; i++) {
174             msg = ofputil_encode_flow_mod(&cfg->default_flows[i], protocol);
175             error = rconn_send(rconn, msg, NULL);
176         }
177
178         if (error) {
179             VLOG_INFO_RL(&rl, "%s: failed to queue default flows (%s)",
180                          rconn_get_name(rconn), strerror(error));
181             ofpbuf_delete(msg);
182         }
183     }
184
185     return sw;
186 }
187
188 /* Destroys 'sw'. */
189 void
190 lswitch_destroy(struct lswitch *sw)
191 {
192     if (sw) {
193         struct lswitch_port *node, *next;
194
195         HMAP_FOR_EACH_SAFE (node, next, hmap_node, &sw->queue_numbers) {
196             hmap_remove(&sw->queue_numbers, &node->hmap_node);
197             free(node);
198         }
199         shash_destroy(&sw->queue_names);
200         mac_learning_destroy(sw->ml);
201         rconn_packet_counter_destroy(sw->queued);
202         free(sw);
203     }
204 }
205
206 /* Takes care of necessary 'sw' activity, except for receiving packets (which
207  * the caller must do). */
208 void
209 lswitch_run(struct lswitch *sw)
210 {
211     if (sw->ml) {
212         mac_learning_run(sw->ml, NULL);
213     }
214 }
215
216 void
217 lswitch_wait(struct lswitch *sw)
218 {
219     if (sw->ml) {
220         mac_learning_wait(sw->ml);
221     }
222 }
223
224 /* Processes 'msg', which should be an OpenFlow received on 'rconn', according
225  * to the learning switch state in 'sw'.  The most likely result of processing
226  * is that flow-setup and packet-out OpenFlow messages will be sent out on
227  * 'rconn'.  */
228 void
229 lswitch_process_packet(struct lswitch *sw, struct rconn *rconn,
230                        const struct ofpbuf *msg)
231 {
232     const struct ofp_header *oh = msg->data;
233     const struct ofputil_msg_type *type;
234
235     if (sw->datapath_id == 0
236         && oh->type != OFPT_ECHO_REQUEST
237         && oh->type != OFPT_FEATURES_REPLY) {
238         send_features_request(sw, rconn);
239         return;
240     }
241
242     ofputil_decode_msg_type(oh, &type);
243     switch (ofputil_msg_type_code(type)) {
244     case OFPUTIL_OFPT_ECHO_REQUEST:
245         process_echo_request(sw, rconn, msg->data);
246         break;
247
248     case OFPUTIL_OFPT_FEATURES_REPLY:
249         process_switch_features(sw, msg->data);
250         break;
251
252     case OFPUTIL_OFPT_PACKET_IN:
253         process_packet_in(sw, rconn, msg->data);
254         break;
255
256     case OFPUTIL_OFPT_FLOW_REMOVED:
257         /* Nothing to do. */
258         break;
259
260     case OFPUTIL_MSG_INVALID:
261     case OFPUTIL_OFPT_HELLO:
262     case OFPUTIL_OFPT_ERROR:
263     case OFPUTIL_OFPT_ECHO_REPLY:
264     case OFPUTIL_OFPT_FEATURES_REQUEST:
265     case OFPUTIL_OFPT_GET_CONFIG_REQUEST:
266     case OFPUTIL_OFPT_GET_CONFIG_REPLY:
267     case OFPUTIL_OFPT_SET_CONFIG:
268     case OFPUTIL_OFPT_PORT_STATUS:
269     case OFPUTIL_OFPT_PACKET_OUT:
270     case OFPUTIL_OFPT_FLOW_MOD:
271     case OFPUTIL_OFPT_PORT_MOD:
272     case OFPUTIL_OFPT_BARRIER_REQUEST:
273     case OFPUTIL_OFPT_BARRIER_REPLY:
274     case OFPUTIL_OFPT_QUEUE_GET_CONFIG_REQUEST:
275     case OFPUTIL_OFPT_QUEUE_GET_CONFIG_REPLY:
276     case OFPUTIL_OFPST_DESC_REQUEST:
277     case OFPUTIL_OFPST_FLOW_REQUEST:
278     case OFPUTIL_OFPST_AGGREGATE_REQUEST:
279     case OFPUTIL_OFPST_TABLE_REQUEST:
280     case OFPUTIL_OFPST_PORT_REQUEST:
281     case OFPUTIL_OFPST_QUEUE_REQUEST:
282     case OFPUTIL_OFPST_DESC_REPLY:
283     case OFPUTIL_OFPST_FLOW_REPLY:
284     case OFPUTIL_OFPST_QUEUE_REPLY:
285     case OFPUTIL_OFPST_PORT_REPLY:
286     case OFPUTIL_OFPST_TABLE_REPLY:
287     case OFPUTIL_OFPST_AGGREGATE_REPLY:
288     case OFPUTIL_NXT_ROLE_REQUEST:
289     case OFPUTIL_NXT_ROLE_REPLY:
290     case OFPUTIL_NXT_FLOW_MOD_TABLE_ID:
291     case OFPUTIL_NXT_SET_FLOW_FORMAT:
292     case OFPUTIL_NXT_SET_PACKET_IN_FORMAT:
293     case OFPUTIL_NXT_PACKET_IN:
294     case OFPUTIL_NXT_FLOW_MOD:
295     case OFPUTIL_NXT_FLOW_REMOVED:
296     case OFPUTIL_NXT_FLOW_AGE:
297     case OFPUTIL_NXT_SET_ASYNC_CONFIG:
298     case OFPUTIL_NXT_SET_CONTROLLER_ID:
299     case OFPUTIL_NXST_FLOW_REQUEST:
300     case OFPUTIL_NXST_AGGREGATE_REQUEST:
301     case OFPUTIL_NXST_FLOW_REPLY:
302     case OFPUTIL_NXST_AGGREGATE_REPLY:
303     default:
304         if (VLOG_IS_DBG_ENABLED()) {
305             char *s = ofp_to_string(msg->data, msg->size, 2);
306             VLOG_DBG_RL(&rl, "%016llx: OpenFlow packet ignored: %s",
307                         sw->datapath_id, s);
308             free(s);
309         }
310     }
311 }
312 \f
313 static void
314 send_features_request(struct lswitch *sw, struct rconn *rconn)
315 {
316     time_t now = time_now();
317     if (now >= sw->last_features_request + 1) {
318         struct ofpbuf *b;
319         struct ofp_switch_config *osc;
320
321         /* Send OFPT_FEATURES_REQUEST. */
322         make_openflow(sizeof(struct ofp_header), OFPT_FEATURES_REQUEST, &b);
323         queue_tx(sw, rconn, b);
324
325         /* Send OFPT_SET_CONFIG. */
326         osc = make_openflow(sizeof *osc, OFPT_SET_CONFIG, &b);
327         osc->miss_send_len = htons(OFP_DEFAULT_MISS_SEND_LEN);
328         queue_tx(sw, rconn, b);
329
330         sw->last_features_request = now;
331     }
332 }
333
334 static void
335 queue_tx(struct lswitch *sw, struct rconn *rconn, struct ofpbuf *b)
336 {
337     int retval = rconn_send_with_limit(rconn, b, sw->queued, 10);
338     if (retval && retval != ENOTCONN) {
339         if (retval == EAGAIN) {
340             VLOG_INFO_RL(&rl, "%016llx: %s: tx queue overflow",
341                          sw->datapath_id, rconn_get_name(rconn));
342         } else {
343             VLOG_WARN_RL(&rl, "%016llx: %s: send: %s",
344                          sw->datapath_id, rconn_get_name(rconn),
345                          strerror(retval));
346         }
347     }
348 }
349
350 static enum ofperr
351 process_switch_features(struct lswitch *sw, struct ofp_switch_features *osf)
352 {
353     struct ofputil_switch_features features;
354     struct ofputil_phy_port port;
355     enum ofperr error;
356     struct ofpbuf b;
357
358     error = ofputil_decode_switch_features(osf, &features, &b);
359     if (error) {
360         VLOG_ERR("received invalid switch feature reply (%s)",
361                  ofperr_to_string(error));
362         return error;
363     }
364
365     sw->datapath_id = features.datapath_id;
366
367     while (!ofputil_pull_switch_features_port(&b, &port)) {
368         struct lswitch_port *lp = shash_find_data(&sw->queue_names, port.name);
369         if (lp && hmap_node_is_null(&lp->hmap_node)) {
370             lp->port_no = port.port_no;
371             hmap_insert(&sw->queue_numbers, &lp->hmap_node,
372                         hash_int(lp->port_no, 0));
373         }
374     }
375     return 0;
376 }
377
378 static uint16_t
379 lswitch_choose_destination(struct lswitch *sw, const struct flow *flow)
380 {
381     uint16_t out_port;
382
383     /* Learn the source MAC. */
384     if (mac_learning_may_learn(sw->ml, flow->dl_src, 0)) {
385         struct mac_entry *mac = mac_learning_insert(sw->ml, flow->dl_src, 0);
386         if (mac_entry_is_new(mac) || mac->port.i != flow->in_port) {
387             VLOG_DBG_RL(&rl, "%016llx: learned that "ETH_ADDR_FMT" is on "
388                         "port %"PRIu16, sw->datapath_id,
389                         ETH_ADDR_ARGS(flow->dl_src), flow->in_port);
390
391             mac->port.i = flow->in_port;
392             mac_learning_changed(sw->ml, mac);
393         }
394     }
395
396     /* Drop frames for reserved multicast addresses. */
397     if (eth_addr_is_reserved(flow->dl_dst)) {
398         return OFPP_NONE;
399     }
400
401     out_port = OFPP_FLOOD;
402     if (sw->ml) {
403         struct mac_entry *mac;
404
405         mac = mac_learning_lookup(sw->ml, flow->dl_dst, 0, NULL);
406         if (mac) {
407             out_port = mac->port.i;
408             if (out_port == flow->in_port) {
409                 /* Don't send a packet back out its input port. */
410                 return OFPP_NONE;
411             }
412         }
413     }
414
415     /* Check if we need to use "NORMAL" action. */
416     if (sw->action_normal && out_port != OFPP_FLOOD) {
417         return OFPP_NORMAL;
418     }
419
420     return out_port;
421 }
422
423 static uint32_t
424 get_queue_id(const struct lswitch *sw, uint16_t in_port)
425 {
426     const struct lswitch_port *port;
427
428     HMAP_FOR_EACH_WITH_HASH (port, hmap_node, hash_int(in_port, 0),
429                              &sw->queue_numbers) {
430         if (port->port_no == in_port) {
431             return port->queue_id;
432         }
433     }
434
435     return sw->default_queue;
436 }
437
438 static void
439 process_packet_in(struct lswitch *sw, struct rconn *rconn,
440                   const struct ofp_packet_in *opi)
441 {
442     uint16_t in_port = ntohs(opi->in_port);
443     uint32_t queue_id;
444     uint16_t out_port;
445
446     struct ofp_action_header actions[2];
447     size_t actions_len;
448
449     struct ofputil_packet_out po;
450
451     size_t pkt_ofs, pkt_len;
452     struct ofpbuf pkt;
453     struct flow flow;
454
455     /* Ignore packets sent via output to OFPP_CONTROLLER.  This library never
456      * uses such an action.  You never know what experiments might be going on,
457      * though, and it seems best not to interfere with them. */
458     if (opi->reason != OFPR_NO_MATCH) {
459         return;
460     }
461
462     /* Extract flow data from 'opi' into 'flow'. */
463     pkt_ofs = offsetof(struct ofp_packet_in, data);
464     pkt_len = ntohs(opi->header.length) - pkt_ofs;
465     ofpbuf_use_const(&pkt, opi->data, pkt_len);
466     flow_extract(&pkt, 0, 0, in_port, &flow);
467
468     /* Choose output port. */
469     out_port = lswitch_choose_destination(sw, &flow);
470
471     /* Make actions. */
472     queue_id = get_queue_id(sw, in_port);
473     if (out_port == OFPP_NONE) {
474         actions_len = 0;
475     } else if (queue_id == UINT32_MAX || out_port >= OFPP_MAX) {
476         struct ofp_action_output oao;
477
478         memset(&oao, 0, sizeof oao);
479         oao.type = htons(OFPAT10_OUTPUT);
480         oao.len = htons(sizeof oao);
481         oao.port = htons(out_port);
482
483         memcpy(actions, &oao, sizeof oao);
484         actions_len = sizeof oao;
485     } else {
486         struct ofp_action_enqueue oae;
487
488         memset(&oae, 0, sizeof oae);
489         oae.type = htons(OFPAT10_ENQUEUE);
490         oae.len = htons(sizeof oae);
491         oae.port = htons(out_port);
492         oae.queue_id = htonl(queue_id);
493
494         memcpy(actions, &oae, sizeof oae);
495         actions_len = sizeof oae;
496     }
497     assert(actions_len <= sizeof actions);
498
499     /* Prepare packet_out in case we need one. */
500     po.buffer_id = ntohl(opi->buffer_id);
501     if (po.buffer_id == UINT32_MAX) {
502         po.packet = pkt.data;
503         po.packet_len = pkt.size;
504     } else {
505         po.packet = NULL;
506         po.packet_len = 0;
507     }
508     po.in_port = in_port;
509     po.actions = (union ofp_action *) actions;
510     po.n_actions = actions_len / sizeof *actions;
511
512     /* Send the packet, and possibly the whole flow, to the output port. */
513     if (sw->max_idle >= 0 && (!sw->ml || out_port != OFPP_FLOOD)) {
514         struct ofpbuf *buffer;
515         struct cls_rule rule;
516
517         /* The output port is known, or we always flood everything, so add a
518          * new flow. */
519         cls_rule_init(&flow, &sw->wc, 0, &rule);
520         buffer = make_add_flow(&rule, ntohl(opi->buffer_id),
521                                sw->max_idle, actions_len);
522         ofpbuf_put(buffer, actions, actions_len);
523         queue_tx(sw, rconn, buffer);
524
525         /* If the switch didn't buffer the packet, we need to send a copy. */
526         if (ntohl(opi->buffer_id) == UINT32_MAX && actions_len > 0) {
527             queue_tx(sw, rconn, ofputil_encode_packet_out(&po));
528         }
529     } else {
530         /* We don't know that MAC, or we don't set up flows.  Send along the
531          * packet without setting up a flow. */
532         if (ntohl(opi->buffer_id) != UINT32_MAX || actions_len > 0) {
533             queue_tx(sw, rconn, ofputil_encode_packet_out(&po));
534         }
535     }
536 }
537
538 static void
539 process_echo_request(struct lswitch *sw, struct rconn *rconn,
540                      const struct ofp_header *rq)
541 {
542     queue_tx(sw, rconn, make_echo_reply(rq));
543 }