datapath: Eliminate vport_mutex by protecting vport table with RCU.
[sliver-openvswitch.git] / datapath / vport-internal_dev.c
1 /*
2  * Copyright (c) 2009, 2010, 2011 Nicira Networks.
3  * Distributed under the terms of the GNU GPL version 2.
4  *
5  * Significant portions of this file may be copied from parts of the Linux
6  * kernel, by Linus Torvalds and others.
7  */
8
9 #include <linux/kernel.h>
10 #include <linux/netdevice.h>
11 #include <linux/etherdevice.h>
12 #include <linux/ethtool.h>
13 #include <linux/skbuff.h>
14 #include <linux/version.h>
15
16 #include "checksum.h"
17 #include "datapath.h"
18 #include "vport-generic.h"
19 #include "vport-internal_dev.h"
20 #include "vport-netdev.h"
21
22 struct internal_dev {
23         struct vport *vport;
24         struct net_device_stats stats;
25 };
26
27 static inline struct internal_dev *internal_dev_priv(struct net_device *netdev)
28 {
29         return netdev_priv(netdev);
30 }
31
32 /* This function is only called by the kernel network layer.  It is not a vport
33  * get_stats() function.  If a vport get_stats() function is defined that
34  * results in this being called it will cause infinite recursion. */
35 static struct net_device_stats *internal_dev_sys_stats(struct net_device *netdev)
36 {
37         struct vport *vport = internal_dev_get_vport(netdev);
38         struct net_device_stats *stats = &internal_dev_priv(netdev)->stats;
39
40         if (vport) {
41                 struct rtnl_link_stats64 vport_stats;
42
43                 vport_get_stats(vport, &vport_stats);
44
45                 /* The tx and rx stats need to be swapped because the switch
46                  * and host OS have opposite perspectives. */
47                 stats->rx_packets       = vport_stats.tx_packets;
48                 stats->tx_packets       = vport_stats.rx_packets;
49                 stats->rx_bytes         = vport_stats.tx_bytes;
50                 stats->tx_bytes         = vport_stats.rx_bytes;
51                 stats->rx_errors        = vport_stats.tx_errors;
52                 stats->tx_errors        = vport_stats.rx_errors;
53                 stats->rx_dropped       = vport_stats.tx_dropped;
54                 stats->tx_dropped       = vport_stats.rx_dropped;
55                 stats->collisions       = vport_stats.collisions;
56         }
57
58         return stats;
59 }
60
61 static int internal_dev_mac_addr(struct net_device *dev, void *p)
62 {
63         struct sockaddr *addr = p;
64
65         if (!is_valid_ether_addr(addr->sa_data))
66                 return -EADDRNOTAVAIL;
67         memcpy(dev->dev_addr, addr->sa_data, dev->addr_len);
68         return 0;
69 }
70
71 /* Called with rcu_read_lock and bottom-halves disabled. */
72 static int internal_dev_xmit(struct sk_buff *skb, struct net_device *netdev)
73 {
74         compute_ip_summed(skb, true);
75         OVS_CB(skb)->flow = NULL;
76
77         vport_receive(internal_dev_priv(netdev)->vport, skb);
78         return 0;
79 }
80
81 static int internal_dev_open(struct net_device *netdev)
82 {
83         netif_start_queue(netdev);
84         return 0;
85 }
86
87 static int internal_dev_stop(struct net_device *netdev)
88 {
89         netif_stop_queue(netdev);
90         return 0;
91 }
92
93 static void internal_dev_getinfo(struct net_device *netdev,
94                                  struct ethtool_drvinfo *info)
95 {
96         strcpy(info->driver, "openvswitch");
97 }
98
99 static const struct ethtool_ops internal_dev_ethtool_ops = {
100         .get_drvinfo    = internal_dev_getinfo,
101         .get_link       = ethtool_op_get_link,
102         .get_sg         = ethtool_op_get_sg,
103         .set_sg         = ethtool_op_set_sg,
104         .get_tx_csum    = ethtool_op_get_tx_csum,
105         .set_tx_csum    = ethtool_op_set_tx_hw_csum,
106         .get_tso        = ethtool_op_get_tso,
107         .set_tso        = ethtool_op_set_tso,
108 };
109
110 static int internal_dev_change_mtu(struct net_device *netdev, int new_mtu)
111 {
112         struct vport *vport = internal_dev_get_vport(netdev);
113
114         if (new_mtu < 68)
115                 return -EINVAL;
116
117         if (new_mtu > dp_min_mtu(vport->dp))
118                 return -EINVAL;
119
120         netdev->mtu = new_mtu;
121         return 0;
122 }
123
124 static int internal_dev_do_ioctl(struct net_device *dev, struct ifreq *ifr, int cmd)
125 {
126         if (dp_ioctl_hook)
127                 return dp_ioctl_hook(dev, ifr, cmd);
128
129         return -EOPNOTSUPP;
130 }
131
132 #ifdef HAVE_NET_DEVICE_OPS
133 static const struct net_device_ops internal_dev_netdev_ops = {
134         .ndo_open = internal_dev_open,
135         .ndo_stop = internal_dev_stop,
136         .ndo_start_xmit = internal_dev_xmit,
137         .ndo_set_mac_address = internal_dev_mac_addr,
138         .ndo_do_ioctl = internal_dev_do_ioctl,
139         .ndo_change_mtu = internal_dev_change_mtu,
140         .ndo_get_stats = internal_dev_sys_stats,
141 };
142 #endif
143
144 static void do_setup(struct net_device *netdev)
145 {
146         ether_setup(netdev);
147
148 #ifdef HAVE_NET_DEVICE_OPS
149         netdev->netdev_ops = &internal_dev_netdev_ops;
150 #else
151         netdev->do_ioctl = internal_dev_do_ioctl;
152         netdev->get_stats = internal_dev_sys_stats;
153         netdev->hard_start_xmit = internal_dev_xmit;
154         netdev->open = internal_dev_open;
155         netdev->stop = internal_dev_stop;
156         netdev->set_mac_address = internal_dev_mac_addr;
157         netdev->change_mtu = internal_dev_change_mtu;
158 #endif
159
160         netdev->destructor = free_netdev;
161         SET_ETHTOOL_OPS(netdev, &internal_dev_ethtool_ops);
162         netdev->tx_queue_len = 0;
163
164         netdev->flags = IFF_BROADCAST | IFF_MULTICAST;
165         netdev->features = NETIF_F_LLTX | NETIF_F_SG | NETIF_F_FRAGLIST |
166                                 NETIF_F_HIGHDMA | NETIF_F_HW_CSUM | NETIF_F_TSO;
167
168         vport_gen_rand_ether_addr(netdev->dev_addr);
169 }
170
171 static struct vport *internal_dev_create(const struct vport_parms *parms)
172 {
173         struct vport *vport;
174         struct netdev_vport *netdev_vport;
175         struct internal_dev *internal_dev;
176         int err;
177
178         vport = vport_alloc(sizeof(struct netdev_vport), &internal_vport_ops, parms);
179         if (IS_ERR(vport)) {
180                 err = PTR_ERR(vport);
181                 goto error;
182         }
183
184         netdev_vport = netdev_vport_priv(vport);
185
186         netdev_vport->dev = alloc_netdev(sizeof(struct internal_dev), parms->name, do_setup);
187         if (!netdev_vport->dev) {
188                 err = -ENOMEM;
189                 goto error_free_vport;
190         }
191
192         internal_dev = internal_dev_priv(netdev_vport->dev);
193         internal_dev->vport = vport;
194
195         err = register_netdevice(netdev_vport->dev);
196         if (err)
197                 goto error_free_netdev;
198
199         dev_set_promiscuity(netdev_vport->dev, 1);
200         netif_start_queue(netdev_vport->dev);
201
202         return vport;
203
204 error_free_netdev:
205         free_netdev(netdev_vport->dev);
206 error_free_vport:
207         vport_free(vport);
208 error:
209         return ERR_PTR(err);
210 }
211
212 static int internal_dev_destroy(struct vport *vport)
213 {
214         struct netdev_vport *netdev_vport = netdev_vport_priv(vport);
215
216         netif_stop_queue(netdev_vport->dev);
217         dev_set_promiscuity(netdev_vport->dev, -1);
218
219         unregister_netdevice(netdev_vport->dev);
220         /* unregister_netdevice() waits for an RCU grace period. */
221         vport_free(vport);
222
223         return 0;
224 }
225
226 static int internal_dev_recv(struct vport *vport, struct sk_buff *skb)
227 {
228         struct net_device *netdev = netdev_vport_priv(vport)->dev;
229         int len;
230
231         skb->dev = netdev;
232         len = skb->len;
233         skb->pkt_type = PACKET_HOST;
234         skb->protocol = eth_type_trans(skb, netdev);
235
236         if (in_interrupt())
237                 netif_rx(skb);
238         else
239                 netif_rx_ni(skb);
240
241 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,29)
242         netdev->last_rx = jiffies;
243 #endif
244
245         return len;
246 }
247
248 const struct vport_ops internal_vport_ops = {
249         .type           = ODP_VPORT_TYPE_INTERNAL,
250         .flags          = VPORT_F_REQUIRED | VPORT_F_GEN_STATS | VPORT_F_FLOW,
251         .create         = internal_dev_create,
252         .destroy        = internal_dev_destroy,
253         .set_mtu        = netdev_set_mtu,
254         .set_addr       = netdev_set_addr,
255         .get_name       = netdev_get_name,
256         .get_addr       = netdev_get_addr,
257         .get_kobj       = netdev_get_kobj,
258         .get_dev_flags  = netdev_get_dev_flags,
259         .is_running     = netdev_is_running,
260         .get_operstate  = netdev_get_operstate,
261         .get_ifindex    = netdev_get_ifindex,
262         .get_iflink     = netdev_get_iflink,
263         .get_mtu        = netdev_get_mtu,
264         .send           = internal_dev_recv,
265 };
266
267 int is_internal_dev(const struct net_device *netdev)
268 {
269 #ifdef HAVE_NET_DEVICE_OPS
270         return netdev->netdev_ops == &internal_dev_netdev_ops;
271 #else
272         return netdev->open == internal_dev_open;
273 #endif
274 }
275
276 int is_internal_vport(const struct vport *vport)
277 {
278         return vport->ops == &internal_vport_ops;
279 }
280
281 struct vport *internal_dev_get_vport(struct net_device *netdev)
282 {
283         if (!is_internal_dev(netdev))
284                 return NULL;
285
286         return internal_dev_priv(netdev)->vport;
287 }