86171dbc9cb305db2ad1d84b72d9e599e56c84c2
[sliver-openvswitch.git] / datapath / vport-internal_dev.c
1 /*
2  * Copyright (c) 2009, 2010 Nicira Networks.
3  * Distributed under the terms of the GNU GPL version 2.
4  *
5  * Significant portions of this file may be copied from parts of the Linux
6  * kernel, by Linus Torvalds and others.
7  */
8
9 #include <linux/kernel.h>
10 #include <linux/netdevice.h>
11 #include <linux/etherdevice.h>
12 #include <linux/ethtool.h>
13 #include <linux/rcupdate.h>
14 #include <linux/skbuff.h>
15 #include <linux/version.h>
16
17 #include "checksum.h"
18 #include "datapath.h"
19 #include "vport-generic.h"
20 #include "vport-internal_dev.h"
21 #include "vport-netdev.h"
22
23 struct internal_dev {
24         struct vport *vport;
25         struct net_device_stats stats;
26 };
27
28 static inline struct internal_dev *internal_dev_priv(struct net_device *netdev)
29 {
30         return netdev_priv(netdev);
31 }
32
33 /* This function is only called by the kernel network layer.  It is not a vport
34  * get_stats() function.  If a vport get_stats() function is defined that
35  * results in this being called it will cause infinite recursion. */
36 static struct net_device_stats *internal_dev_sys_stats(struct net_device *netdev)
37 {
38         struct vport *vport = internal_dev_get_vport(netdev);
39         struct net_device_stats *stats = &internal_dev_priv(netdev)->stats;
40
41         if (vport) {
42                 struct rtnl_link_stats64 vport_stats;
43
44                 vport_get_stats(vport, &vport_stats);
45
46                 /* The tx and rx stats need to be swapped because the switch
47                  * and host OS have opposite perspectives. */
48                 stats->rx_packets       = vport_stats.tx_packets;
49                 stats->tx_packets       = vport_stats.rx_packets;
50                 stats->rx_bytes         = vport_stats.tx_bytes;
51                 stats->tx_bytes         = vport_stats.rx_bytes;
52                 stats->rx_errors        = vport_stats.tx_errors;
53                 stats->tx_errors        = vport_stats.rx_errors;
54                 stats->rx_dropped       = vport_stats.tx_dropped;
55                 stats->tx_dropped       = vport_stats.rx_dropped;
56                 stats->collisions       = vport_stats.collisions;
57         }
58
59         return stats;
60 }
61
62 static int internal_dev_mac_addr(struct net_device *dev, void *p)
63 {
64         struct sockaddr *addr = p;
65
66         if (!is_valid_ether_addr(addr->sa_data))
67                 return -EADDRNOTAVAIL;
68         memcpy(dev->dev_addr, addr->sa_data, dev->addr_len);
69         return 0;
70 }
71
72 /* Called with rcu_read_lock and bottom-halves disabled. */
73 static int internal_dev_xmit(struct sk_buff *skb, struct net_device *netdev)
74 {
75         struct internal_dev *internal_dev = internal_dev_priv(netdev);
76         struct vport *vport = rcu_dereference(internal_dev->vport);
77
78         compute_ip_summed(skb, true);
79         OVS_CB(skb)->flow = NULL;
80
81         vport_receive(vport, skb);
82         return 0;
83 }
84
85 static int internal_dev_open(struct net_device *netdev)
86 {
87         netif_start_queue(netdev);
88         return 0;
89 }
90
91 static int internal_dev_stop(struct net_device *netdev)
92 {
93         netif_stop_queue(netdev);
94         return 0;
95 }
96
97 static void internal_dev_getinfo(struct net_device *netdev,
98                                  struct ethtool_drvinfo *info)
99 {
100         struct vport *vport = internal_dev_get_vport(netdev);
101
102         strcpy(info->driver, "openvswitch");
103         sprintf(info->bus_info, "%d.%d", vport->dp->dp_idx, vport->port_no);
104 }
105
106 static const struct ethtool_ops internal_dev_ethtool_ops = {
107         .get_drvinfo    = internal_dev_getinfo,
108         .get_link       = ethtool_op_get_link,
109         .get_sg         = ethtool_op_get_sg,
110         .set_sg         = ethtool_op_set_sg,
111         .get_tx_csum    = ethtool_op_get_tx_csum,
112         .set_tx_csum    = ethtool_op_set_tx_hw_csum,
113         .get_tso        = ethtool_op_get_tso,
114         .set_tso        = ethtool_op_set_tso,
115 };
116
117 static int internal_dev_change_mtu(struct net_device *netdev, int new_mtu)
118 {
119         struct vport *vport = internal_dev_get_vport(netdev);
120
121         if (new_mtu < 68)
122                 return -EINVAL;
123
124         if (new_mtu > dp_min_mtu(vport->dp))
125                 return -EINVAL;
126
127         netdev->mtu = new_mtu;
128         return 0;
129 }
130
131 static int internal_dev_do_ioctl(struct net_device *dev, struct ifreq *ifr, int cmd)
132 {
133         if (dp_ioctl_hook)
134                 return dp_ioctl_hook(dev, ifr, cmd);
135
136         return -EOPNOTSUPP;
137 }
138
139 #ifdef HAVE_NET_DEVICE_OPS
140 static const struct net_device_ops internal_dev_netdev_ops = {
141         .ndo_open = internal_dev_open,
142         .ndo_stop = internal_dev_stop,
143         .ndo_start_xmit = internal_dev_xmit,
144         .ndo_set_mac_address = internal_dev_mac_addr,
145         .ndo_do_ioctl = internal_dev_do_ioctl,
146         .ndo_change_mtu = internal_dev_change_mtu,
147         .ndo_get_stats = internal_dev_sys_stats,
148 };
149 #endif
150
151 static void do_setup(struct net_device *netdev)
152 {
153         ether_setup(netdev);
154
155 #ifdef HAVE_NET_DEVICE_OPS
156         netdev->netdev_ops = &internal_dev_netdev_ops;
157 #else
158         netdev->do_ioctl = internal_dev_do_ioctl;
159         netdev->get_stats = internal_dev_sys_stats;
160         netdev->hard_start_xmit = internal_dev_xmit;
161         netdev->open = internal_dev_open;
162         netdev->stop = internal_dev_stop;
163         netdev->set_mac_address = internal_dev_mac_addr;
164         netdev->change_mtu = internal_dev_change_mtu;
165 #endif
166
167         netdev->destructor = free_netdev;
168         SET_ETHTOOL_OPS(netdev, &internal_dev_ethtool_ops);
169         netdev->tx_queue_len = 0;
170
171         netdev->flags = IFF_BROADCAST | IFF_MULTICAST;
172         netdev->features = NETIF_F_LLTX | NETIF_F_SG | NETIF_F_FRAGLIST |
173                                 NETIF_F_HIGHDMA | NETIF_F_HW_CSUM | NETIF_F_TSO;
174
175         vport_gen_rand_ether_addr(netdev->dev_addr);
176 }
177
178 static struct vport *internal_dev_create(const struct vport_parms *parms)
179 {
180         struct vport *vport;
181         struct netdev_vport *netdev_vport;
182         struct internal_dev *internal_dev;
183         int err;
184
185         vport = vport_alloc(sizeof(struct netdev_vport), &internal_vport_ops, parms);
186         if (IS_ERR(vport)) {
187                 err = PTR_ERR(vport);
188                 goto error;
189         }
190
191         netdev_vport = netdev_vport_priv(vport);
192
193         netdev_vport->dev = alloc_netdev(sizeof(struct internal_dev), parms->name, do_setup);
194         if (!netdev_vport->dev) {
195                 err = -ENOMEM;
196                 goto error_free_vport;
197         }
198
199         internal_dev = internal_dev_priv(netdev_vport->dev);
200         rcu_assign_pointer(internal_dev->vport, vport);
201
202         err = register_netdevice(netdev_vport->dev);
203         if (err)
204                 goto error_free_netdev;
205
206         dev_set_promiscuity(netdev_vport->dev, 1);
207         netif_start_queue(netdev_vport->dev);
208
209         return vport;
210
211 error_free_netdev:
212         free_netdev(netdev_vport->dev);
213 error_free_vport:
214         vport_free(vport);
215 error:
216         return ERR_PTR(err);
217 }
218
219 static int internal_dev_destroy(struct vport *vport)
220 {
221         struct netdev_vport *netdev_vport = netdev_vport_priv(vport);
222
223         netif_stop_queue(netdev_vport->dev);
224         dev_set_promiscuity(netdev_vport->dev, -1);
225
226         synchronize_rcu();
227
228         unregister_netdevice(netdev_vport->dev);
229         vport_free(vport);
230
231         return 0;
232 }
233
234 static int internal_dev_recv(struct vport *vport, struct sk_buff *skb)
235 {
236         struct net_device *netdev = netdev_vport_priv(vport)->dev;
237         int len;
238
239         skb->dev = netdev;
240         len = skb->len;
241         skb->pkt_type = PACKET_HOST;
242         skb->protocol = eth_type_trans(skb, netdev);
243
244         if (in_interrupt())
245                 netif_rx(skb);
246         else
247                 netif_rx_ni(skb);
248
249 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,6,29)
250         netdev->last_rx = jiffies;
251 #endif
252
253         return len;
254 }
255
256 const struct vport_ops internal_vport_ops = {
257         .type           = "internal",
258         .flags          = VPORT_F_REQUIRED | VPORT_F_GEN_STATS | VPORT_F_FLOW,
259         .create         = internal_dev_create,
260         .destroy        = internal_dev_destroy,
261         .set_mtu        = netdev_set_mtu,
262         .set_addr       = netdev_set_addr,
263         .get_name       = netdev_get_name,
264         .get_addr       = netdev_get_addr,
265         .get_kobj       = netdev_get_kobj,
266         .get_dev_flags  = netdev_get_dev_flags,
267         .is_running     = netdev_is_running,
268         .get_operstate  = netdev_get_operstate,
269         .get_ifindex    = netdev_get_ifindex,
270         .get_iflink     = netdev_get_iflink,
271         .get_mtu        = netdev_get_mtu,
272         .send           = internal_dev_recv,
273 };
274
275 int is_internal_dev(const struct net_device *netdev)
276 {
277 #ifdef HAVE_NET_DEVICE_OPS
278         return netdev->netdev_ops == &internal_dev_netdev_ops;
279 #else
280         return netdev->open == internal_dev_open;
281 #endif
282 }
283
284 int is_internal_vport(const struct vport *vport)
285 {
286         return vport->ops == &internal_vport_ops;
287 }
288
289 struct vport *internal_dev_get_vport(struct net_device *netdev)
290 {
291         struct internal_dev *internal_dev;
292
293         if (!is_internal_dev(netdev))
294                 return NULL;
295
296         internal_dev = internal_dev_priv(netdev);
297         return rcu_dereference(internal_dev->vport);
298 }