Merge to Fedora kernel-2.6.18-1.2255_FC5-vs2.0.2.2-rc9 patched with stable patch...
[linux-2.6.git] / drivers / xen / netback / interface.c
1 /******************************************************************************
2  * arch/xen/drivers/netif/backend/interface.c
3  * 
4  * Network-device interface management.
5  * 
6  * Copyright (c) 2004-2005, Keir Fraser
7  * 
8  * This program is free software; you can redistribute it and/or
9  * modify it under the terms of the GNU General Public License version 2
10  * as published by the Free Software Foundation; or, when distributed
11  * separately from the Linux kernel or incorporated into other
12  * software packages, subject to the following license:
13  * 
14  * Permission is hereby granted, free of charge, to any person obtaining a copy
15  * of this source file (the "Software"), to deal in the Software without
16  * restriction, including without limitation the rights to use, copy, modify,
17  * merge, publish, distribute, sublicense, and/or sell copies of the Software,
18  * and to permit persons to whom the Software is furnished to do so, subject to
19  * the following conditions:
20  * 
21  * The above copyright notice and this permission notice shall be included in
22  * all copies or substantial portions of the Software.
23  * 
24  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
25  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
26  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
27  * AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
28  * LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
29  * FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS
30  * IN THE SOFTWARE.
31  */
32
33 #include "common.h"
34 #include <linux/ethtool.h>
35 #include <linux/rtnetlink.h>
36
37 /*
38  * Module parameter 'queue_length':
39  * 
40  * Enables queuing in the network stack when a client has run out of receive
41  * descriptors. Although this feature can improve receive bandwidth by avoiding
42  * packet loss, it can also result in packets sitting in the 'tx_queue' for
43  * unbounded time. This is bad if those packets hold onto foreign resources.
44  * For example, consider a packet that holds onto resources belonging to the
45  * guest for which it is queued (e.g., packet received on vif1.0, destined for
46  * vif1.1 which is not activated in the guest): in this situation the guest
47  * will never be destroyed, unless vif1.1 is taken down (which flushes the
48  * 'tx_queue').
49  * 
50  * Only set this parameter to non-zero value if you know what you are doing!
51  */
52 static unsigned long netbk_queue_length = 0;
53 module_param_named(queue_length, netbk_queue_length, ulong, 0);
54
55 static void __netif_up(netif_t *netif)
56 {
57         enable_irq(netif->irq);
58         netif_schedule_work(netif);
59 }
60
61 static void __netif_down(netif_t *netif)
62 {
63         disable_irq(netif->irq);
64         netif_deschedule_work(netif);
65         del_timer_sync(&netif->credit_timeout);
66 }
67
68 static int net_open(struct net_device *dev)
69 {
70         netif_t *netif = netdev_priv(dev);
71         if (netif_carrier_ok(dev))
72                 __netif_up(netif);
73         return 0;
74 }
75
76 static int net_close(struct net_device *dev)
77 {
78         netif_t *netif = netdev_priv(dev);
79         if (netif_carrier_ok(dev))
80                 __netif_down(netif);
81         return 0;
82 }
83
84 static int netbk_change_mtu(struct net_device *dev, int mtu)
85 {
86         int max = netbk_can_sg(dev) ? 65535 - ETH_HLEN : ETH_DATA_LEN;
87
88         if (mtu > max)
89                 return -EINVAL;
90         dev->mtu = mtu;
91         return 0;
92 }
93
94 static int netbk_set_sg(struct net_device *dev, u32 data)
95 {
96         if (data) {
97                 netif_t *netif = netdev_priv(dev);
98
99                 if (!(netif->features & NETIF_F_SG))
100                         return -ENOSYS;
101         }
102
103         return ethtool_op_set_sg(dev, data);
104 }
105
106 static int netbk_set_tso(struct net_device *dev, u32 data)
107 {
108         if (data) {
109                 netif_t *netif = netdev_priv(dev);
110
111                 if (!(netif->features & NETIF_F_TSO))
112                         return -ENOSYS;
113         }
114
115         return ethtool_op_set_tso(dev, data);
116 }
117
118 static struct ethtool_ops network_ethtool_ops =
119 {
120         .get_tx_csum = ethtool_op_get_tx_csum,
121         .set_tx_csum = ethtool_op_set_tx_csum,
122         .get_sg = ethtool_op_get_sg,
123         .set_sg = netbk_set_sg,
124         .get_tso = ethtool_op_get_tso,
125         .set_tso = netbk_set_tso,
126         .get_link = ethtool_op_get_link,
127 };
128
129 netif_t *netif_alloc(domid_t domid, unsigned int handle)
130 {
131         int err = 0, i;
132         struct net_device *dev;
133         netif_t *netif;
134         char name[IFNAMSIZ] = {};
135
136         snprintf(name, IFNAMSIZ - 1, "vif%u.%u", domid, handle);
137         dev = alloc_netdev(sizeof(netif_t), name, ether_setup);
138         if (dev == NULL) {
139                 DPRINTK("Could not create netif: out of memory\n");
140                 return ERR_PTR(-ENOMEM);
141         }
142
143         netif_carrier_off(dev);
144
145         netif = netdev_priv(dev);
146         memset(netif, 0, sizeof(*netif));
147         netif->domid  = domid;
148         netif->handle = handle;
149         atomic_set(&netif->refcnt, 1);
150         init_waitqueue_head(&netif->waiting_to_free);
151         netif->dev = dev;
152
153         netif->credit_bytes = netif->remaining_credit = ~0UL;
154         netif->credit_usec  = 0UL;
155         init_timer(&netif->credit_timeout);
156         netif->credit_timeout.expires = jiffies;
157
158         dev->hard_start_xmit = netif_be_start_xmit;
159         dev->get_stats       = netif_be_get_stats;
160         dev->open            = net_open;
161         dev->stop            = net_close;
162         dev->change_mtu      = netbk_change_mtu;
163         dev->features        = NETIF_F_IP_CSUM;
164
165         SET_ETHTOOL_OPS(dev, &network_ethtool_ops);
166
167         dev->tx_queue_len = netbk_queue_length;
168         if (dev->tx_queue_len != 0)
169                 printk(KERN_WARNING "netbk: WARNING: device '%s' has non-zero "
170                        "queue length (%lu)!\n", dev->name, dev->tx_queue_len);
171
172         /*
173          * Initialise a dummy MAC address. We choose the numerically
174          * largest non-broadcast address to prevent the address getting
175          * stolen by an Ethernet bridge for STP purposes.
176          * (FE:FF:FF:FF:FF:FF)
177          */ 
178         memset(dev->dev_addr, 0xFF, ETH_ALEN);
179         dev->dev_addr[0] &= ~0x01;
180
181         rtnl_lock();
182         err = register_netdevice(dev);
183         rtnl_unlock();
184         if (err) {
185                 DPRINTK("Could not register new net device %s: err=%d\n",
186                         dev->name, err);
187                 free_netdev(dev);
188                 return ERR_PTR(err);
189         }
190
191         DPRINTK("Successfully created netif\n");
192         return netif;
193 }
194
195 static int map_frontend_pages(
196         netif_t *netif, grant_ref_t tx_ring_ref, grant_ref_t rx_ring_ref)
197 {
198         struct gnttab_map_grant_ref op;
199         int ret;
200
201         gnttab_set_map_op(&op, (unsigned long)netif->tx_comms_area->addr,
202                           GNTMAP_host_map, tx_ring_ref, netif->domid);
203     
204         lock_vm_area(netif->tx_comms_area);
205         ret = HYPERVISOR_grant_table_op(GNTTABOP_map_grant_ref, &op, 1);
206         unlock_vm_area(netif->tx_comms_area);
207         BUG_ON(ret);
208
209         if (op.status) { 
210                 DPRINTK(" Gnttab failure mapping tx_ring_ref!\n");
211                 return op.status;
212         }
213
214         netif->tx_shmem_ref    = tx_ring_ref;
215         netif->tx_shmem_handle = op.handle;
216
217         gnttab_set_map_op(&op, (unsigned long)netif->rx_comms_area->addr,
218                           GNTMAP_host_map, rx_ring_ref, netif->domid);
219
220         lock_vm_area(netif->rx_comms_area);
221         ret = HYPERVISOR_grant_table_op(GNTTABOP_map_grant_ref, &op, 1);
222         unlock_vm_area(netif->rx_comms_area);
223         BUG_ON(ret);
224
225         if (op.status) {
226                 DPRINTK(" Gnttab failure mapping rx_ring_ref!\n");
227                 return op.status;
228         }
229
230         netif->rx_shmem_ref    = rx_ring_ref;
231         netif->rx_shmem_handle = op.handle;
232
233         return 0;
234 }
235
236 static void unmap_frontend_pages(netif_t *netif)
237 {
238         struct gnttab_unmap_grant_ref op;
239         int ret;
240
241         gnttab_set_unmap_op(&op, (unsigned long)netif->tx_comms_area->addr,
242                             GNTMAP_host_map, netif->tx_shmem_handle);
243
244         lock_vm_area(netif->tx_comms_area);
245         ret = HYPERVISOR_grant_table_op(GNTTABOP_unmap_grant_ref, &op, 1);
246         unlock_vm_area(netif->tx_comms_area);
247         BUG_ON(ret);
248
249         gnttab_set_unmap_op(&op, (unsigned long)netif->rx_comms_area->addr,
250                             GNTMAP_host_map, netif->rx_shmem_handle);
251
252         lock_vm_area(netif->rx_comms_area);
253         ret = HYPERVISOR_grant_table_op(GNTTABOP_unmap_grant_ref, &op, 1);
254         unlock_vm_area(netif->rx_comms_area);
255         BUG_ON(ret);
256 }
257
258 int netif_map(netif_t *netif, unsigned long tx_ring_ref,
259               unsigned long rx_ring_ref, unsigned int evtchn)
260 {
261         int err = -ENOMEM;
262         netif_tx_sring_t *txs;
263         netif_rx_sring_t *rxs;
264         struct evtchn_bind_interdomain bind_interdomain;
265
266         /* Already connected through? */
267         if (netif->irq)
268                 return 0;
269
270         netif->tx_comms_area = alloc_vm_area(PAGE_SIZE);
271         if (netif->tx_comms_area == NULL)
272                 return -ENOMEM;
273         netif->rx_comms_area = alloc_vm_area(PAGE_SIZE);
274         if (netif->rx_comms_area == NULL)
275                 goto err_rx;
276
277         err = map_frontend_pages(netif, tx_ring_ref, rx_ring_ref);
278         if (err)
279                 goto err_map;
280
281         bind_interdomain.remote_dom = netif->domid;
282         bind_interdomain.remote_port = evtchn;
283
284         err = HYPERVISOR_event_channel_op(EVTCHNOP_bind_interdomain,
285                                           &bind_interdomain);
286         if (err)
287                 goto err_hypervisor;
288
289         netif->evtchn = bind_interdomain.local_port;
290
291         netif->irq = bind_evtchn_to_irqhandler(
292                 netif->evtchn, netif_be_int, 0, netif->dev->name, netif);
293         disable_irq(netif->irq);
294
295         txs = (netif_tx_sring_t *)netif->tx_comms_area->addr;
296         BACK_RING_INIT(&netif->tx, txs, PAGE_SIZE);
297
298         rxs = (netif_rx_sring_t *)
299                 ((char *)netif->rx_comms_area->addr);
300         BACK_RING_INIT(&netif->rx, rxs, PAGE_SIZE);
301
302         netif->rx_req_cons_peek = 0;
303
304         netif_get(netif);
305
306         rtnl_lock();
307         netif_carrier_on(netif->dev);
308         if (netif_running(netif->dev))
309                 __netif_up(netif);
310         rtnl_unlock();
311
312         return 0;
313 err_hypervisor:
314         unmap_frontend_pages(netif);
315 err_map:
316         free_vm_area(netif->rx_comms_area);
317 err_rx:
318         free_vm_area(netif->tx_comms_area);
319         return err;
320 }
321
322 static void netif_free(netif_t *netif)
323 {
324         atomic_dec(&netif->refcnt);
325         wait_event(netif->waiting_to_free, atomic_read(&netif->refcnt) == 0);
326
327         if (netif->irq)
328                 unbind_from_irqhandler(netif->irq, netif);
329         
330         unregister_netdev(netif->dev);
331
332         if (netif->tx.sring) {
333                 unmap_frontend_pages(netif);
334                 free_vm_area(netif->tx_comms_area);
335                 free_vm_area(netif->rx_comms_area);
336         }
337
338         free_netdev(netif->dev);
339 }
340
341 void netif_disconnect(netif_t *netif)
342 {
343         if (netif_carrier_ok(netif->dev)) {
344                 rtnl_lock();
345                 netif_carrier_off(netif->dev);
346                 if (netif_running(netif->dev))
347                         __netif_down(netif);
348                 rtnl_unlock();
349                 netif_put(netif);
350         }
351         netif_free(netif);
352 }