Merge branch 'mainstream'
[sliver-openvswitch.git] / datapath / vport-gre.c
1 /*
2  * Copyright (c) 2007-2012 Nicira, Inc.
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of version 2 of the GNU General Public
6  * License as published by the Free Software Foundation.
7  *
8  * This program is distributed in the hope that it will be useful, but
9  * WITHOUT ANY WARRANTY; without even the implied warranty of
10  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
11  * General Public License for more details.
12  *
13  * You should have received a copy of the GNU General Public License
14  * along with this program; if not, write to the Free Software
15  * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA
16  * 02110-1301, USA
17  */
18
19 #include <linux/kconfig.h>
20 #if IS_ENABLED(CONFIG_NET_IPGRE_DEMUX)
21 #define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
22
23 #include <linux/if.h>
24 #include <linux/skbuff.h>
25 #include <linux/ip.h>
26 #include <linux/if_tunnel.h>
27 #include <linux/if_vlan.h>
28 #include <linux/in.h>
29 #include <linux/if_vlan.h>
30 #include <linux/in.h>
31 #include <linux/in_route.h>
32 #include <linux/inetdevice.h>
33 #include <linux/jhash.h>
34 #include <linux/list.h>
35 #include <linux/kernel.h>
36 #include <linux/workqueue.h>
37 #include <linux/rculist.h>
38 #include <net/net_namespace.h>
39 #include <net/netns/generic.h>
40 #include <net/route.h>
41 #include <net/xfrm.h>
42
43 #include <net/icmp.h>
44 #include <net/ip.h>
45 #include <net/ip_tunnels.h>
46 #include <net/gre.h>
47 #include <net/protocol.h>
48
49 #include "datapath.h"
50 #include "vport.h"
51
52 /* Returns the least-significant 32 bits of a __be64. */
53 static __be32 be64_get_low32(__be64 x)
54 {
55 #ifdef __BIG_ENDIAN
56         return (__force __be32)x;
57 #else
58         return (__force __be32)((__force u64)x >> 32);
59 #endif
60 }
61
62 static __be16 filter_tnl_flags(__be16 flags)
63 {
64         return flags & (TUNNEL_CSUM | TUNNEL_KEY);
65 }
66
67 static struct sk_buff *__build_header(struct sk_buff *skb,
68                                       int tunnel_hlen,
69                                       __be32 seq, __be16 gre64_flag)
70 {
71         const struct ovs_key_ipv4_tunnel *tun_key = OVS_CB(skb)->tun_key;
72         struct tnl_ptk_info tpi;
73
74         skb = gre_handle_offloads(skb, !!(tun_key->tun_flags & TUNNEL_CSUM));
75         if (IS_ERR(skb))
76                 return NULL;
77
78         tpi.flags = filter_tnl_flags(tun_key->tun_flags) | gre64_flag;
79
80         tpi.proto = htons(ETH_P_TEB);
81         tpi.key = be64_get_low32(tun_key->tun_id);
82         tpi.seq = seq;
83         gre_build_header(skb, &tpi, tunnel_hlen);
84
85         return skb;
86 }
87
88 static __be64 key_to_tunnel_id(__be32 key, __be32 seq)
89 {
90 #ifdef __BIG_ENDIAN
91         return (__force __be64)((__force u64)seq << 32 | (__force u32)key);
92 #else
93         return (__force __be64)((__force u64)key << 32 | (__force u32)seq);
94 #endif
95 }
96
97 /* Called with rcu_read_lock and BH disabled. */
98 static int gre_rcv(struct sk_buff *skb,
99                    const struct tnl_ptk_info *tpi)
100 {
101         struct ovs_key_ipv4_tunnel tun_key;
102         struct ovs_net *ovs_net;
103         struct vport *vport;
104         __be64 key;
105
106         ovs_net = net_generic(dev_net(skb->dev), ovs_net_id);
107         if ((tpi->flags & TUNNEL_KEY) && (tpi->flags & TUNNEL_SEQ))
108                 vport = rcu_dereference(ovs_net->vport_net.gre64_vport);
109         else
110                 vport = rcu_dereference(ovs_net->vport_net.gre_vport);
111         if (unlikely(!vport))
112                 return PACKET_REJECT;
113
114         key = key_to_tunnel_id(tpi->key, tpi->seq);
115         ovs_flow_tun_key_init(&tun_key, ip_hdr(skb), key, filter_tnl_flags(tpi->flags));
116
117         ovs_vport_receive(vport, skb, &tun_key);
118         return PACKET_RCVD;
119 }
120
121 static int __send(struct vport *vport, struct sk_buff *skb,
122                   int tunnel_hlen,
123                   __be32 seq, __be16 gre64_flag)
124 {
125         struct net *net = ovs_dp_get_net(vport->dp);
126         struct rtable *rt;
127         int min_headroom;
128         __be16 df;
129         __be32 saddr;
130         int err;
131
132         /* Route lookup */
133         saddr = OVS_CB(skb)->tun_key->ipv4_src;
134         rt = find_route(ovs_dp_get_net(vport->dp),
135                         &saddr,
136                         OVS_CB(skb)->tun_key->ipv4_dst,
137                         IPPROTO_GRE,
138                         OVS_CB(skb)->tun_key->ipv4_tos,
139                         skb->mark);
140         if (IS_ERR(rt)) {
141                 err = PTR_ERR(rt);
142                 goto error;
143         }
144
145         min_headroom = LL_RESERVED_SPACE(rt_dst(rt).dev) + rt_dst(rt).header_len
146                         + tunnel_hlen + sizeof(struct iphdr)
147                         + (vlan_tx_tag_present(skb) ? VLAN_HLEN : 0);
148
149         if (skb_headroom(skb) < min_headroom || skb_header_cloned(skb)) {
150                 int head_delta = SKB_DATA_ALIGN(min_headroom -
151                                                 skb_headroom(skb) +
152                                                 16);
153                 err = pskb_expand_head(skb, max_t(int, head_delta, 0),
154                                         0, GFP_ATOMIC);
155                 if (unlikely(err))
156                         goto err_free_rt;
157         }
158
159         if (vlan_tx_tag_present(skb)) {
160                 if (unlikely(!__vlan_put_tag(skb,
161                                              skb->vlan_proto,
162                                              vlan_tx_tag_get(skb)))) {
163                         err = -ENOMEM;
164                         goto err_free_rt;
165                 }
166                 vlan_set_tci(skb, 0);
167         }
168
169         /* Push Tunnel header. */
170         skb = __build_header(skb, tunnel_hlen, seq, gre64_flag);
171         if (unlikely(!skb)) {
172                 err = 0;
173                 goto err_free_rt;
174         }
175
176         df = OVS_CB(skb)->tun_key->tun_flags & TUNNEL_DONT_FRAGMENT ?
177                 htons(IP_DF) : 0;
178
179         skb->local_df = 1;
180
181         return iptunnel_xmit(net, rt, skb, saddr,
182                              OVS_CB(skb)->tun_key->ipv4_dst, IPPROTO_GRE,
183                              OVS_CB(skb)->tun_key->ipv4_tos,
184                              OVS_CB(skb)->tun_key->ipv4_ttl, df);
185 err_free_rt:
186         ip_rt_put(rt);
187 error:
188         return err;
189 }
190
191 static struct gre_cisco_protocol gre_protocol = {
192         .handler        = gre_rcv,
193         .priority       = 1,
194 };
195
196 static int gre_ports;
197 static int gre_init(void)
198 {
199         int err;
200
201         gre_ports++;
202         if (gre_ports > 1)
203                 return 0;
204
205         err = gre_cisco_register(&gre_protocol);
206         if (err)
207                 pr_warn("cannot register gre protocol handler\n");
208
209         return err;
210 }
211
212 static void gre_exit(void)
213 {
214         gre_ports--;
215         if (gre_ports > 0)
216                 return;
217
218         gre_cisco_unregister(&gre_protocol);
219 }
220
221 static const char *gre_get_name(const struct vport *vport)
222 {
223         return vport_priv(vport);
224 }
225
226 static struct vport *gre_create(const struct vport_parms *parms)
227 {
228         struct net *net = ovs_dp_get_net(parms->dp);
229         struct ovs_net *ovs_net;
230         struct vport *vport;
231         int err;
232
233         err = gre_init();
234         if (err)
235                 return ERR_PTR(err);
236
237         ovs_net = net_generic(net, ovs_net_id);
238         if (ovsl_dereference(ovs_net->vport_net.gre_vport)) {
239                 vport = ERR_PTR(-EEXIST);
240                 goto error;
241         }
242
243         vport = ovs_vport_alloc(IFNAMSIZ, &ovs_gre_vport_ops, parms);
244         if (IS_ERR(vport))
245                 goto error;
246
247         strncpy(vport_priv(vport), parms->name, IFNAMSIZ);
248         rcu_assign_pointer(ovs_net->vport_net.gre_vport, vport);
249         return vport;
250
251 error:
252         gre_exit();
253         return vport;
254 }
255
256 static void gre_tnl_destroy(struct vport *vport)
257 {
258         struct net *net = ovs_dp_get_net(vport->dp);
259         struct ovs_net *ovs_net;
260
261         ovs_net = net_generic(net, ovs_net_id);
262
263         rcu_assign_pointer(ovs_net->vport_net.gre_vport, NULL);
264         ovs_vport_deferred_free(vport);
265         gre_exit();
266 }
267
268 static int gre_send(struct vport *vport, struct sk_buff *skb)
269 {
270         int hlen;
271
272         if (unlikely(!OVS_CB(skb)->tun_key))
273                 return -EINVAL;
274
275         hlen = ip_gre_calc_hlen(OVS_CB(skb)->tun_key->tun_flags);
276
277         return __send(vport, skb, hlen, 0, 0);
278 }
279
280 const struct vport_ops ovs_gre_vport_ops = {
281         .type           = OVS_VPORT_TYPE_GRE,
282         .create         = gre_create,
283         .destroy        = gre_tnl_destroy,
284         .get_name       = gre_get_name,
285         .send           = gre_send,
286 };
287
288 /* GRE64 vport. */
289 static struct vport *gre64_create(const struct vport_parms *parms)
290 {
291         struct net *net = ovs_dp_get_net(parms->dp);
292         struct ovs_net *ovs_net;
293         struct vport *vport;
294         int err;
295
296         err = gre_init();
297         if (err)
298                 return ERR_PTR(err);
299
300         ovs_net = net_generic(net, ovs_net_id);
301         if (ovsl_dereference(ovs_net->vport_net.gre64_vport)) {
302                 vport = ERR_PTR(-EEXIST);
303                 goto error;
304         }
305
306         vport = ovs_vport_alloc(IFNAMSIZ, &ovs_gre64_vport_ops, parms);
307         if (IS_ERR(vport))
308                 goto error;
309
310         strncpy(vport_priv(vport), parms->name, IFNAMSIZ);
311         rcu_assign_pointer(ovs_net->vport_net.gre64_vport, vport);
312         return vport;
313 error:
314         gre_exit();
315         return vport;
316 }
317
318 static void gre64_tnl_destroy(struct vport *vport)
319 {
320         struct net *net = ovs_dp_get_net(vport->dp);
321         struct ovs_net *ovs_net;
322
323         ovs_net = net_generic(net, ovs_net_id);
324
325         rcu_assign_pointer(ovs_net->vport_net.gre64_vport, NULL);
326         ovs_vport_deferred_free(vport);
327         gre_exit();
328 }
329
330 static __be32 be64_get_high32(__be64 x)
331 {
332 #ifdef __BIG_ENDIAN
333         return (__force __be32)((__force u64)x >> 32);
334 #else
335         return (__force __be32)x;
336 #endif
337 }
338
339 static int gre64_send(struct vport *vport, struct sk_buff *skb)
340 {
341         int hlen = GRE_HEADER_SECTION +         /* GRE Hdr */
342                    GRE_HEADER_SECTION +         /* GRE Key */
343                    GRE_HEADER_SECTION;          /* GRE SEQ */
344         __be32 seq;
345
346         if (unlikely(!OVS_CB(skb)->tun_key))
347                 return -EINVAL;
348
349         if (OVS_CB(skb)->tun_key->tun_flags & TUNNEL_CSUM)
350                 hlen += GRE_HEADER_SECTION;
351
352         seq = be64_get_high32(OVS_CB(skb)->tun_key->tun_id);
353         return __send(vport, skb, hlen, seq, (TUNNEL_KEY|TUNNEL_SEQ));
354 }
355
356 const struct vport_ops ovs_gre64_vport_ops = {
357         .type           = OVS_VPORT_TYPE_GRE64,
358         .create         = gre64_create,
359         .destroy        = gre64_tnl_destroy,
360         .get_name       = gre_get_name,
361         .send           = gre64_send,
362 };
363 #endif