24c53f89680d4b46ee85f180fe8d197e692b3c88
[sliver-openvswitch.git] / datapath / vport-gre.c
1 /*
2  * Copyright (c) 2010, 2011 Nicira Networks.
3  * Distributed under the terms of the GNU GPL version 2.
4  *
5  * Significant portions of this file may be copied from parts of the Linux
6  * kernel, by Linus Torvalds and others.
7  */
8
9 #define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
10
11 #include <linux/if.h>
12 #include <linux/skbuff.h>
13 #include <linux/ip.h>
14 #include <linux/if_tunnel.h>
15 #include <linux/if_vlan.h>
16 #include <linux/in.h>
17
18 #include <net/icmp.h>
19 #include <net/ip.h>
20 #include <net/protocol.h>
21
22 #include "tunnel.h"
23 #include "vport.h"
24 #include "vport-generic.h"
25
26 /*
27  * The GRE header is composed of a series of sections: a base and then a variable
28  * number of options.
29  */
30 #define GRE_HEADER_SECTION 4
31
32 struct gre_base_hdr {
33         __be16 flags;
34         __be16 protocol;
35 };
36
37 static int gre_hdr_len(const struct tnl_mutable_config *mutable)
38 {
39         int len;
40
41         len = GRE_HEADER_SECTION;
42
43         if (mutable->flags & TNL_F_CSUM)
44                 len += GRE_HEADER_SECTION;
45
46         if (mutable->out_key || mutable->flags & TNL_F_OUT_KEY_ACTION)
47                 len += GRE_HEADER_SECTION;
48
49         return len;
50 }
51
52 /* Returns the least-significant 32 bits of a __be64. */
53 static __be32 be64_get_low32(__be64 x)
54 {
55 #ifdef __BIG_ENDIAN
56         return (__force __be32)x;
57 #else
58         return (__force __be32)((__force u64)x >> 32);
59 #endif
60 }
61
62 static void gre_build_header(const struct vport *vport,
63                              const struct tnl_mutable_config *mutable,
64                              void *header)
65 {
66         struct gre_base_hdr *greh = header;
67         __be32 *options = (__be32 *)(greh + 1);
68
69         greh->protocol = htons(ETH_P_TEB);
70         greh->flags = 0;
71
72         if (mutable->flags & TNL_F_CSUM) {
73                 greh->flags |= GRE_CSUM;
74                 *options = 0;
75                 options++;
76         }
77
78         if (mutable->out_key || mutable->flags & TNL_F_OUT_KEY_ACTION)
79                 greh->flags |= GRE_KEY;
80
81         if (mutable->out_key)
82                 *options = be64_get_low32(mutable->out_key);
83 }
84
85 static struct sk_buff *gre_update_header(const struct vport *vport,
86                                          const struct tnl_mutable_config *mutable,
87                                          struct dst_entry *dst,
88                                          struct sk_buff *skb)
89 {
90         __be32 *options = (__be32 *)(skb_network_header(skb) + mutable->tunnel_hlen
91                                                - GRE_HEADER_SECTION);
92
93         /* Work backwards over the options so the checksum is last. */
94         if (mutable->flags & TNL_F_OUT_KEY_ACTION) {
95                 *options = be64_get_low32(OVS_CB(skb)->tun_id);
96                 options--;
97         }
98
99         if (mutable->flags & TNL_F_CSUM)
100                 *(__sum16 *)options = csum_fold(skb_checksum(skb,
101                                                 skb_transport_offset(skb),
102                                                 skb->len - skb_transport_offset(skb),
103                                                 0));
104         /*
105          * Allow our local IP stack to fragment the outer packet even if the
106          * DF bit is set as a last resort.  We also need to force selection of
107          * an IP ID here because Linux will otherwise leave it at 0 if the
108          * packet originally had DF set.
109          */
110         skb->local_df = 1;
111         __ip_select_ident(ip_hdr(skb), dst, 0);
112
113         return skb;
114 }
115
116 /* Zero-extends a __be32 into the least-significant 32 bits of a __be64. */
117 static __be64 be32_extend_to_be64(__be32 x)
118 {
119 #ifdef __BIG_ENDIAN
120         return (__force __be64)x;
121 #else
122         return (__force __be64)((__force u64)x << 32);
123 #endif
124 }
125
126 static int parse_header(struct iphdr *iph, __be16 *flags, __be64 *key)
127 {
128         /* IP and ICMP protocol handlers check that the IHL is valid. */
129         struct gre_base_hdr *greh = (struct gre_base_hdr *)((u8 *)iph + (iph->ihl << 2));
130         __be32 *options = (__be32 *)(greh + 1);
131         int hdr_len;
132
133         *flags = greh->flags;
134
135         if (unlikely(greh->flags & (GRE_VERSION | GRE_ROUTING)))
136                 return -EINVAL;
137
138         if (unlikely(greh->protocol != htons(ETH_P_TEB)))
139                 return -EINVAL;
140
141         hdr_len = GRE_HEADER_SECTION;
142
143         if (greh->flags & GRE_CSUM) {
144                 hdr_len += GRE_HEADER_SECTION;
145                 options++;
146         }
147
148         if (greh->flags & GRE_KEY) {
149                 hdr_len += GRE_HEADER_SECTION;
150
151                 *key = be32_extend_to_be64(*options);
152                 options++;
153         } else
154                 *key = 0;
155
156         if (unlikely(greh->flags & GRE_SEQ))
157                 hdr_len += GRE_HEADER_SECTION;
158
159         return hdr_len;
160 }
161
162 /* Called with rcu_read_lock and BH disabled. */
163 static void gre_err(struct sk_buff *skb, u32 info)
164 {
165         struct vport *vport;
166         const struct tnl_mutable_config *mutable;
167         const int type = icmp_hdr(skb)->type;
168         const int code = icmp_hdr(skb)->code;
169         int mtu = ntohs(icmp_hdr(skb)->un.frag.mtu);
170
171         struct iphdr *iph;
172         __be16 flags;
173         __be64 key;
174         int tunnel_hdr_len, tot_hdr_len;
175         unsigned int orig_mac_header;
176         unsigned int orig_nw_header;
177
178         if (type != ICMP_DEST_UNREACH || code != ICMP_FRAG_NEEDED)
179                 return;
180
181         /*
182          * The mimimum size packet that we would actually be able to process:
183          * encapsulating IP header, minimum GRE header, Ethernet header,
184          * inner IPv4 header.
185          */
186         if (!pskb_may_pull(skb, sizeof(struct iphdr) + GRE_HEADER_SECTION +
187                                 ETH_HLEN + sizeof(struct iphdr)))
188                 return;
189
190         iph = (struct iphdr *)skb->data;
191
192         tunnel_hdr_len = parse_header(iph, &flags, &key);
193         if (tunnel_hdr_len < 0)
194                 return;
195
196         vport = tnl_find_port(iph->saddr, iph->daddr, key,
197                               TNL_T_PROTO_GRE | TNL_T_KEY_EITHER, &mutable);
198         if (!vport)
199                 return;
200
201         /*
202          * Packets received by this function were previously sent by us, so
203          * any comparisons should be to the output values, not the input.
204          * However, it's not really worth it to have a hash table based on
205          * output keys (especially since ICMP error handling of tunneled packets
206          * isn't that reliable anyways).  Therefore, we do a lookup based on the
207          * out key as if it were the in key and then check to see if the input
208          * and output keys are the same.
209          */
210         if (mutable->in_key != mutable->out_key)
211                 return;
212
213         if (!!(mutable->flags & TNL_F_IN_KEY_MATCH) !=
214             !!(mutable->flags & TNL_F_OUT_KEY_ACTION))
215                 return;
216
217         if ((mutable->flags & TNL_F_CSUM) && !(flags & GRE_CSUM))
218                 return;
219
220         tunnel_hdr_len += iph->ihl << 2;
221
222         orig_mac_header = skb_mac_header(skb) - skb->data;
223         orig_nw_header = skb_network_header(skb) - skb->data;
224         skb_set_mac_header(skb, tunnel_hdr_len);
225
226         tot_hdr_len = tunnel_hdr_len + ETH_HLEN;
227
228         skb->protocol = eth_hdr(skb)->h_proto;
229         if (skb->protocol == htons(ETH_P_8021Q)) {
230                 tot_hdr_len += VLAN_HLEN;
231                 skb->protocol = vlan_eth_hdr(skb)->h_vlan_encapsulated_proto;
232         }
233
234         skb_set_network_header(skb, tot_hdr_len);
235         mtu -= tot_hdr_len;
236
237         if (skb->protocol == htons(ETH_P_IP))
238                 tot_hdr_len += sizeof(struct iphdr);
239 #if defined(CONFIG_IPV6) || defined(CONFIG_IPV6_MODULE)
240         else if (skb->protocol == htons(ETH_P_IPV6))
241                 tot_hdr_len += sizeof(struct ipv6hdr);
242 #endif
243         else
244                 goto out;
245
246         if (!pskb_may_pull(skb, tot_hdr_len))
247                 goto out;
248
249         if (skb->protocol == htons(ETH_P_IP)) {
250                 if (mtu < IP_MIN_MTU) {
251                         if (ntohs(ip_hdr(skb)->tot_len) >= IP_MIN_MTU)
252                                 mtu = IP_MIN_MTU;
253                         else
254                                 goto out;
255                 }
256
257         }
258 #if defined(CONFIG_IPV6) || defined(CONFIG_IPV6_MODULE)
259         else if (skb->protocol == htons(ETH_P_IPV6)) {
260                 if (mtu < IPV6_MIN_MTU) {
261                         unsigned int packet_length = sizeof(struct ipv6hdr) +
262                                               ntohs(ipv6_hdr(skb)->payload_len);
263
264                         if (packet_length >= IPV6_MIN_MTU
265                             || ntohs(ipv6_hdr(skb)->payload_len) == 0)
266                                 mtu = IPV6_MIN_MTU;
267                         else
268                                 goto out;
269                 }
270         }
271 #endif
272
273         __skb_pull(skb, tunnel_hdr_len);
274         tnl_frag_needed(vport, mutable, skb, mtu, key);
275         __skb_push(skb, tunnel_hdr_len);
276
277 out:
278         skb_set_mac_header(skb, orig_mac_header);
279         skb_set_network_header(skb, orig_nw_header);
280         skb->protocol = htons(ETH_P_IP);
281 }
282
283 static bool check_checksum(struct sk_buff *skb)
284 {
285         struct iphdr *iph = ip_hdr(skb);
286         struct gre_base_hdr *greh = (struct gre_base_hdr *)(iph + 1);
287         __sum16 csum = 0;
288
289         if (greh->flags & GRE_CSUM) {
290                 switch (skb->ip_summed) {
291                 case CHECKSUM_COMPLETE:
292                         csum = csum_fold(skb->csum);
293
294                         if (!csum)
295                                 break;
296                         /* Fall through. */
297
298                 case CHECKSUM_NONE:
299                         skb->csum = 0;
300                         csum = __skb_checksum_complete(skb);
301                         skb->ip_summed = CHECKSUM_COMPLETE;
302                         break;
303                 }
304         }
305
306         return (csum == 0);
307 }
308
309 /* Called with rcu_read_lock and BH disabled. */
310 static int gre_rcv(struct sk_buff *skb)
311 {
312         struct vport *vport;
313         const struct tnl_mutable_config *mutable;
314         int hdr_len;
315         struct iphdr *iph;
316         __be16 flags;
317         __be64 key;
318
319         if (unlikely(!pskb_may_pull(skb, sizeof(struct gre_base_hdr) + ETH_HLEN)))
320                 goto error;
321
322         if (unlikely(!check_checksum(skb)))
323                 goto error;
324
325         hdr_len = parse_header(ip_hdr(skb), &flags, &key);
326         if (unlikely(hdr_len < 0))
327                 goto error;
328
329         if (unlikely(!pskb_may_pull(skb, hdr_len + ETH_HLEN)))
330                 goto error;
331
332         iph = ip_hdr(skb);
333         vport = tnl_find_port(iph->daddr, iph->saddr, key,
334                               TNL_T_PROTO_GRE | TNL_T_KEY_EITHER, &mutable);
335         if (unlikely(!vport)) {
336                 icmp_send(skb, ICMP_DEST_UNREACH, ICMP_PORT_UNREACH, 0);
337                 goto error;
338         }
339
340         if (mutable->flags & TNL_F_IN_KEY_MATCH)
341                 OVS_CB(skb)->tun_id = key;
342         else
343                 OVS_CB(skb)->tun_id = 0;
344
345         __skb_pull(skb, hdr_len);
346         skb_postpull_rcsum(skb, skb_transport_header(skb), hdr_len + ETH_HLEN);
347
348         tnl_rcv(vport, skb, iph->tos);
349         return 0;
350
351 error:
352         kfree_skb(skb);
353         return 0;
354 }
355
356 static const struct tnl_ops gre_tnl_ops = {
357         .tunnel_type    = TNL_T_PROTO_GRE,
358         .ipproto        = IPPROTO_GRE,
359         .hdr_len        = gre_hdr_len,
360         .build_header   = gre_build_header,
361         .update_header  = gre_update_header,
362 };
363
364 static struct vport *gre_create(const struct vport_parms *parms)
365 {
366         return tnl_create(parms, &gre_vport_ops, &gre_tnl_ops);
367 }
368
369 static const struct net_protocol gre_protocol_handlers = {
370         .handler        =       gre_rcv,
371         .err_handler    =       gre_err,
372 };
373
374 static int gre_init(void)
375 {
376         int err;
377
378         err = inet_add_protocol(&gre_protocol_handlers, IPPROTO_GRE);
379         if (err)
380                 pr_warn("cannot register gre protocol handler\n");
381
382         return err;
383 }
384
385 static void gre_exit(void)
386 {
387         inet_del_protocol(&gre_protocol_handlers, IPPROTO_GRE);
388 }
389
390 const struct vport_ops gre_vport_ops = {
391         .type           = OVS_VPORT_TYPE_GRE,
392         .flags          = VPORT_F_GEN_STATS | VPORT_F_TUN_ID,
393         .init           = gre_init,
394         .exit           = gre_exit,
395         .create         = gre_create,
396         .destroy        = tnl_destroy,
397         .set_addr       = tnl_set_addr,
398         .get_name       = tnl_get_name,
399         .get_addr       = tnl_get_addr,
400         .get_options    = tnl_get_options,
401         .set_options    = tnl_set_options,
402         .get_dev_flags  = vport_gen_get_dev_flags,
403         .is_running     = vport_gen_is_running,
404         .get_operstate  = vport_gen_get_operstate,
405         .send           = tnl_send,
406 };