This commit was manufactured by cvs2svn to create tag
[linux-2.6.git] / include / asm-i386 / checksum.h
1 #ifndef _I386_CHECKSUM_H
2 #define _I386_CHECKSUM_H
3
4 #include <linux/in6.h>
5
6 /*
7  * computes the checksum of a memory block at buff, length len,
8  * and adds in "sum" (32-bit)
9  *
10  * returns a 32-bit number suitable for feeding into itself
11  * or csum_tcpudp_magic
12  *
13  * this function must be called with even lengths, except
14  * for the last fragment, which may be odd
15  *
16  * it's best to have buff aligned on a 32-bit boundary
17  */
18 asmlinkage unsigned int csum_partial(const unsigned char * buff, int len, unsigned int sum);
19
20 /*
21  * the same as csum_partial, but copies from src while it
22  * checksums, and handles user-space pointer exceptions correctly, when needed.
23  *
24  * here even more important to align src and dst on a 32-bit (or even
25  * better 64-bit) boundary
26  */
27
28 asmlinkage unsigned int direct_csum_partial_copy_generic( const char *src, char *dst, int len, int sum,
29                                                    int *src_err_ptr, int *dst_err_ptr);
30
31 /*
32  *      Note: when you get a NULL pointer exception here this means someone
33  *      passed in an incorrect kernel address to one of these functions.
34  *
35  *      If you use these functions directly please don't forget the
36  *      verify_area().
37  */
38 static __inline__
39 unsigned int csum_partial_copy_nocheck ( const char *src, char *dst,
40                                         int len, int sum)
41 {
42         /*
43          * The direct function is OK for kernel-space => kernel-space copies:
44          */
45         return direct_csum_partial_copy_generic ( src, dst, len, sum, NULL, NULL);
46 }
47
48 static __inline__
49 unsigned int csum_partial_copy_from_user ( const char *src, char *dst,
50                                                 int len, int sum, int *err_ptr)
51 {
52         if (copy_from_user(dst, src, len))
53                 *err_ptr = -EFAULT;
54         return csum_partial(dst, len, sum);
55 }
56
57 /*
58  *      This is a version of ip_compute_csum() optimized for IP headers,
59  *      which always checksum on 4 octet boundaries.
60  *
61  *      By Jorge Cwik <jorge@laser.satlink.net>, adapted for linux by
62  *      Arnt Gulbrandsen.
63  */
64 static inline unsigned short ip_fast_csum(unsigned char * iph,
65                                           unsigned int ihl)
66 {
67         unsigned int sum;
68
69         __asm__ __volatile__(
70             "movl (%1), %0      ;\n"
71             "subl $4, %2        ;\n"
72             "jbe 2f             ;\n"
73             "addl 4(%1), %0     ;\n"
74             "adcl 8(%1), %0     ;\n"
75             "adcl 12(%1), %0    ;\n"
76 "1:         adcl 16(%1), %0     ;\n"
77             "lea 4(%1), %1      ;\n"
78             "decl %2            ;\n"
79             "jne 1b             ;\n"
80             "adcl $0, %0        ;\n"
81             "movl %0, %2        ;\n"
82             "shrl $16, %0       ;\n"
83             "addw %w2, %w0      ;\n"
84             "adcl $0, %0        ;\n"
85             "notl %0            ;\n"
86 "2:                             ;\n"
87         /* Since the input registers which are loaded with iph and ipl
88            are modified, we must also specify them as outputs, or gcc
89            will assume they contain their original values. */
90         : "=r" (sum), "=r" (iph), "=r" (ihl)
91         : "1" (iph), "2" (ihl)
92         : "memory");
93         return(sum);
94 }
95
96 /*
97  *      Fold a partial checksum
98  */
99
100 static inline unsigned int csum_fold(unsigned int sum)
101 {
102         __asm__(
103                 "addl %1, %0            ;\n"
104                 "adcl $0xffff, %0       ;\n"
105                 : "=r" (sum)
106                 : "r" (sum << 16), "0" (sum & 0xffff0000)
107         );
108         return (~sum) >> 16;
109 }
110
111 static inline unsigned long csum_tcpudp_nofold(unsigned long saddr,
112                                                    unsigned long daddr,
113                                                    unsigned short len,
114                                                    unsigned short proto,
115                                                    unsigned int sum)
116 {
117     __asm__(
118         "addl %1, %0    ;\n"
119         "adcl %2, %0    ;\n"
120         "adcl %3, %0    ;\n"
121         "adcl $0, %0    ;\n"
122         : "=r" (sum)
123         : "g" (daddr), "g"(saddr), "g"((ntohs(len)<<16)+proto*256), "0"(sum));
124     return sum;
125 }
126
127 /*
128  * computes the checksum of the TCP/UDP pseudo-header
129  * returns a 16-bit checksum, already complemented
130  */
131 static inline unsigned short int csum_tcpudp_magic(unsigned long saddr,
132                                                    unsigned long daddr,
133                                                    unsigned short len,
134                                                    unsigned short proto,
135                                                    unsigned int sum)
136 {
137         return csum_fold(csum_tcpudp_nofold(saddr,daddr,len,proto,sum));
138 }
139
140 /*
141  * this routine is used for miscellaneous IP-like checksums, mainly
142  * in icmp.c
143  */
144
145 static inline unsigned short ip_compute_csum(unsigned char * buff, int len)
146 {
147     return csum_fold (csum_partial(buff, len, 0));
148 }
149
150 #define _HAVE_ARCH_IPV6_CSUM
151 static __inline__ unsigned short int csum_ipv6_magic(struct in6_addr *saddr,
152                                                      struct in6_addr *daddr,
153                                                      __u32 len,
154                                                      unsigned short proto,
155                                                      unsigned int sum)
156 {
157         __asm__(
158                 "addl 0(%1), %0         ;\n"
159                 "adcl 4(%1), %0         ;\n"
160                 "adcl 8(%1), %0         ;\n"
161                 "adcl 12(%1), %0        ;\n"
162                 "adcl 0(%2), %0         ;\n"
163                 "adcl 4(%2), %0         ;\n"
164                 "adcl 8(%2), %0         ;\n"
165                 "adcl 12(%2), %0        ;\n"
166                 "adcl %3, %0            ;\n"
167                 "adcl %4, %0            ;\n"
168                 "adcl $0, %0            ;\n"
169                 : "=&r" (sum)
170                 : "r" (saddr), "r" (daddr),
171                   "r"(htonl(len)), "r"(htonl(proto)), "0"(sum));
172
173         return csum_fold(sum);
174 }
175
176 /*
177  *      Copy and checksum to user
178  */
179 #define HAVE_CSUM_COPY_USER
180 static __inline__ unsigned int direct_csum_and_copy_to_user(const char *src, char *dst,
181                                     int len, int sum, int *err_ptr)
182 {
183         if (access_ok(VERIFY_WRITE, dst, len))
184                 return direct_csum_partial_copy_generic(src, dst, len, sum, NULL, err_ptr);
185
186         if (len)
187                 *err_ptr = -EFAULT;
188
189         return -1; /* invalid checksum */
190 }
191
192 static __inline__ unsigned int csum_and_copy_to_user(const char *src, char *dst,
193                                     int len, int sum, int *err_ptr)
194 {
195         if (access_ok(VERIFY_WRITE, dst, len)) {
196                 if (copy_to_user(dst, src, len))
197                         *err_ptr = -EFAULT;
198                 return csum_partial(src, len, sum);
199         }
200
201         if (len)
202                 *err_ptr = -EFAULT;
203
204         return -1; /* invalid checksum */
205 }
206
207 #endif