Merge branch 'mainstream'
[sliver-openvswitch.git] / datapath / linux / compat / hash-x86.c
1 /*
2  * Some portions derived from code covered by the following notice:
3  *
4  * Copyright (c) 2010-2013 Intel Corporation. All rights reserved.
5  * All rights reserved.
6  *
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  *
11  *   * Redistributions of source code must retain the above copyright
12  *     notice, this list of conditions and the following disclaimer.
13  *   * Redistributions in binary form must reproduce the above copyright
14  *     notice, this list of conditions and the following disclaimer in
15  *     the documentation and/or other materials provided with the
16  *     distribution.
17  *   * Neither the name of Intel Corporation nor the names of its
18  *     contributors may be used to endorse or promote products derived
19  *     from this software without specific prior written permission.
20  *
21  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
22  * "AS IS" AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
23  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR
24  * A PARTICULAR PURPOSE ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT
25  * OWNER OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL,
26  * SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT
27  * LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
28  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
29  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
30  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE
31  * OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
32  */
33
34 #include <linux/version.h>
35 #if LINUX_VERSION_CODE < KERNEL_VERSION(3,14,0)
36
37 #ifdef CONFIG_X86
38
39 #include <linux/hash.h>
40
41 #include <asm/processor.h>
42 #include <asm/cpufeature.h>
43
44 static inline u32 crc32_u32(u32 crc, u32 val)
45 {
46         asm ("crc32l %1,%0\n" : "+r" (crc) : "rm" (val));
47         return crc;
48 }
49
50 static u32 intel_crc4_2_hash(const void *data, u32 len, u32 seed)
51 {
52         const u32 *p32 = (const u32 *) data;
53         u32 i, tmp = 0;
54
55         for (i = 0; i < len / 4; i++)
56                 seed = crc32_u32(*p32++, seed);
57
58         switch (3 - (len & 0x03)) {
59         case 0:
60                 tmp |= *((const u8 *) p32 + 2) << 16;
61                 /* fallthrough */
62         case 1:
63                 tmp |= *((const u8 *) p32 + 1) << 8;
64                 /* fallthrough */
65         case 2:
66                 tmp |= *((const u8 *) p32);
67                 seed = crc32_u32(tmp, seed);
68         default:
69                 break;
70         }
71
72         return seed;
73 }
74
75 static u32 intel_crc4_2_hash2(const u32 *data, u32 len, u32 seed)
76 {
77         const u32 *p32 = (const u32 *) data;
78         u32 i;
79
80         for (i = 0; i < len; i++)
81                 seed = crc32_u32(*p32++, seed);
82
83         return seed;
84 }
85
86 void setup_arch_fast_hash(struct fast_hash_ops *ops)
87 {
88         if (cpu_has_xmm4_2) {
89                 ops->hash  = intel_crc4_2_hash;
90                 ops->hash2 = intel_crc4_2_hash2;
91         }
92 }
93
94 #endif /* CONFIG_X86 */
95 #endif /* < 3.14 */