This commit was generated by cvs2svn to compensate for changes in r925,
[linux-2.6.git] / include / asm-xen / asm-x86_64 / synch_bitops.h
1 #ifndef __XEN_SYNCH_BITOPS_H__
2 #define __XEN_SYNCH_BITOPS_H__
3
4 /*
5  * Copyright 1992, Linus Torvalds.
6  * Heavily modified to provide guaranteed strong synchronisation
7  * when communicating with Xen or other guest OSes running on other CPUs.
8  * 
9  * Copyed from asm-xen/asm-i386
10  */
11
12 #include <linux/config.h>
13
14 #define ADDR (*(volatile long *) addr)
15
16 static __inline__ void synch_set_bit(int nr, volatile void * addr)
17 {
18     __asm__ __volatile__ ( 
19         "lock btsl %1,%0"
20         : "=m" (ADDR) : "Ir" (nr) : "memory" );
21 }
22
23 static __inline__ void synch_clear_bit(int nr, volatile void * addr)
24 {
25     __asm__ __volatile__ (
26         "lock btrl %1,%0"
27         : "=m" (ADDR) : "Ir" (nr) : "memory" );
28 }
29
30 static __inline__ void synch_change_bit(int nr, volatile void * addr)
31 {
32     __asm__ __volatile__ (
33         "lock btcl %1,%0"
34         : "=m" (ADDR) : "Ir" (nr) : "memory" );
35 }
36
37 static __inline__ int synch_test_and_set_bit(int nr, volatile void * addr)
38 {
39     int oldbit;
40     __asm__ __volatile__ (
41         "lock btsl %2,%1\n\tsbbl %0,%0"
42         : "=r" (oldbit), "=m" (ADDR) : "Ir" (nr) : "memory");
43     return oldbit;
44 }
45
46 static __inline__ int synch_test_and_clear_bit(int nr, volatile void * addr)
47 {
48     int oldbit;
49     __asm__ __volatile__ (
50         "lock btrl %2,%1\n\tsbbl %0,%0"
51         : "=r" (oldbit), "=m" (ADDR) : "Ir" (nr) : "memory");
52     return oldbit;
53 }
54
55 static __inline__ int synch_test_and_change_bit(int nr, volatile void * addr)
56 {
57     int oldbit;
58
59     __asm__ __volatile__ (
60         "lock btcl %2,%1\n\tsbbl %0,%0"
61         : "=r" (oldbit), "=m" (ADDR) : "Ir" (nr) : "memory");
62     return oldbit;
63 }
64
65 static __inline__ int synch_const_test_bit(int nr, const volatile void * addr)
66 {
67     return ((1UL << (nr & 31)) & 
68             (((const volatile unsigned int *) addr)[nr >> 5])) != 0;
69 }
70
71 static __inline__ int synch_var_test_bit(int nr, volatile void * addr)
72 {
73     int oldbit;
74     __asm__ __volatile__ (
75         "btl %2,%1\n\tsbbl %0,%0"
76         : "=r" (oldbit) : "m" (ADDR), "Ir" (nr) );
77     return oldbit;
78 }
79
80 #define synch_test_bit(nr,addr) \
81 (__builtin_constant_p(nr) ? \
82  synch_const_test_bit((nr),(addr)) : \
83  synch_var_test_bit((nr),(addr)))
84
85 #endif /* __XEN_SYNCH_BITOPS_H__ */