linux 2.6.16.38 w/ vs2.0.3-rc1
[linux-2.6.git] / include / asm-i386 / spinlock.h
index d102036..2360435 100644 (file)
@@ -4,6 +4,7 @@
 #include <asm/atomic.h>
 #include <asm/rwlock.h>
 #include <asm/page.h>
+#include <linux/config.h>
 #include <linux/compiler.h>
 
 /*
@@ -22,7 +23,7 @@
 
 #define __raw_spin_lock_string \
        "\n1:\t" \
-       LOCK_PREFIX " ; decb %0\n\t" \
+       "lock ; decb %0\n\t" \
        "jns 3f\n" \
        "2:\t" \
        "rep;nop\n\t" \
        "jmp 1b\n" \
        "3:\n\t"
 
-/*
- * NOTE: there's an irqs-on section here, which normally would have to be
- * irq-traced, but on CONFIG_TRACE_IRQFLAGS we never use
- * __raw_spin_lock_string_flags().
- */
 #define __raw_spin_lock_string_flags \
        "\n1:\t" \
-       LOCK_PREFIX " ; decb %0\n\t" \
-       "jns 5f\n" \
+       "lock ; decb %0\n\t" \
+       "jns 4f\n\t" \
        "2:\t" \
        "testl $0x200, %1\n\t" \
-       "jz 4f\n\t" \
-       "sti\n" \
+       "jz 3f\n\t" \
+       "sti\n\t" \
        "3:\t" \
        "rep;nop\n\t" \
        "cmpb $0, %0\n\t" \
        "jle 3b\n\t" \
        "cli\n\t" \
        "jmp 1b\n" \
-       "4:\t" \
-       "rep;nop\n\t" \
-       "cmpb $0, %0\n\t" \
-       "jg 1b\n\t" \
-       "jmp 4b\n" \
-       "5:\n\t"
+       "4:\n\t"
 
 static inline void __raw_spin_lock(raw_spinlock_t *lock)
 {
-       asm(__raw_spin_lock_string : "+m" (lock->slock) : : "memory");
+       __asm__ __volatile__(
+               __raw_spin_lock_string
+               :"=m" (lock->slock) : : "memory");
 }
 
-/*
- * It is easier for the lock validator if interrupts are not re-enabled
- * in the middle of a lock-acquire. This is a performance feature anyway
- * so we turn it off:
- */
-#ifndef CONFIG_PROVE_LOCKING
 static inline void __raw_spin_lock_flags(raw_spinlock_t *lock, unsigned long flags)
 {
-       asm(__raw_spin_lock_string_flags : "+m" (lock->slock) : "r" (flags) : "memory");
+       __asm__ __volatile__(
+               __raw_spin_lock_string_flags
+               :"=m" (lock->slock) : "r" (flags) : "memory");
 }
-#endif
 
 static inline int __raw_spin_trylock(raw_spinlock_t *lock)
 {
        char oldval;
        __asm__ __volatile__(
                "xchgb %b0,%1"
-               :"=q" (oldval), "+m" (lock->slock)
+               :"=q" (oldval), "=m" (lock->slock)
                :"0" (0) : "memory");
        return oldval > 0;
 }
@@ -95,7 +83,7 @@ static inline int __raw_spin_trylock(raw_spinlock_t *lock)
 
 #define __raw_spin_unlock_string \
        "movb $1,%0" \
-               :"+m" (lock->slock) : : "memory"
+               :"=m" (lock->slock) : : "memory"
 
 
 static inline void __raw_spin_unlock(raw_spinlock_t *lock)
@@ -109,7 +97,7 @@ static inline void __raw_spin_unlock(raw_spinlock_t *lock)
 
 #define __raw_spin_unlock_string \
        "xchgb %b0, %1" \
-               :"=q" (oldval), "+m" (lock->slock) \
+               :"=q" (oldval), "=m" (lock->slock) \
                :"0" (oldval) : "memory"
 
 static inline void __raw_spin_unlock(raw_spinlock_t *lock)
@@ -190,13 +178,13 @@ static inline int __raw_write_trylock(raw_rwlock_t *lock)
 
 static inline void __raw_read_unlock(raw_rwlock_t *rw)
 {
-       asm volatile(LOCK_PREFIX "incl %0" :"+m" (rw->lock) : : "memory");
+       asm volatile("lock ; incl %0" :"=m" (rw->lock) : : "memory");
 }
 
 static inline void __raw_write_unlock(raw_rwlock_t *rw)
 {
-       asm volatile(LOCK_PREFIX "addl $" RW_LOCK_BIAS_STR ", %0"
-                                : "+m" (rw->lock) : : "memory");
+       asm volatile("lock ; addl $" RW_LOCK_BIAS_STR ", %0"
+                                : "=m" (rw->lock) : : "memory");
 }
 
 #endif /* __ASM_SPINLOCK_H */