sync with trunk
[linux-2.6.git] / linux-2.6-591-chopstix-intern.patch
index 4a3d0fd..5f81751 100644 (file)
@@ -1,7 +1,8 @@
-diff -Nurb linux-2.6.27-590/arch/Kconfig linux-2.6.27-591/arch/Kconfig
---- linux-2.6.27-590/arch/Kconfig      2010-01-29 16:29:46.000000000 -0500
-+++ linux-2.6.27-591/arch/Kconfig      2010-01-29 16:30:22.000000000 -0500
-@@ -13,9 +13,18 @@
+Index: linux-2.6.27.y/arch/Kconfig
+===================================================================
+--- linux-2.6.27.y.orig/arch/Kconfig
++++ linux-2.6.27.y/arch/Kconfig
+@@ -13,9 +13,18 @@ config OPROFILE
  
          If unsure, say N.
  
@@ -20,9 +21,10 @@ diff -Nurb linux-2.6.27-590/arch/Kconfig linux-2.6.27-591/arch/Kconfig
  config KPROBES
        bool "Kprobes"
        depends on KALLSYMS && MODULES
-diff -Nurb linux-2.6.27-590/arch/x86/kernel/asm-offsets_32.c linux-2.6.27-591/arch/x86/kernel/asm-offsets_32.c
---- linux-2.6.27-590/arch/x86/kernel/asm-offsets_32.c  2008-10-09 18:13:53.000000000 -0400
-+++ linux-2.6.27-591/arch/x86/kernel/asm-offsets_32.c  2010-01-29 16:45:48.000000000 -0500
+Index: linux-2.6.27.y/arch/x86/kernel/asm-offsets_32.c
+===================================================================
+--- linux-2.6.27.y.orig/arch/x86/kernel/asm-offsets_32.c
++++ linux-2.6.27.y/arch/x86/kernel/asm-offsets_32.c
 @@ -9,6 +9,7 @@
  #include <linux/signal.h>
  #include <linux/personality.h>
@@ -52,7 +54,7 @@ diff -Nurb linux-2.6.27-590/arch/x86/kernel/asm-offsets_32.c linux-2.6.27-591/ar
  void foo(void)
  {
        OFFSET(IA32_SIGCONTEXT_ax, sigcontext, ax);
-@@ -50,6 +62,16 @@
+@@ -50,6 +62,16 @@ void foo(void)
        OFFSET(CPUINFO_x86_vendor_id, cpuinfo_x86, x86_vendor_id);
        BLANK();
  
@@ -69,10 +71,11 @@ diff -Nurb linux-2.6.27-590/arch/x86/kernel/asm-offsets_32.c linux-2.6.27-591/ar
        OFFSET(TI_task, thread_info, task);
        OFFSET(TI_exec_domain, thread_info, exec_domain);
        OFFSET(TI_flags, thread_info, flags);
-diff -Nurb linux-2.6.27-590/arch/x86/kernel/entry_32.S linux-2.6.27-591/arch/x86/kernel/entry_32.S
---- linux-2.6.27-590/arch/x86/kernel/entry_32.S        2008-10-09 18:13:53.000000000 -0400
-+++ linux-2.6.27-591/arch/x86/kernel/entry_32.S        2010-01-29 16:30:22.000000000 -0500
-@@ -426,6 +426,33 @@
+Index: linux-2.6.27.y/arch/x86/kernel/entry_32.S
+===================================================================
+--- linux-2.6.27.y.orig/arch/x86/kernel/entry_32.S
++++ linux-2.6.27.y/arch/x86/kernel/entry_32.S
+@@ -426,6 +426,33 @@ ENTRY(system_call)
        cmpl $(nr_syscalls), %eax
        jae syscall_badsys
  syscall_call:
@@ -106,10 +109,11 @@ diff -Nurb linux-2.6.27-590/arch/x86/kernel/entry_32.S linux-2.6.27-591/arch/x86
        call *sys_call_table(,%eax,4)
        movl %eax,PT_EAX(%esp)          # store the return value
  syscall_exit:
-diff -Nurb linux-2.6.27-590/arch/x86/mm/fault.c linux-2.6.27-591/arch/x86/mm/fault.c
---- linux-2.6.27-590/arch/x86/mm/fault.c       2010-01-29 16:29:46.000000000 -0500
-+++ linux-2.6.27-591/arch/x86/mm/fault.c       2010-01-29 16:30:22.000000000 -0500
-@@ -79,6 +79,15 @@
+Index: linux-2.6.27.y/arch/x86/mm/fault.c
+===================================================================
+--- linux-2.6.27.y.orig/arch/x86/mm/fault.c
++++ linux-2.6.27.y/arch/x86/mm/fault.c
+@@ -79,6 +79,15 @@ static inline int notify_page_fault(stru
  #endif
  }
  
@@ -125,9 +129,10 @@ diff -Nurb linux-2.6.27-590/arch/x86/mm/fault.c linux-2.6.27-591/arch/x86/mm/fau
  /*
   * X86_32
   * Sometimes AMD Athlon/Opteron CPUs report invalid exceptions on prefetch.
-diff -Nurb linux-2.6.27-590/drivers/oprofile/cpu_buffer.c linux-2.6.27-591/drivers/oprofile/cpu_buffer.c
---- linux-2.6.27-590/drivers/oprofile/cpu_buffer.c     2008-10-09 18:13:53.000000000 -0400
-+++ linux-2.6.27-591/drivers/oprofile/cpu_buffer.c     2010-01-29 16:30:22.000000000 -0500
+Index: linux-2.6.27.y/drivers/oprofile/cpu_buffer.c
+===================================================================
+--- linux-2.6.27.y.orig/drivers/oprofile/cpu_buffer.c
++++ linux-2.6.27.y/drivers/oprofile/cpu_buffer.c
 @@ -21,6 +21,7 @@
  #include <linux/oprofile.h>
  #include <linux/vmalloc.h>
@@ -136,7 +141,7 @@ diff -Nurb linux-2.6.27-590/drivers/oprofile/cpu_buffer.c linux-2.6.27-591/drive
   
  #include "event_buffer.h"
  #include "cpu_buffer.h"
-@@ -147,6 +148,17 @@
+@@ -147,6 +148,17 @@ static void increment_head(struct oprofi
                b->head_pos = 0;
  }
  
@@ -154,7 +159,7 @@ diff -Nurb linux-2.6.27-590/drivers/oprofile/cpu_buffer.c linux-2.6.27-591/drive
  static inline void
  add_sample(struct oprofile_cpu_buffer * cpu_buf,
             unsigned long pc, unsigned long event)
-@@ -155,6 +167,7 @@
+@@ -155,6 +167,7 @@ add_sample(struct oprofile_cpu_buffer * 
        entry->eip = pc;
        entry->event = event;
        increment_head(cpu_buf);
@@ -162,7 +167,7 @@ diff -Nurb linux-2.6.27-590/drivers/oprofile/cpu_buffer.c linux-2.6.27-591/drive
  }
  
  static inline void
-@@ -250,8 +263,28 @@
+@@ -250,8 +263,28 @@ void oprofile_add_sample(struct pt_regs 
  {
        int is_kernel = !user_mode(regs);
        unsigned long pc = profile_pc(regs);
@@ -191,9 +196,10 @@ diff -Nurb linux-2.6.27-590/drivers/oprofile/cpu_buffer.c linux-2.6.27-591/drive
  }
  
  void oprofile_add_pc(unsigned long pc, int is_kernel, unsigned long event)
-diff -Nurb linux-2.6.27-590/fs/bio.c linux-2.6.27-591/fs/bio.c
---- linux-2.6.27-590/fs/bio.c  2008-10-09 18:13:53.000000000 -0400
-+++ linux-2.6.27-591/fs/bio.c  2010-01-29 16:30:22.000000000 -0500
+Index: linux-2.6.27.y/fs/bio.c
+===================================================================
+--- linux-2.6.27.y.orig/fs/bio.c
++++ linux-2.6.27.y/fs/bio.c
 @@ -27,6 +27,7 @@
  #include <linux/workqueue.h>
  #include <linux/blktrace_api.h>
@@ -202,7 +208,7 @@ diff -Nurb linux-2.6.27-590/fs/bio.c linux-2.6.27-591/fs/bio.c
  
  static struct kmem_cache *bio_slab __read_mostly;
  
-@@ -44,6 +45,7 @@
+@@ -44,6 +45,7 @@ static struct biovec_slab bvec_slabs[BIO
  };
  #undef BV
  
@@ -210,7 +216,7 @@ diff -Nurb linux-2.6.27-590/fs/bio.c linux-2.6.27-591/fs/bio.c
  /*
   * fs_bio_set is the bio_set containing bio and iovec memory pools used by
   * IO code that does not need private memory pools.
-@@ -1171,6 +1173,14 @@
+@@ -1171,6 +1173,14 @@ void bio_check_pages_dirty(struct bio *b
        }
  }
  
@@ -225,11 +231,11 @@ diff -Nurb linux-2.6.27-590/fs/bio.c linux-2.6.27-591/fs/bio.c
  /**
   * bio_endio - end I/O on a bio
   * @bio:      bio
-@@ -1192,6 +1202,24 @@
+@@ -1192,6 +1202,24 @@ void bio_endio(struct bio *bio, int erro
        else if (!test_bit(BIO_UPTODATE, &bio->bi_flags))
                error = -EIO;
  
-+#ifdef CONFIG_CHOPSTIX
++#if 0
 +              if (rec_event) {
 +                      struct event event;
 +                      struct event_spec espec;
@@ -250,9 +256,10 @@ diff -Nurb linux-2.6.27-590/fs/bio.c linux-2.6.27-591/fs/bio.c
        if (bio->bi_end_io)
                bio->bi_end_io(bio, error);
  }
-diff -Nurb linux-2.6.27-590/fs/exec.c linux-2.6.27-591/fs/exec.c
---- linux-2.6.27-590/fs/exec.c 2010-01-29 16:29:48.000000000 -0500
-+++ linux-2.6.27-591/fs/exec.c 2010-01-29 16:45:48.000000000 -0500
+Index: linux-2.6.27.y/fs/exec.c
+===================================================================
+--- linux-2.6.27.y.orig/fs/exec.c
++++ linux-2.6.27.y/fs/exec.c
 @@ -27,6 +27,7 @@
  #include <linux/fdtable.h>
  #include <linux/mm.h>
@@ -261,7 +268,7 @@ diff -Nurb linux-2.6.27-590/fs/exec.c linux-2.6.27-591/fs/exec.c
  #include <linux/fcntl.h>
  #include <linux/smp_lock.h>
  #include <linux/swap.h>
-@@ -698,6 +699,13 @@
+@@ -698,6 +699,13 @@ struct file *open_exec(const char *name)
                goto out;
        }
  
@@ -269,15 +276,16 @@ diff -Nurb linux-2.6.27-590/fs/exec.c linux-2.6.27-591/fs/exec.c
 +    unsigned long cookie;
 +    extern void (*rec_event)(void *, unsigned int);
 +    if (rec_event && !nd.path.dentry->d_cookie)
-+        get_dcookie(nd.path.dentry, nd.path.mnt, &cookie);
++        get_dcookie(&nd.path, &cookie);
 + #endif
 +
        return file;
  
   out_path_put:
-diff -Nurb linux-2.6.27-590/include/linux/arrays.h linux-2.6.27-591/include/linux/arrays.h
---- linux-2.6.27-590/include/linux/arrays.h    1969-12-31 19:00:00.000000000 -0500
-+++ linux-2.6.27-591/include/linux/arrays.h    2010-01-29 16:30:22.000000000 -0500
+Index: linux-2.6.27.y/include/linux/arrays.h
+===================================================================
+--- /dev/null
++++ linux-2.6.27.y/include/linux/arrays.h
 @@ -0,0 +1,36 @@
 +#ifndef __ARRAYS_H__
 +#define __ARRAYS_H__
@@ -315,32 +323,26 @@ diff -Nurb linux-2.6.27-590/include/linux/arrays.h linux-2.6.27-591/include/linu
 +      struct task_struct *task;
 +};
 +#endif
-diff -Nurb linux-2.6.27-590/include/linux/sched.h.rej linux-2.6.27-591/include/linux/sched.h.rej
---- linux-2.6.27-590/include/linux/sched.h.rej 1969-12-31 19:00:00.000000000 -0500
-+++ linux-2.6.27-591/include/linux/sched.h.rej 2010-01-29 16:30:22.000000000 -0500
-@@ -0,0 +1,19 @@
-+***************
-+*** 850,855 ****
-+  #endif
-+      unsigned long sleep_avg;
-+      unsigned long long timestamp, last_ran;
-+      unsigned long long sched_time; /* sched_clock time spent running */
-+      enum sleep_type sleep_type;
-+  
-+--- 850,859 ----
-+  #endif
-+      unsigned long sleep_avg;
-+      unsigned long long timestamp, last_ran;
-++ #ifdef CONFIG_CHOPSTIX
-++     unsigned long last_interrupted, last_ran_j;
-++ #endif
-++ 
-+      unsigned long long sched_time; /* sched_clock time spent running */
-+      enum sleep_type sleep_type;
-+  
-diff -Nurb linux-2.6.27-590/kernel/sched.c linux-2.6.27-591/kernel/sched.c
---- linux-2.6.27-590/kernel/sched.c    2010-01-29 16:29:48.000000000 -0500
-+++ linux-2.6.27-591/kernel/sched.c    2010-01-29 16:30:22.000000000 -0500
+Index: linux-2.6.27.y/include/linux/sched.h
+===================================================================
+--- linux-2.6.27.y.orig/include/linux/sched.h
++++ linux-2.6.27.y/include/linux/sched.h
+@@ -1137,6 +1137,11 @@ struct task_struct {
+       cputime_t utime, stime, utimescaled, stimescaled;
+       cputime_t gtime;
+       cputime_t prev_utime, prev_stime;
++
++    #ifdef CONFIG_CHOPSTIX
++            unsigned long last_interrupted, last_ran_j;
++    #endif
++
+       unsigned long nvcsw, nivcsw; /* context switch counts */
+       struct timespec start_time;             /* monotonic time */
+       struct timespec real_start_time;        /* boot based time */
+Index: linux-2.6.27.y/kernel/sched.c
+===================================================================
+--- linux-2.6.27.y.orig/kernel/sched.c
++++ linux-2.6.27.y/kernel/sched.c
 @@ -10,7 +10,7 @@
   *  1998-11-19        Implemented schedule_timeout() and related stuff
   *            by Andrea Arcangeli
@@ -350,7 +352,14 @@ diff -Nurb linux-2.6.27-590/kernel/sched.c linux-2.6.27-591/kernel/sched.c
   *            an array-switch method of distributing timeslices
   *            and per-CPU runqueues.  Cleanups and useful suggestions
   *            by Davide Libenzi, preemptible kernel bits by Robert Love.
-@@ -79,6 +79,9 @@
+@@ -73,12 +73,16 @@
+ #include <linux/ftrace.h>
+ #include <linux/vs_sched.h>
+ #include <linux/vs_cvirt.h>
++#include <linux/arrays.h>
+ #include <asm/tlb.h>
+ #include <asm/irq_regs.h>
  
  #include "sched_cpupri.h"
  
@@ -360,7 +369,110 @@ diff -Nurb linux-2.6.27-590/kernel/sched.c linux-2.6.27-591/kernel/sched.c
  /*
   * Convert user-nice values [ -20 ... 0 ... 19 ]
   * to static priority [ MAX_RT_PRIO..MAX_PRIO-1 ],
-@@ -5369,6 +5372,7 @@
+@@ -2376,6 +2380,10 @@ static void __sched_fork(struct task_str
+       INIT_HLIST_HEAD(&p->preempt_notifiers);
+ #endif
++#ifdef CONFIG_CHOPSTIX
++    p->last_ran_j = jiffies;
++    p->last_interrupted = INTERRUPTIBLE;
++#endif
+       /*
+        * We mark the process as running here, but have not actually
+        * inserted it onto the runqueue yet. This guarantees that
+@@ -4436,6 +4444,29 @@ pick_next_task(struct rq *rq, struct tas
+       }
+ }
++void (*rec_event)(void *,unsigned int) = NULL;
++EXPORT_SYMBOL(rec_event);
++#ifdef CONFIG_CHOPSTIX
++
++struct event_spec {
++    unsigned long pc;
++    unsigned long dcookie;
++    unsigned int count;
++    unsigned int reason;
++};
++
++/* To support safe calling from asm */
++asmlinkage void rec_event_asm (struct event *event_signature_in, unsigned int count) {
++    struct pt_regs *regs;
++    struct event_spec *es = event_signature_in->event_data;
++    regs = task_pt_regs(current);
++    event_signature_in->task=current;
++    es->pc=regs->ip;
++    event_signature_in->count=1;
++    (*rec_event)(event_signature_in, count);
++}
++#endif
++
+ /*
+  * schedule() is the main scheduler function.
+  */
+@@ -4495,6 +4526,61 @@ need_resched_nonpreemptible:
+       next = pick_next_task(rq, prev);
+       if (likely(prev != next)) {
++
++#ifdef CONFIG_CHOPSTIX
++      /* Run only if the Chopstix module so decrees it */
++      if (rec_event) {
++        unsigned long diff;
++        int sampling_reason;
++              prev->last_ran_j = jiffies;
++              if (next->last_interrupted!=INTERRUPTIBLE) {
++                      if (next->last_interrupted!=RUNNING) {
++                              diff = (jiffies-next->last_interrupted);
++                              sampling_reason = 0;/* BLOCKING */
++                      }
++                      else {
++                              diff = jiffies-next->last_ran_j; 
++                              sampling_reason = 1;/* PREEMPTION */
++                      }
++
++                      if (diff >= HZ/10) {
++                struct event_spec {
++                   unsigned long pc;
++                   unsigned long dcookie;
++                   unsigned int count;
++                   unsigned int reason;
++                };
++
++                              struct event event;
++                              struct event_spec espec;
++                struct pt_regs *regs;
++                regs = task_pt_regs(current);
++
++                              espec.reason = sampling_reason;
++                              event.event_data=&espec;
++                              event.task=next;
++                              espec.pc=regs->ip;
++                              event.event_type=2; 
++                              /* index in the event array currently set up */
++                              /* make sure the counters are loaded in the order we want them to show up*/ 
++                              (*rec_event)(&event, diff);
++                      }
++              }
++        /* next has been elected to run */
++              next->last_interrupted=0;
++
++        /* An uninterruptible process just yielded. Record the current jiffy */
++        if (prev->state & TASK_UNINTERRUPTIBLE) {
++            prev->last_interrupted=jiffies;
++        }
++         /* An interruptible process just yielded, or it got preempted. 
++          * Mark it as interruptible */
++        else if (prev->state & TASK_INTERRUPTIBLE) {
++            prev->last_interrupted=INTERRUPTIBLE;
++        }
++      }
++#endif
++
+               sched_info_switch(prev, next);
+               rq->nr_switches++;
+@@ -5382,6 +5468,7 @@ long sched_setaffinity(pid_t pid, const 
        get_task_struct(p);
        read_unlock(&tasklist_lock);
  
@@ -368,271 +480,10 @@ diff -Nurb linux-2.6.27-590/kernel/sched.c linux-2.6.27-591/kernel/sched.c
        retval = -EPERM;
        if ((current->euid != p->euid) && (current->euid != p->uid) &&
                        !capable(CAP_SYS_NICE))
-diff -Nurb linux-2.6.27-590/kernel/sched.c.rej linux-2.6.27-591/kernel/sched.c.rej
---- linux-2.6.27-590/kernel/sched.c.rej        1969-12-31 19:00:00.000000000 -0500
-+++ linux-2.6.27-591/kernel/sched.c.rej        2010-01-29 16:30:22.000000000 -0500
-@@ -0,0 +1,258 @@
-+***************
-+*** 23,28 ****
-+  #include <linux/nmi.h>
-+  #include <linux/init.h>
-+  #include <asm/uaccess.h>
-+  #include <linux/highmem.h>
-+  #include <linux/smp_lock.h>
-+  #include <asm/mmu_context.h>
-+--- 23,29 ----
-+  #include <linux/nmi.h>
-+  #include <linux/init.h>
-+  #include <asm/uaccess.h>
-++ #include <linux/arrays.h>
-+  #include <linux/highmem.h>
-+  #include <linux/smp_lock.h>
-+  #include <asm/mmu_context.h>
-+***************
-+*** 451,456 ****
-+  
-+  repeat_lock_task:
-+      rq = task_rq(p);
-+      spin_lock(&rq->lock);
-+      if (unlikely(rq != task_rq(p))) {
-+              spin_unlock(&rq->lock);
-+--- 455,461 ----
-+  
-+  repeat_lock_task:
-+      rq = task_rq(p);
-++ 
-+      spin_lock(&rq->lock);
-+      if (unlikely(rq != task_rq(p))) {
-+              spin_unlock(&rq->lock);
-+***************
-+*** 1761,1766 ****
-+       * event cannot wake it up and insert it on the runqueue either.
-+       */
-+      p->state = TASK_RUNNING;
-+  
-+      /*
-+       * Make sure we do not leak PI boosting priority to the child:
-+--- 1766,1786 ----
-+       * event cannot wake it up and insert it on the runqueue either.
-+       */
-+      p->state = TASK_RUNNING;
-++ #ifdef CONFIG_CHOPSTIX
-++     /* The jiffy of last interruption */
-++     if (p->state & TASK_UNINTERRUPTIBLE) {
-++                             p->last_interrupted=jiffies;
-++     }
-++     else
-++     if (p->state & TASK_INTERRUPTIBLE) {
-++                             p->last_interrupted=INTERRUPTIBLE;
-++     }
-++     else
-++         p->last_interrupted=RUNNING;
-++ 
-++     /* The jiffy of last execution */ 
-++     p->last_ran_j=jiffies;
-++ #endif
-+  
-+      /*
-+       * Make sure we do not leak PI boosting priority to the child:
-+***************
-+*** 3628,3633 ****
-+  
-+  #endif
-+  
-+  static inline int interactive_sleep(enum sleep_type sleep_type)
-+  {
-+      return (sleep_type == SLEEP_INTERACTIVE ||
-+--- 3648,3654 ----
-+  
-+  #endif
-+  
-++ 
-+  static inline int interactive_sleep(enum sleep_type sleep_type)
-+  {
-+      return (sleep_type == SLEEP_INTERACTIVE ||
-+***************
-+*** 3637,3652 ****
-+  /*
-+   * schedule() is the main scheduler function.
-+   */
-+  asmlinkage void __sched schedule(void)
-+  {
-+      struct task_struct *prev, *next;
-+      struct prio_array *array;
-+      struct list_head *queue;
-+      unsigned long long now;
-+-     unsigned long run_time;
-+      int cpu, idx, new_prio;
-+      long *switch_count;
-+      struct rq *rq;
-+  
-+      /*
-+       * Test if we are atomic.  Since do_exit() needs to call into
-+--- 3658,3685 ----
-+  /*
-+   * schedule() is the main scheduler function.
-+   */
-++ 
-++ #ifdef CONFIG_CHOPSTIX
-++ extern void (*rec_event)(void *,unsigned int);
-++ struct event_spec {
-++     unsigned long pc;
-++     unsigned long dcookie;
-++     unsigned int count;
-++     unsigned int reason;
-++ };
-++ #endif
-++ 
-+  asmlinkage void __sched schedule(void)
-+  {
-+      struct task_struct *prev, *next;
-+      struct prio_array *array;
-+      struct list_head *queue;
-+      unsigned long long now;
-++     unsigned long run_time, diff;
-+      int cpu, idx, new_prio;
-+      long *switch_count;
-+      struct rq *rq;
-++     int sampling_reason;
-+  
-+      /*
-+       * Test if we are atomic.  Since do_exit() needs to call into
-+***************
-+*** 3700,3705 ****
-+      switch_count = &prev->nivcsw;
-+      if (prev->state && !(preempt_count() & PREEMPT_ACTIVE)) {
-+              switch_count = &prev->nvcsw;
-+              if (unlikely((prev->state & TASK_INTERRUPTIBLE) &&
-+                              unlikely(signal_pending(prev))))
-+                      prev->state = TASK_RUNNING;
-+--- 3733,3739 ----
-+      switch_count = &prev->nivcsw;
-+      if (prev->state && !(preempt_count() & PREEMPT_ACTIVE)) {
-+              switch_count = &prev->nvcsw;
-++ 
-+              if (unlikely((prev->state & TASK_INTERRUPTIBLE) &&
-+                              unlikely(signal_pending(prev))))
-+                      prev->state = TASK_RUNNING;
-+***************
-+*** 3709,3714 ****
-+                              vx_uninterruptible_inc(prev);
-+                      }
-+                      deactivate_task(prev, rq);
-+              }
-+      }
-+  
-+--- 3743,3759 ----
-+                              vx_uninterruptible_inc(prev);
-+                      }
-+                      deactivate_task(prev, rq);
-++ #ifdef CONFIG_CHOPSTIX
-++             /* An uninterruptible process just yielded. Record the current jiffie */
-++                     if (prev->state & TASK_UNINTERRUPTIBLE) {
-++                             prev->last_interrupted=jiffies;
-++                     }
-++             /* An interruptible process just yielded, or it got preempted. 
-++              * Mark it as interruptible */
-++                     else if (prev->state & TASK_INTERRUPTIBLE) {
-++                             prev->last_interrupted=INTERRUPTIBLE;
-++                     }
-++ #endif
-+              }
-+      }
-+  
-+***************
-+*** 3785,3790 ****
-+              prev->sleep_avg = 0;
-+      prev->timestamp = prev->last_ran = now;
-+  
-+      sched_info_switch(prev, next);
-+      if (likely(prev != next)) {
-+              next->timestamp = next->last_ran = now;
-+--- 3830,3869 ----
-+              prev->sleep_avg = 0;
-+      prev->timestamp = prev->last_ran = now;
-+  
-++ #ifdef CONFIG_CHOPSTIX
-++     /* Run only if the Chopstix module so decrees it */
-++     if (rec_event) {
-++             prev->last_ran_j = jiffies;
-++             if (next->last_interrupted!=INTERRUPTIBLE) {
-++                     if (next->last_interrupted!=RUNNING) {
-++                             diff = (jiffies-next->last_interrupted);
-++                             sampling_reason = 0;/* BLOCKING */
-++                     }
-++                     else {
-++                             diff = jiffies-next->last_ran_j; 
-++                             sampling_reason = 1;/* PREEMPTION */
-++                     }
-++ 
-++                     if (diff >= HZ/10) {
-++                             struct event event;
-++                             struct event_spec espec;
-++                 struct pt_regs *regs;
-++                 regs = task_pt_regs(current);
-++ 
-++                             espec.reason = sampling_reason;
-++                             event.event_data=&espec;
-++                             event.task=next;
-++                             espec.pc=regs->ip;
-++                             event.event_type=2; 
-++                             /* index in the event array currently set up */
-++                             /* make sure the counters are loaded in the order we want them to show up*/ 
-++                             (*rec_event)(&event, diff);
-++                     }
-++             }
-++         /* next has been elected to run */
-++             next->last_interrupted=0;
-++     }
-++ #endif
-+      sched_info_switch(prev, next);
-+      if (likely(prev != next)) {
-+              next->timestamp = next->last_ran = now;
-+***************
-+*** 5737,5742 ****
-+      jiffies_to_timespec(p->policy == SCHED_FIFO ?
-+                              0 : task_timeslice(p), &t);
-+      read_unlock(&tasklist_lock);
-+      retval = copy_to_user(interval, &t, sizeof(t)) ? -EFAULT : 0;
-+  out_nounlock:
-+      return retval;
-+--- 5817,5823 ----
-+      jiffies_to_timespec(p->policy == SCHED_FIFO ?
-+                              0 : task_timeslice(p), &t);
-+      read_unlock(&tasklist_lock);
-++ 
-+      retval = copy_to_user(interval, &t, sizeof(t)) ? -EFAULT : 0;
-+  out_nounlock:
-+      return retval;
-+***************
-+*** 7980,7982 ****
-+  }
-+  
-+  #endif
-+--- 8061,8080 ----
-+  }
-+  
-+  #endif
-++ 
-++ #ifdef CONFIG_CHOPSTIX
-++ void (*rec_event)(void *,unsigned int) = NULL;
-++ 
-++ /* To support safe calling from asm */
-++ asmlinkage void rec_event_asm (struct event *event_signature_in, unsigned int count) {
-++     struct pt_regs *regs;
-++     struct event_spec *es = event_signature_in->event_data;
-++     regs = task_pt_regs(current);
-++     event_signature_in->task=current;
-++     es->pc=regs->ip;
-++     event_signature_in->count=1;
-++     (*rec_event)(event_signature_in, count);
-++ }
-++ EXPORT_SYMBOL(rec_event);
-++ EXPORT_SYMBOL(in_sched_functions);
-++ #endif
-diff -Nurb linux-2.6.27-590/mm/memory.c linux-2.6.27-591/mm/memory.c
---- linux-2.6.27-590/mm/memory.c       2010-01-29 16:29:48.000000000 -0500
-+++ linux-2.6.27-591/mm/memory.c       2010-01-29 16:30:22.000000000 -0500
+Index: linux-2.6.27.y/mm/memory.c
+===================================================================
+--- linux-2.6.27.y.orig/mm/memory.c
++++ linux-2.6.27.y/mm/memory.c
 @@ -61,6 +61,7 @@
  
  #include <linux/swapops.h>
@@ -641,7 +492,7 @@ diff -Nurb linux-2.6.27-590/mm/memory.c linux-2.6.27-591/mm/memory.c
  
  #include "internal.h"
  
-@@ -2690,6 +2691,15 @@
+@@ -2753,6 +2754,15 @@ out:
        return ret;
  }
  
@@ -657,7 +508,7 @@ diff -Nurb linux-2.6.27-590/mm/memory.c linux-2.6.27-591/mm/memory.c
  /*
   * By the time we get here, we already hold the mm semaphore
   */
-@@ -2719,6 +2729,24 @@
+@@ -2782,6 +2792,24 @@ int handle_mm_fault(struct mm_struct *mm
        if (!pte)
                return VM_FAULT_OOM;
  
@@ -682,9 +533,10 @@ diff -Nurb linux-2.6.27-590/mm/memory.c linux-2.6.27-591/mm/memory.c
        return handle_pte_fault(mm, vma, address, pte, pmd, write_access);
  }
  
-diff -Nurb linux-2.6.27-590/mm/slab.c linux-2.6.27-591/mm/slab.c
---- linux-2.6.27-590/mm/slab.c 2010-01-29 16:29:48.000000000 -0500
-+++ linux-2.6.27-591/mm/slab.c 2010-01-29 16:30:22.000000000 -0500
+Index: linux-2.6.27.y/mm/slab.c
+===================================================================
+--- linux-2.6.27.y.orig/mm/slab.c
++++ linux-2.6.27.y/mm/slab.c
 @@ -110,6 +110,7 @@
  #include      <linux/fault-inject.h>
  #include      <linux/rtmutex.h>
@@ -693,7 +545,7 @@ diff -Nurb linux-2.6.27-590/mm/slab.c linux-2.6.27-591/mm/slab.c
  #include      <linux/debugobjects.h>
  
  #include      <asm/cacheflush.h>
-@@ -248,6 +249,14 @@
+@@ -248,6 +249,14 @@ struct slab_rcu {
        void *addr;
  };
  
@@ -708,7 +560,7 @@ diff -Nurb linux-2.6.27-590/mm/slab.c linux-2.6.27-591/mm/slab.c
  /*
   * struct array_cache
   *
-@@ -3469,6 +3478,19 @@
+@@ -3469,6 +3478,19 @@ __cache_alloc(struct kmem_cache *cachep,
        local_irq_restore(save_flags);
        objp = cache_alloc_debugcheck_after(cachep, flags, objp, caller);
        prefetchw(objp);
@@ -728,7 +580,7 @@ diff -Nurb linux-2.6.27-590/mm/slab.c linux-2.6.27-591/mm/slab.c
  
        if (unlikely((flags & __GFP_ZERO) && objp))
                memset(objp, 0, obj_size(cachep));
-@@ -3578,12 +3600,26 @@
+@@ -3578,12 +3600,26 @@ free_done:
   * Release an obj back to its cache. If the obj has a constructed state, it must
   * be in this state _before_ it is released.  Called with disabled ints.
   */
@@ -757,7 +609,7 @@ diff -Nurb linux-2.6.27-590/mm/slab.c linux-2.6.27-591/mm/slab.c
        vx_slab_free(cachep);
  
        /*
-@@ -3714,6 +3750,7 @@
+@@ -3714,6 +3750,7 @@ static __always_inline void *__do_kmallo
                                          void *caller)
  {
        struct kmem_cache *cachep;
@@ -765,7 +617,7 @@ diff -Nurb linux-2.6.27-590/mm/slab.c linux-2.6.27-591/mm/slab.c
  
        /* If you want to save a few bytes .text space: replace
         * __ with kmem_.
-@@ -3741,10 +3778,17 @@
+@@ -3741,10 +3778,17 @@ void *__kmalloc_track_caller(size_t size
  EXPORT_SYMBOL(__kmalloc_track_caller);
  
  #else
@@ -783,7 +635,7 @@ diff -Nurb linux-2.6.27-590/mm/slab.c linux-2.6.27-591/mm/slab.c
  EXPORT_SYMBOL(__kmalloc);
  #endif
  
-@@ -3764,7 +3808,7 @@
+@@ -3764,7 +3808,7 @@ void kmem_cache_free(struct kmem_cache *
        debug_check_no_locks_freed(objp, obj_size(cachep));
        if (!(cachep->flags & SLAB_DEBUG_OBJECTS))
                debug_check_no_obj_freed(objp, obj_size(cachep));
@@ -792,7 +644,7 @@ diff -Nurb linux-2.6.27-590/mm/slab.c linux-2.6.27-591/mm/slab.c
        local_irq_restore(flags);
  }
  EXPORT_SYMBOL(kmem_cache_free);
-@@ -3790,7 +3834,7 @@
+@@ -3790,7 +3834,7 @@ void kfree(const void *objp)
        c = virt_to_cache(objp);
        debug_check_no_locks_freed(objp, obj_size(c));
        debug_check_no_obj_freed(objp, obj_size(c));