fedora core 6 1.2949 + vserver 2.2.0
[linux-2.6.git] / mm / slob.c
index a1f42bd..5adc29c 100644 (file)
--- a/mm/slob.c
+++ b/mm/slob.c
@@ -29,7 +29,6 @@
  * essentially no allocation space overhead.
  */
 
-#include <linux/config.h>
 #include <linux/slab.h>
 #include <linux/mm.h>
 #include <linux/cache.h>
@@ -61,6 +60,8 @@ static DEFINE_SPINLOCK(slob_lock);
 static DEFINE_SPINLOCK(block_lock);
 
 static void slob_free(void *b, int size);
+static void slob_timer_cbk(void);
+
 
 static void *slob_alloc(size_t size, gfp_t gfp, int align)
 {
@@ -158,7 +159,7 @@ static int fastcall find_order(int size)
        return order;
 }
 
-void *kmalloc(size_t size, gfp_t gfp)
+void *__kmalloc(size_t size, gfp_t gfp)
 {
        slob_t *m;
        bigblock_t *bb;
@@ -187,8 +188,7 @@ void *kmalloc(size_t size, gfp_t gfp)
        slob_free(bb, sizeof(bigblock_t));
        return 0;
 }
-
-EXPORT_SYMBOL(kmalloc);
+EXPORT_SYMBOL(__kmalloc);
 
 void kfree(const void *block)
 {
@@ -271,10 +271,9 @@ struct kmem_cache *kmem_cache_create(const char *name, size_t size,
 }
 EXPORT_SYMBOL(kmem_cache_create);
 
-int kmem_cache_destroy(struct kmem_cache *c)
+void kmem_cache_destroy(struct kmem_cache *c)
 {
        slob_free(c, sizeof(struct kmem_cache));
-       return 0;
 }
 EXPORT_SYMBOL(kmem_cache_destroy);
 
@@ -294,6 +293,16 @@ void *kmem_cache_alloc(struct kmem_cache *c, gfp_t flags)
 }
 EXPORT_SYMBOL(kmem_cache_alloc);
 
+void *kmem_cache_zalloc(struct kmem_cache *c, gfp_t flags)
+{
+       void *ret = kmem_cache_alloc(c, flags);
+       if (ret)
+               memset(ret, 0, c->size);
+
+       return ret;
+}
+EXPORT_SYMBOL(kmem_cache_zalloc);
+
 void kmem_cache_free(struct kmem_cache *c, void *b)
 {
        if (c->dtor)
@@ -319,67 +328,30 @@ const char *kmem_cache_name(struct kmem_cache *c)
 EXPORT_SYMBOL(kmem_cache_name);
 
 static struct timer_list slob_timer = TIMER_INITIALIZER(
-       (void (*)(unsigned long))kmem_cache_init, 0, 0);
+       (void (*)(unsigned long))slob_timer_cbk, 0, 0);
 
-void kmem_cache_init(void)
+int kmem_cache_shrink(struct kmem_cache *d)
 {
-       void *p = slob_alloc(PAGE_SIZE, 0, PAGE_SIZE-1);
-
-       if (p)
-               free_page((unsigned long)p);
-
-       mod_timer(&slob_timer, jiffies + HZ);
+       return 0;
 }
+EXPORT_SYMBOL(kmem_cache_shrink);
 
-atomic_t slab_reclaim_pages = ATOMIC_INIT(0);
-EXPORT_SYMBOL(slab_reclaim_pages);
-
-#ifdef CONFIG_SMP
-
-void *__alloc_percpu(size_t size)
+int kmem_ptr_validate(struct kmem_cache *a, const void *b)
 {
-       int i;
-       struct percpu_data *pdata = kmalloc(sizeof (*pdata), GFP_KERNEL);
-
-       if (!pdata)
-               return NULL;
-
-       for (i = 0; i < NR_CPUS; i++) {
-               if (!cpu_possible(i))
-                       continue;
-               pdata->ptrs[i] = kmalloc(size, GFP_KERNEL);
-               if (!pdata->ptrs[i])
-                       goto unwind_oom;
-               memset(pdata->ptrs[i], 0, size);
-       }
-
-       /* Catch derefs w/o wrappers */
-       return (void *) (~(unsigned long) pdata);
+       return 0;
+}
 
-unwind_oom:
-       while (--i >= 0) {
-               if (!cpu_possible(i))
-                       continue;
-               kfree(pdata->ptrs[i]);
-       }
-       kfree(pdata);
-       return NULL;
+void __init kmem_cache_init(void)
+{
+       slob_timer_cbk();
 }
-EXPORT_SYMBOL(__alloc_percpu);
 
-void
-free_percpu(const void *objp)
+static void slob_timer_cbk(void)
 {
-       int i;
-       struct percpu_data *p = (struct percpu_data *) (~(unsigned long) objp);
+       void *p = slob_alloc(PAGE_SIZE, 0, PAGE_SIZE-1);
 
-       for (i = 0; i < NR_CPUS; i++) {
-               if (!cpu_possible(i))
-                       continue;
-               kfree(p->ptrs[i]);
-       }
-       kfree(p);
-}
-EXPORT_SYMBOL(free_percpu);
+       if (p)
+               free_page((unsigned long)p);
 
-#endif
+       mod_timer(&slob_timer, jiffies + HZ);
+}