vserver 1.9.3
[linux-2.6.git] / mm / vmalloc.c
index 16e6f88..4093dea 100644 (file)
@@ -17,7 +17,6 @@
 #include <linux/vmalloc.h>
 
 #include <asm/uaccess.h>
-#include <asm/pgalloc.h>
 #include <asm/tlbflush.h>
 
 
@@ -180,11 +179,26 @@ int map_vm_area(struct vm_struct *area, pgprot_t prot, struct page ***pages)
        return err;
 }
 
+#define IOREMAP_MAX_ORDER      (7 + PAGE_SHIFT)        /* 128 pages */
+
 struct vm_struct *__get_vm_area(unsigned long size, unsigned long flags,
                                unsigned long start, unsigned long end)
 {
        struct vm_struct **p, *tmp, *area;
-       unsigned long addr = start;
+       unsigned long align = 1;
+       unsigned long addr;
+
+       if (flags & VM_IOREMAP) {
+               int bit = fls(size);
+
+               if (bit > IOREMAP_MAX_ORDER)
+                       bit = IOREMAP_MAX_ORDER;
+               else if (bit < PAGE_SHIFT)
+                       bit = PAGE_SHIFT;
+
+               align = 1ul << bit;
+       }
+       addr = ALIGN(start, align);
 
        area = kmalloc(sizeof(*area), GFP_KERNEL);
        if (unlikely(!area))
@@ -200,14 +214,18 @@ struct vm_struct *__get_vm_area(unsigned long size, unsigned long flags,
        }
 
        write_lock(&vmlist_lock);
-       for (p = &vmlist; (tmp = *p) ;p = &tmp->next) {
-               if ((unsigned long)tmp->addr < addr)
+       for (p = &vmlist; (tmp = *p) != NULL ;p = &tmp->next) {
+               if ((unsigned long)tmp->addr < addr) {
+                       if((unsigned long)tmp->addr + tmp->size >= addr)
+                               addr = ALIGN(tmp->size + 
+                                            (unsigned long)tmp->addr, align);
                        continue;
+               }
                if ((size + addr) < addr)
                        goto out;
                if (size + addr <= (unsigned long)tmp->addr)
                        goto found;
-               addr = tmp->size + (unsigned long)tmp->addr;
+               addr = ALIGN(tmp->size + (unsigned long)tmp->addr, align);
                if (addr > end - size)
                        goto out;
        }
@@ -229,6 +247,8 @@ found:
 out:
        write_unlock(&vmlist_lock);
        kfree(area);
+       if (printk_ratelimit())
+               printk(KERN_WARNING "allocation failed: out of vmalloc space - use vmalloc=<size> to increase size.\n");
        return NULL;
 }
 
@@ -261,7 +281,7 @@ struct vm_struct *remove_vm_area(void *addr)
        struct vm_struct **p, *tmp;
 
        write_lock(&vmlist_lock);
-       for (p = &vmlist ; (tmp = *p) ;p = &tmp->next) {
+       for (p = &vmlist ; (tmp = *p) != NULL ;p = &tmp->next) {
                 if (tmp->addr == addr)
                         goto found;
        }
@@ -455,6 +475,28 @@ void *vmalloc(unsigned long size)
 
 EXPORT_SYMBOL(vmalloc);
 
+/**
+ *     vmalloc_exec  -  allocate virtually contiguous, executable memory
+ *
+ *     @size:          allocation size
+ *
+ *     Kernel-internal function to allocate enough pages to cover @size
+ *     the page level allocator and map them into contiguous and
+ *     executable kernel virtual space.
+ *
+ *     For tight cotrol over page level allocator and protection flags
+ *     use __vmalloc() instead.
+ */
+
+#ifndef PAGE_KERNEL_EXEC
+# define PAGE_KERNEL_EXEC PAGE_KERNEL
+#endif
+
+void *vmalloc_exec(unsigned long size)
+{
+       return __vmalloc(size, GFP_KERNEL | __GFP_HIGHMEM, PAGE_KERNEL_EXEC);
+}
+
 /**
  *     vmalloc_32  -  allocate virtually contiguous memory (32bit addressable)
  *