linux 2.6.16.38 w/ vs2.0.3-rc1
[linux-2.6.git] / arch / ia64 / mm / init.c
index 95f3209..b38b6d2 100644 (file)
@@ -109,7 +109,6 @@ lazy_mmu_prot_update (pte_t pte)
 {
        unsigned long addr;
        struct page *page;
-       unsigned long order;
 
        if (!pte_exec(pte))
                return;                         /* not an executable page... */
@@ -120,12 +119,7 @@ lazy_mmu_prot_update (pte_t pte)
        if (test_bit(PG_arch_1, &page->flags))
                return;                         /* i-cache is already coherent with d-cache */
 
-       if (PageCompound(page)) {
-               order = (unsigned long) (page[1].lru.prev);
-               flush_icache_range(addr, addr + (1UL << order << PAGE_SHIFT));
-       }
-       else
-               flush_icache_range(addr, addr + PAGE_SIZE);
+       flush_icache_range(addr, addr + PAGE_SIZE);
        set_bit(PG_arch_1, &page->flags);       /* mark page as clean */
 }
 
@@ -203,7 +197,7 @@ free_initmem (void)
        eaddr = (unsigned long) ia64_imva(__init_end);
        while (addr < eaddr) {
                ClearPageReserved(virt_to_page(addr));
-               init_page_count(virt_to_page(addr));
+               set_page_count(virt_to_page(addr), 1);
                free_page(addr);
                ++totalram_pages;
                addr += PAGE_SIZE;
@@ -212,7 +206,7 @@ free_initmem (void)
               (__init_end - __init_begin) >> 10);
 }
 
-void __init
+void
 free_initrd_mem (unsigned long start, unsigned long end)
 {
        struct page *page;
@@ -258,23 +252,16 @@ free_initrd_mem (unsigned long start, unsigned long end)
                        continue;
                page = virt_to_page(start);
                ClearPageReserved(page);
-               init_page_count(page);
+               set_page_count(page, 1);
                free_page(start);
                ++totalram_pages;
        }
 }
 
-int page_is_ram(unsigned long pagenr)
-{
-      //FIXME: implement w/efi walk
-      printk("page is ram is called!!!!!\n");  
-      return 1;
-}
-
 /*
  * This installs a clean page in the kernel's page table.
  */
-static struct page * __init
+struct page *
 put_kernel_page (struct page *page, unsigned long address, pgprot_t pgprot)
 {
        pgd_t *pgd;
@@ -307,7 +294,7 @@ put_kernel_page (struct page *page, unsigned long address, pgprot_t pgprot)
        return page;
 }
 
-static void __init
+static void
 setup_gate (void)
 {
        struct page *page;
@@ -424,7 +411,7 @@ ia64_mmu_init (void *my_cpu_data)
 
 #ifdef CONFIG_VIRTUAL_MEM_MAP
 
-int __init
+int
 create_mem_map_page_table (u64 start, u64 end, void *arg)
 {
        unsigned long address, start_page, end_page;
@@ -532,7 +519,7 @@ ia64_pfn_valid (unsigned long pfn)
 }
 EXPORT_SYMBOL(ia64_pfn_valid);
 
-int __init
+int
 find_largest_hole (u64 start, u64 end, void *arg)
 {
        u64 *max_gap = arg;
@@ -548,7 +535,7 @@ find_largest_hole (u64 start, u64 end, void *arg)
 }
 #endif /* CONFIG_VIRTUAL_MEM_MAP */
 
-static int __init
+static int
 count_reserved_pages (u64 start, u64 end, void *arg)
 {
        unsigned long num_reserved = 0;
@@ -569,7 +556,7 @@ count_reserved_pages (u64 start, u64 end, void *arg)
  * purposes.
  */
 
-static int nolwsys __initdata;
+static int nolwsys;
 
 static int __init
 nolwsys_setup (char *s)
@@ -580,7 +567,7 @@ nolwsys_setup (char *s)
 
 __setup("nolwsys", nolwsys_setup);
 
-void __init
+void
 mem_init (void)
 {
        long reserved_pages, codesize, datasize, initsize;
@@ -613,7 +600,7 @@ mem_init (void)
        kclist_add(&kcore_vmem, (void *)VMALLOC_START, VMALLOC_END-VMALLOC_START);
        kclist_add(&kcore_kernel, _stext, _end - _stext);
 
-       for_each_online_pgdat(pgdat)
+       for_each_pgdat(pgdat)
                if (pgdat->bdata->node_bootmem_map)
                        totalram_pages += free_all_bootmem_node(pgdat);
 
@@ -653,7 +640,7 @@ mem_init (void)
 void online_page(struct page *page)
 {
        ClearPageReserved(page);
-       init_page_count(page);
+       set_page_count(page, 1);
        __free_page(page);
        totalram_pages++;
        num_physpages++;