ftp://ftp.kernel.org/pub/linux/kernel/v2.6/linux-2.6.6.tar.bz2
[linux-2.6.git] / arch / ia64 / mm / discontig.c
1 /*
2  * Copyright (c) 2000, 2003 Silicon Graphics, Inc.  All rights reserved.
3  * Copyright (c) 2001 Intel Corp.
4  * Copyright (c) 2001 Tony Luck <tony.luck@intel.com>
5  * Copyright (c) 2002 NEC Corp.
6  * Copyright (c) 2002 Kimio Suganuma <k-suganuma@da.jp.nec.com>
7  */
8
9 /*
10  * Platform initialization for Discontig Memory
11  */
12
13 #include <linux/kernel.h>
14 #include <linux/mm.h>
15 #include <linux/swap.h>
16 #include <linux/bootmem.h>
17 #include <linux/acpi.h>
18 #include <linux/efi.h>
19 #include <asm/pgalloc.h>
20 #include <asm/tlb.h>
21 #include <asm/meminit.h>
22 #include <asm/numa.h>
23 #include <asm/sections.h>
24
25 /*
26  * Track per-node information needed to setup the boot memory allocator, the
27  * per-node areas, and the real VM.
28  */
29 struct early_node_data {
30         struct ia64_node_data *node_data;
31         pg_data_t *pgdat;
32         unsigned long pernode_addr;
33         unsigned long pernode_size;
34         struct bootmem_data bootmem_data;
35         unsigned long num_physpages;
36         unsigned long num_dma_physpages;
37         unsigned long min_pfn;
38         unsigned long max_pfn;
39 };
40
41 static struct early_node_data mem_data[NR_NODES] __initdata;
42
43 /**
44  * reassign_cpu_only_nodes - called from find_memory to move CPU-only nodes to a memory node
45  *
46  * This function will move nodes with only CPUs (no memory)
47  * to a node with memory which is at the minimum numa_slit distance.
48  * Any reassigments will result in the compression of the nodes
49  * and renumbering the nid values where appropriate.
50  * The static declarations below are to avoid large stack size which
51  * makes the code not re-entrant.
52  */
53 static void __init reassign_cpu_only_nodes(void)
54 {
55         struct node_memblk_s *p;
56         int i, j, k, nnode, nid, cpu, cpunid;
57         u8 cslit, slit;
58         static DECLARE_BITMAP(nodes_with_mem, NR_NODES) __initdata;
59         static u8 numa_slit_fix[MAX_NUMNODES * MAX_NUMNODES] __initdata;
60         static int node_flip[NR_NODES] __initdata;
61
62         for (nnode = 0, p = &node_memblk[0]; p < &node_memblk[num_node_memblks]; p++)
63                 if (!test_bit(p->nid, (void *) nodes_with_mem)) {
64                         set_bit(p->nid, (void *) nodes_with_mem);
65                         nnode++;
66                 }
67
68         /*
69          * All nids with memory.
70          */
71         if (nnode == numnodes)
72                 return;
73
74         /*
75          * Change nids and attempt to migrate CPU-only nodes
76          * to the best numa_slit (closest neighbor) possible.
77          * For reassigned CPU nodes a nid can't be arrived at
78          * until after this loop because the target nid's new
79          * identity might not have been established yet. So
80          * new nid values are fabricated above numnodes and
81          * mapped back later to their true value.
82          */
83         for (nid = 0, i = 0; i < numnodes; i++)  {
84                 if (test_bit(i, (void *) nodes_with_mem)) {
85                         /*
86                          * Save original nid value for numa_slit
87                          * fixup and node_cpuid reassignments.
88                          */
89                         node_flip[nid] = i;
90
91                         if (i == nid) {
92                                 nid++;
93                                 continue;
94                         }
95
96                         for (p = &node_memblk[0]; p < &node_memblk[num_node_memblks]; p++)
97                                 if (p->nid == i)
98                                         p->nid = nid;
99
100                         cpunid = nid;
101                         nid++;
102                 } else
103                         cpunid = numnodes;
104
105                 for (cpu = 0; cpu < NR_CPUS; cpu++)
106                         if (node_cpuid[cpu].nid == i) {
107                                 /* For nodes not being reassigned just fix the cpu's nid. */
108                                 if (cpunid < numnodes) {
109                                         node_cpuid[cpu].nid = cpunid;
110                                         continue;
111                                 }
112
113                                 /*
114                                  * For nodes being reassigned, find best node by
115                                  * numa_slit information and then make a temporary
116                                  * nid value based on current nid and numnodes.
117                                  */
118                                 for (slit = 0xff, k = numnodes + numnodes, j = 0; j < numnodes; j++)
119                                         if (i == j)
120                                                 continue;
121                                         else if (test_bit(j, (void *) nodes_with_mem)) {
122                                                 cslit = numa_slit[i * numnodes + j];
123                                                 if (cslit < slit) {
124                                                         k = numnodes + j;
125                                                         slit = cslit;
126                                                 }
127                                         }
128
129                                 node_cpuid[cpu].nid = k;
130                         }
131         }
132
133         /*
134          * Fixup temporary nid values for CPU-only nodes.
135          */
136         for (cpu = 0; cpu < NR_CPUS; cpu++)
137                 if (node_cpuid[cpu].nid == (numnodes + numnodes))
138                         node_cpuid[cpu].nid = nnode - 1;
139                 else
140                         for (i = 0; i < nnode; i++)
141                                 if (node_flip[i] == (node_cpuid[cpu].nid - numnodes)) {
142                                         node_cpuid[cpu].nid = i;
143                                         break;
144                                 }
145
146         /*
147          * Fix numa_slit by compressing from larger
148          * nid array to reduced nid array.
149          */
150         for (i = 0; i < nnode; i++)
151                 for (j = 0; j < nnode; j++)
152                         numa_slit_fix[i * nnode + j] =
153                                 numa_slit[node_flip[i] * numnodes + node_flip[j]];
154
155         memcpy(numa_slit, numa_slit_fix, sizeof (numa_slit));
156
157         numnodes = nnode;
158
159         return;
160 }
161
162 /*
163  * To prevent cache aliasing effects, align per-node structures so that they
164  * start at addresses that are strided by node number.
165  */
166 #define NODEDATA_ALIGN(addr, node)                                              \
167         ((((addr) + 1024*1024-1) & ~(1024*1024-1)) + (node)*PERCPU_PAGE_SIZE)
168
169 /**
170  * build_node_maps - callback to setup bootmem structs for each node
171  * @start: physical start of range
172  * @len: length of range
173  * @node: node where this range resides
174  *
175  * We allocate a struct bootmem_data for each piece of memory that we wish to
176  * treat as a virtually contiguous block (i.e. each node). Each such block
177  * must start on an %IA64_GRANULE_SIZE boundary, so we round the address down
178  * if necessary.  Any non-existent pages will simply be part of the virtual
179  * memmap.  We also update min_low_pfn and max_low_pfn here as we receive
180  * memory ranges from the caller.
181  */
182 static int __init build_node_maps(unsigned long start, unsigned long len,
183                                   int node)
184 {
185         unsigned long cstart, epfn, end = start + len;
186         struct bootmem_data *bdp = &mem_data[node].bootmem_data;
187
188         epfn = GRANULEROUNDUP(end) >> PAGE_SHIFT;
189         cstart = GRANULEROUNDDOWN(start);
190
191         if (!bdp->node_low_pfn) {
192                 bdp->node_boot_start = cstart;
193                 bdp->node_low_pfn = epfn;
194         } else {
195                 bdp->node_boot_start = min(cstart, bdp->node_boot_start);
196                 bdp->node_low_pfn = max(epfn, bdp->node_low_pfn);
197         }
198
199         min_low_pfn = min(min_low_pfn, bdp->node_boot_start>>PAGE_SHIFT);
200         max_low_pfn = max(max_low_pfn, bdp->node_low_pfn);
201
202         return 0;
203 }
204
205 /**
206  * early_nr_cpus_node - return number of cpus on a given node
207  * @node: node to check
208  *
209  * Count the number of cpus on @node.  We can't use nr_cpus_node() yet because
210  * acpi_boot_init() (which builds the node_to_cpu_mask array) hasn't been
211  * called yet.
212  */
213 static int early_nr_cpus_node(int node)
214 {
215         int cpu, n = 0;
216
217         for (cpu = 0; cpu < NR_CPUS; cpu++)
218                 if (node == node_cpuid[cpu].nid)
219                         n++;
220
221         return n;
222 }
223
224 /**
225  * find_pernode_space - allocate memory for memory map and per-node structures
226  * @start: physical start of range
227  * @len: length of range
228  * @node: node where this range resides
229  *
230  * This routine reserves space for the per-cpu data struct, the list of
231  * pg_data_ts and the per-node data struct.  Each node will have something like
232  * the following in the first chunk of addr. space large enough to hold it.
233  *
234  *    ________________________
235  *   |                        |
236  *   |~~~~~~~~~~~~~~~~~~~~~~~~| <-- NODEDATA_ALIGN(start, node) for the first
237  *   |    PERCPU_PAGE_SIZE *  |     start and length big enough
238  *   |        NR_CPUS         |
239  *   |------------------------|
240  *   |   local pg_data_t *    |
241  *   |------------------------|
242  *   |  local ia64_node_data  |
243  *   |------------------------|
244  *   |          ???           |
245  *   |________________________|
246  *
247  * Once this space has been set aside, the bootmem maps are initialized.  We
248  * could probably move the allocation of the per-cpu and ia64_node_data space
249  * outside of this function and use alloc_bootmem_node(), but doing it here
250  * is straightforward and we get the alignments we want so...
251  */
252 static int __init find_pernode_space(unsigned long start, unsigned long len,
253                                      int node)
254 {
255         unsigned long epfn, cpu, cpus;
256         unsigned long pernodesize = 0, pernode, pages, mapsize;
257         void *cpu_data;
258         struct bootmem_data *bdp = &mem_data[node].bootmem_data;
259
260         epfn = (start + len) >> PAGE_SHIFT;
261
262         pages = bdp->node_low_pfn - (bdp->node_boot_start >> PAGE_SHIFT);
263         mapsize = bootmem_bootmap_pages(pages) << PAGE_SHIFT;
264
265         /*
266          * Make sure this memory falls within this node's usable memory
267          * since we may have thrown some away in build_maps().
268          */
269         if (start < bdp->node_boot_start || epfn > bdp->node_low_pfn)
270                 return 0;
271
272         /* Don't setup this node's local space twice... */
273         if (mem_data[node].pernode_addr)
274                 return 0;
275
276         /*
277          * Calculate total size needed, incl. what's necessary
278          * for good alignment and alias prevention.
279          */
280         cpus = early_nr_cpus_node(node);
281         pernodesize += PERCPU_PAGE_SIZE * cpus;
282         pernodesize += L1_CACHE_ALIGN(sizeof(pg_data_t));
283         pernodesize += L1_CACHE_ALIGN(sizeof(struct ia64_node_data));
284         pernodesize = PAGE_ALIGN(pernodesize);
285         pernode = NODEDATA_ALIGN(start, node);
286
287         /* Is this range big enough for what we want to store here? */
288         if (start + len > (pernode + pernodesize + mapsize)) {
289                 mem_data[node].pernode_addr = pernode;
290                 mem_data[node].pernode_size = pernodesize;
291                 memset(__va(pernode), 0, pernodesize);
292
293                 cpu_data = (void *)pernode;
294                 pernode += PERCPU_PAGE_SIZE * cpus;
295
296                 mem_data[node].pgdat = __va(pernode);
297                 pernode += L1_CACHE_ALIGN(sizeof(pg_data_t));
298
299                 mem_data[node].node_data = __va(pernode);
300                 pernode += L1_CACHE_ALIGN(sizeof(struct ia64_node_data));
301
302                 mem_data[node].pgdat->bdata = bdp;
303                 pernode += L1_CACHE_ALIGN(sizeof(pg_data_t));
304
305                 /*
306                  * Copy the static per-cpu data into the region we
307                  * just set aside and then setup __per_cpu_offset
308                  * for each CPU on this node.
309                  */
310                 for (cpu = 0; cpu < NR_CPUS; cpu++) {
311                         if (node == node_cpuid[cpu].nid) {
312                                 memcpy(__va(cpu_data), __phys_per_cpu_start,
313                                        __per_cpu_end - __per_cpu_start);
314                                 __per_cpu_offset[cpu] = (char*)__va(cpu_data) -
315                                         __per_cpu_start;
316                                 cpu_data += PERCPU_PAGE_SIZE;
317                         }
318                 }
319         }
320
321         return 0;
322 }
323
324 /**
325  * free_node_bootmem - free bootmem allocator memory for use
326  * @start: physical start of range
327  * @len: length of range
328  * @node: node where this range resides
329  *
330  * Simply calls the bootmem allocator to free the specified ranged from
331  * the given pg_data_t's bdata struct.  After this function has been called
332  * for all the entries in the EFI memory map, the bootmem allocator will
333  * be ready to service allocation requests.
334  */
335 static int __init free_node_bootmem(unsigned long start, unsigned long len,
336                                     int node)
337 {
338         free_bootmem_node(mem_data[node].pgdat, start, len);
339
340         return 0;
341 }
342
343 /**
344  * reserve_pernode_space - reserve memory for per-node space
345  *
346  * Reserve the space used by the bootmem maps & per-node space in the boot
347  * allocator so that when we actually create the real mem maps we don't
348  * use their memory.
349  */
350 static void __init reserve_pernode_space(void)
351 {
352         unsigned long base, size, pages;
353         struct bootmem_data *bdp;
354         int node;
355
356         for (node = 0; node < numnodes; node++) {
357                 pg_data_t *pdp = mem_data[node].pgdat;
358
359                 bdp = pdp->bdata;
360
361                 /* First the bootmem_map itself */
362                 pages = bdp->node_low_pfn - (bdp->node_boot_start>>PAGE_SHIFT);
363                 size = bootmem_bootmap_pages(pages) << PAGE_SHIFT;
364                 base = __pa(bdp->node_bootmem_map);
365                 reserve_bootmem_node(pdp, base, size);
366
367                 /* Now the per-node space */
368                 size = mem_data[node].pernode_size;
369                 base = __pa(mem_data[node].pernode_addr);
370                 reserve_bootmem_node(pdp, base, size);
371         }
372 }
373
374 /**
375  * initialize_pernode_data - fixup per-cpu & per-node pointers
376  *
377  * Each node's per-node area has a copy of the global pg_data_t list, so
378  * we copy that to each node here, as well as setting the per-cpu pointer
379  * to the local node data structure.  The active_cpus field of the per-node
380  * structure gets setup by the platform_cpu_init() function later.
381  */
382 static void __init initialize_pernode_data(void)
383 {
384         int cpu, node;
385         pg_data_t *pgdat_list[NR_NODES];
386
387         for (node = 0; node < numnodes; node++)
388                 pgdat_list[node] = mem_data[node].pgdat;
389
390         /* Copy the pg_data_t list to each node and init the node field */
391         for (node = 0; node < numnodes; node++) {
392                 memcpy(mem_data[node].node_data->pg_data_ptrs, pgdat_list,
393                        sizeof(pgdat_list));
394         }
395
396         /* Set the node_data pointer for each per-cpu struct */
397         for (cpu = 0; cpu < NR_CPUS; cpu++) {
398                 node = node_cpuid[cpu].nid;
399                 per_cpu(cpu_info, cpu).node_data = mem_data[node].node_data;
400         }
401 }
402
403 /**
404  * find_memory - walk the EFI memory map and setup the bootmem allocator
405  *
406  * Called early in boot to setup the bootmem allocator, and to
407  * allocate the per-cpu and per-node structures.
408  */
409 void __init find_memory(void)
410 {
411         int node;
412
413         reserve_memory();
414
415         if (numnodes == 0) {
416                 printk(KERN_ERR "node info missing!\n");
417                 numnodes = 1;
418         }
419
420         min_low_pfn = -1;
421         max_low_pfn = 0;
422
423         if (numnodes > 1)
424                 reassign_cpu_only_nodes();
425
426         /* These actually end up getting called by call_pernode_memory() */
427         efi_memmap_walk(filter_rsvd_memory, build_node_maps);
428         efi_memmap_walk(filter_rsvd_memory, find_pernode_space);
429
430         /*
431          * Initialize the boot memory maps in reverse order since that's
432          * what the bootmem allocator expects
433          */
434         for (node = numnodes - 1; node >= 0; node--) {
435                 unsigned long pernode, pernodesize, map;
436                 struct bootmem_data *bdp;
437
438                 bdp = &mem_data[node].bootmem_data;
439                 pernode = mem_data[node].pernode_addr;
440                 pernodesize = mem_data[node].pernode_size;
441                 map = pernode + pernodesize;
442
443                 /* Sanity check... */
444                 if (!pernode)
445                         panic("pernode space for node %d "
446                               "could not be allocated!", node);
447
448                 init_bootmem_node(mem_data[node].pgdat,
449                                   map>>PAGE_SHIFT,
450                                   bdp->node_boot_start>>PAGE_SHIFT,
451                                   bdp->node_low_pfn);
452         }
453
454         efi_memmap_walk(filter_rsvd_memory, free_node_bootmem);
455
456         reserve_pernode_space();
457         initialize_pernode_data();
458
459         max_pfn = max_low_pfn;
460
461         find_initrd();
462 }
463
464 /**
465  * per_cpu_init - setup per-cpu variables
466  *
467  * find_pernode_space() does most of this already, we just need to set
468  * local_per_cpu_offset
469  */
470 void *per_cpu_init(void)
471 {
472         int cpu;
473
474         if (smp_processor_id() == 0) {
475                 for (cpu = 0; cpu < NR_CPUS; cpu++) {
476                         per_cpu(local_per_cpu_offset, cpu) =
477                                 __per_cpu_offset[cpu];
478                 }
479         }
480
481         return __per_cpu_start + __per_cpu_offset[smp_processor_id()];
482 }
483
484 /**
485  * show_mem - give short summary of memory stats
486  *
487  * Shows a simple page count of reserved and used pages in the system.
488  * For discontig machines, it does this on a per-pgdat basis.
489  */
490 void show_mem(void)
491 {
492         int i, reserved = 0;
493         int shared = 0, cached = 0;
494         pg_data_t *pgdat;
495
496         printk("Mem-info:\n");
497         show_free_areas();
498         printk("Free swap:       %6dkB\n", nr_swap_pages<<(PAGE_SHIFT-10));
499         for_each_pgdat(pgdat) {
500                 printk("Node ID: %d\n", pgdat->node_id);
501                 for(i = 0; i < pgdat->node_spanned_pages; i++) {
502                         if (!ia64_pfn_valid(pgdat->node_start_pfn+i))
503                                 continue;
504                         if (PageReserved(pgdat->node_mem_map+i))
505                                 reserved++;
506                         else if (PageSwapCache(pgdat->node_mem_map+i))
507                                 cached++;
508                         else if (page_count(pgdat->node_mem_map+i))
509                                 shared += page_count(pgdat->node_mem_map+i)-1;
510                 }
511                 printk("\t%ld pages of RAM\n", pgdat->node_present_pages);
512                 printk("\t%d reserved pages\n", reserved);
513                 printk("\t%d pages shared\n", shared);
514                 printk("\t%d pages swap cached\n", cached);
515         }
516         printk("Total of %ld pages in page table cache\n", pgtable_cache_size);
517         printk("%d free buffer pages\n", nr_free_buffer_pages());
518 }
519
520 /**
521  * call_pernode_memory - use SRAT to call callback functions with node info
522  * @start: physical start of range
523  * @len: length of range
524  * @arg: function to call for each range
525  *
526  * efi_memmap_walk() knows nothing about layout of memory across nodes. Find
527  * out to which node a block of memory belongs.  Ignore memory that we cannot
528  * identify, and split blocks that run across multiple nodes.
529  *
530  * Take this opportunity to round the start address up and the end address
531  * down to page boundaries.
532  */
533 void call_pernode_memory(unsigned long start, unsigned long len, void *arg)
534 {
535         unsigned long rs, re, end = start + len;
536         void (*func)(unsigned long, unsigned long, int);
537         int i;
538
539         start = PAGE_ALIGN(start);
540         end &= PAGE_MASK;
541         if (start >= end)
542                 return;
543
544         func = arg;
545
546         if (!num_node_memblks) {
547                 /* No SRAT table, so assume one node (node 0) */
548                 if (start < end)
549                         (*func)(start, len, 0);
550                 return;
551         }
552
553         for (i = 0; i < num_node_memblks; i++) {
554                 rs = max(start, node_memblk[i].start_paddr);
555                 re = min(end, node_memblk[i].start_paddr +
556                          node_memblk[i].size);
557
558                 if (rs < re)
559                         (*func)(rs, re - rs, node_memblk[i].nid);
560
561                 if (re == end)
562                         break;
563         }
564 }
565
566 /**
567  * count_node_pages - callback to build per-node memory info structures
568  * @start: physical start of range
569  * @len: length of range
570  * @node: node where this range resides
571  *
572  * Each node has it's own number of physical pages, DMAable pages, start, and
573  * end page frame number.  This routine will be called by call_pernode_memory()
574  * for each piece of usable memory and will setup these values for each node.
575  * Very similar to build_maps().
576  */
577 static int count_node_pages(unsigned long start, unsigned long len, int node)
578 {
579         unsigned long end = start + len;
580
581         mem_data[node].num_physpages += len >> PAGE_SHIFT;
582         if (start <= __pa(MAX_DMA_ADDRESS))
583                 mem_data[node].num_dma_physpages +=
584                         (min(end, __pa(MAX_DMA_ADDRESS)) - start) >>PAGE_SHIFT;
585         start = GRANULEROUNDDOWN(start);
586         start = ORDERROUNDDOWN(start);
587         end = GRANULEROUNDUP(end);
588         mem_data[node].max_pfn = max(mem_data[node].max_pfn,
589                                      end >> PAGE_SHIFT);
590         mem_data[node].min_pfn = min(mem_data[node].min_pfn,
591                                      start >> PAGE_SHIFT);
592
593         return 0;
594 }
595
596 /**
597  * paging_init - setup page tables
598  *
599  * paging_init() sets up the page tables for each node of the system and frees
600  * the bootmem allocator memory for general use.
601  */
602 void paging_init(void)
603 {
604         unsigned long max_dma;
605         unsigned long zones_size[MAX_NR_ZONES];
606         unsigned long zholes_size[MAX_NR_ZONES];
607         unsigned long max_gap, pfn_offset = 0;
608         int node;
609
610         max_dma = virt_to_phys((void *) MAX_DMA_ADDRESS) >> PAGE_SHIFT;
611         max_gap = 0;
612         efi_memmap_walk(find_largest_hole, &max_gap);
613
614         /* so min() will work in count_node_pages */
615         for (node = 0; node < numnodes; node++)
616                 mem_data[node].min_pfn = ~0UL;
617
618         efi_memmap_walk(filter_rsvd_memory, count_node_pages);
619
620         for (node = 0; node < numnodes; node++) {
621                 memset(zones_size, 0, sizeof(zones_size));
622                 memset(zholes_size, 0, sizeof(zholes_size));
623
624                 num_physpages += mem_data[node].num_physpages;
625
626                 if (mem_data[node].min_pfn >= max_dma) {
627                         /* All of this node's memory is above ZONE_DMA */
628                         zones_size[ZONE_NORMAL] = mem_data[node].max_pfn -
629                                 mem_data[node].min_pfn;
630                         zholes_size[ZONE_NORMAL] = mem_data[node].max_pfn -
631                                 mem_data[node].min_pfn -
632                                 mem_data[node].num_physpages;
633                 } else if (mem_data[node].max_pfn < max_dma) {
634                         /* All of this node's memory is in ZONE_DMA */
635                         zones_size[ZONE_DMA] = mem_data[node].max_pfn -
636                                 mem_data[node].min_pfn;
637                         zholes_size[ZONE_DMA] = mem_data[node].max_pfn -
638                                 mem_data[node].min_pfn -
639                                 mem_data[node].num_dma_physpages;
640                 } else {
641                         /* This node has memory in both zones */
642                         zones_size[ZONE_DMA] = max_dma -
643                                 mem_data[node].min_pfn;
644                         zholes_size[ZONE_DMA] = zones_size[ZONE_DMA] -
645                                 mem_data[node].num_dma_physpages;
646                         zones_size[ZONE_NORMAL] = mem_data[node].max_pfn -
647                                 max_dma;
648                         zholes_size[ZONE_NORMAL] = zones_size[ZONE_NORMAL] -
649                                 (mem_data[node].num_physpages -
650                                  mem_data[node].num_dma_physpages);
651                 }
652
653                 if (node == 0) {
654                         vmalloc_end -=
655                                 PAGE_ALIGN(max_low_pfn * sizeof(struct page));
656                         vmem_map = (struct page *) vmalloc_end;
657
658                         efi_memmap_walk(create_mem_map_page_table, 0);
659                         printk("Virtual mem_map starts at 0x%p\n", vmem_map);
660                 }
661
662                 pfn_offset = mem_data[node].min_pfn;
663
664                 free_area_init_node(node, NODE_DATA(node),
665                                     vmem_map + pfn_offset, zones_size,
666                                     pfn_offset, zholes_size);
667         }
668
669         zero_page_memmap_ptr = virt_to_page(ia64_imva(empty_zero_page));
670 }