Merge to Fedora kernel-2.6.18-1.2224_FC5 patched with stable patch-2.6.18.1-vs2.0...
[linux-2.6.git] / arch / i386 / kernel / acpi / boot-xen.c
1 /*
2  *  boot.c - Architecture-Specific Low-Level ACPI Boot Support
3  *
4  *  Copyright (C) 2001, 2002 Paul Diefenbaugh <paul.s.diefenbaugh@intel.com>
5  *  Copyright (C) 2001 Jun Nakajima <jun.nakajima@intel.com>
6  *
7  * ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
8  *
9  *  This program is free software; you can redistribute it and/or modify
10  *  it under the terms of the GNU General Public License as published by
11  *  the Free Software Foundation; either version 2 of the License, or
12  *  (at your option) any later version.
13  *
14  *  This program is distributed in the hope that it will be useful,
15  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
16  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
17  *  GNU General Public License for more details.
18  *
19  *  You should have received a copy of the GNU General Public License
20  *  along with this program; if not, write to the Free Software
21  *  Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
22  *
23  * ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
24  */
25
26 #include <linux/init.h>
27 #include <linux/acpi.h>
28 #include <linux/efi.h>
29 #include <linux/module.h>
30 #include <linux/dmi.h>
31 #include <linux/irq.h>
32
33 #include <asm/pgtable.h>
34 #include <asm/io_apic.h>
35 #include <asm/apic.h>
36 #include <asm/io.h>
37 #include <asm/mpspec.h>
38
39 #ifdef  CONFIG_X86_64
40
41 extern void __init clustered_apic_check(void);
42
43 extern int gsi_irq_sharing(int gsi);
44 #include <asm/proto.h>
45
46 static inline int acpi_madt_oem_check(char *oem_id, char *oem_table_id) { return 0; }
47
48
49 #else                           /* X86 */
50
51 #ifdef  CONFIG_X86_LOCAL_APIC
52 #include <mach_apic.h>
53 #include <mach_mpparse.h>
54 #endif                          /* CONFIG_X86_LOCAL_APIC */
55
56 static inline int gsi_irq_sharing(int gsi) { return gsi; }
57
58 #endif                          /* X86 */
59
60 #define BAD_MADT_ENTRY(entry, end) (                                        \
61                 (!entry) || (unsigned long)entry + sizeof(*entry) > end ||  \
62                 ((acpi_table_entry_header *)entry)->length < sizeof(*entry))
63
64 #define PREFIX                  "ACPI: "
65
66 int acpi_noirq __initdata;      /* skip ACPI IRQ initialization */
67 int acpi_pci_disabled __initdata;       /* skip ACPI PCI scan and IRQ initialization */
68 int acpi_ht __initdata = 1;     /* enable HT */
69
70 int acpi_lapic;
71 int acpi_ioapic;
72 int acpi_strict;
73 EXPORT_SYMBOL(acpi_strict);
74
75 acpi_interrupt_flags acpi_sci_flags __initdata;
76 int acpi_sci_override_gsi __initdata;
77 int acpi_skip_timer_override __initdata;
78
79 #ifdef CONFIG_X86_LOCAL_APIC
80 static u64 acpi_lapic_addr __initdata = APIC_DEFAULT_PHYS_BASE;
81 #endif
82
83 #ifndef __HAVE_ARCH_CMPXCHG
84 #warning ACPI uses CMPXCHG, i486 and later hardware
85 #endif
86
87 #define MAX_MADT_ENTRIES        256
88 u8 x86_acpiid_to_apicid[MAX_MADT_ENTRIES] =
89     {[0 ... MAX_MADT_ENTRIES - 1] = 0xff };
90 EXPORT_SYMBOL(x86_acpiid_to_apicid);
91
92 /* --------------------------------------------------------------------------
93                               Boot-time Configuration
94    -------------------------------------------------------------------------- */
95
96 /*
97  * The default interrupt routing model is PIC (8259).  This gets
98  * overriden if IOAPICs are enumerated (below).
99  */
100 enum acpi_irq_model_id acpi_irq_model = ACPI_IRQ_MODEL_PIC;
101
102 #if defined(CONFIG_X86_64) && !defined(CONFIG_XEN)
103
104 /* rely on all ACPI tables being in the direct mapping */
105 char *__acpi_map_table(unsigned long phys_addr, unsigned long size)
106 {
107         if (!phys_addr || !size)
108                 return NULL;
109
110         if (phys_addr+size <= (end_pfn_map << PAGE_SHIFT) + PAGE_SIZE)
111                 return __va(phys_addr);
112
113         return NULL;
114 }
115
116 #else
117
118 /*
119  * Temporarily use the virtual area starting from FIX_IO_APIC_BASE_END,
120  * to map the target physical address. The problem is that set_fixmap()
121  * provides a single page, and it is possible that the page is not
122  * sufficient.
123  * By using this area, we can map up to MAX_IO_APICS pages temporarily,
124  * i.e. until the next __va_range() call.
125  *
126  * Important Safety Note:  The fixed I/O APIC page numbers are *subtracted*
127  * from the fixed base.  That's why we start at FIX_IO_APIC_BASE_END and
128  * count idx down while incrementing the phys address.
129  */
130 char *__acpi_map_table(unsigned long phys, unsigned long size)
131 {
132         unsigned long base, offset, mapped_size;
133         int idx;
134
135 #ifndef CONFIG_XEN
136         if (phys + size < 8 * 1024 * 1024)
137                 return __va(phys);
138 #endif
139
140         offset = phys & (PAGE_SIZE - 1);
141         mapped_size = PAGE_SIZE - offset;
142         set_fixmap(FIX_ACPI_END, phys);
143         base = fix_to_virt(FIX_ACPI_END);
144
145         /*
146          * Most cases can be covered by the below.
147          */
148         idx = FIX_ACPI_END;
149         while (mapped_size < size) {
150                 if (--idx < FIX_ACPI_BEGIN)
151                         return NULL;    /* cannot handle this */
152                 phys += PAGE_SIZE;
153                 set_fixmap(idx, phys);
154                 mapped_size += PAGE_SIZE;
155         }
156
157         return ((unsigned char *)base + offset);
158 }
159 #endif
160
161 #ifdef CONFIG_PCI_MMCONFIG
162 /* The physical address of the MMCONFIG aperture.  Set from ACPI tables. */
163 struct acpi_table_mcfg_config *pci_mmcfg_config;
164 int pci_mmcfg_config_num;
165
166 int __init acpi_parse_mcfg(unsigned long phys_addr, unsigned long size)
167 {
168         struct acpi_table_mcfg *mcfg;
169         unsigned long i;
170         int config_size;
171
172         if (!phys_addr || !size)
173                 return -EINVAL;
174
175         mcfg = (struct acpi_table_mcfg *)__acpi_map_table(phys_addr, size);
176         if (!mcfg) {
177                 printk(KERN_WARNING PREFIX "Unable to map MCFG\n");
178                 return -ENODEV;
179         }
180
181         /* how many config structures do we have */
182         pci_mmcfg_config_num = 0;
183         i = size - sizeof(struct acpi_table_mcfg);
184         while (i >= sizeof(struct acpi_table_mcfg_config)) {
185                 ++pci_mmcfg_config_num;
186                 i -= sizeof(struct acpi_table_mcfg_config);
187         };
188         if (pci_mmcfg_config_num == 0) {
189                 printk(KERN_ERR PREFIX "MMCONFIG has no entries\n");
190                 return -ENODEV;
191         }
192
193         config_size = pci_mmcfg_config_num * sizeof(*pci_mmcfg_config);
194         pci_mmcfg_config = kmalloc(config_size, GFP_KERNEL);
195         if (!pci_mmcfg_config) {
196                 printk(KERN_WARNING PREFIX
197                        "No memory for MCFG config tables\n");
198                 return -ENOMEM;
199         }
200
201         memcpy(pci_mmcfg_config, &mcfg->config, config_size);
202         for (i = 0; i < pci_mmcfg_config_num; ++i) {
203                 if (mcfg->config[i].base_reserved) {
204                         printk(KERN_ERR PREFIX
205                                "MMCONFIG not in low 4GB of memory\n");
206                         kfree(pci_mmcfg_config);
207                         pci_mmcfg_config_num = 0;
208                         return -ENODEV;
209                 }
210         }
211
212         return 0;
213 }
214 #endif                          /* CONFIG_PCI_MMCONFIG */
215
216 #ifdef CONFIG_X86_LOCAL_APIC
217 static int __init acpi_parse_madt(unsigned long phys_addr, unsigned long size)
218 {
219         struct acpi_table_madt *madt = NULL;
220
221         if (!phys_addr || !size || !cpu_has_apic)
222                 return -EINVAL;
223
224         madt = (struct acpi_table_madt *)__acpi_map_table(phys_addr, size);
225         if (!madt) {
226                 printk(KERN_WARNING PREFIX "Unable to map MADT\n");
227                 return -ENODEV;
228         }
229
230         if (madt->lapic_address) {
231                 acpi_lapic_addr = (u64) madt->lapic_address;
232
233                 printk(KERN_DEBUG PREFIX "Local APIC address 0x%08x\n",
234                        madt->lapic_address);
235         }
236
237         acpi_madt_oem_check(madt->header.oem_id, madt->header.oem_table_id);
238
239         return 0;
240 }
241
242 static int __init
243 acpi_parse_lapic(acpi_table_entry_header * header, const unsigned long end)
244 {
245         struct acpi_table_lapic *processor = NULL;
246
247         processor = (struct acpi_table_lapic *)header;
248
249         if (BAD_MADT_ENTRY(processor, end))
250                 return -EINVAL;
251
252         acpi_table_print_madt_entry(header);
253
254         /* Record local apic id only when enabled */
255         if (processor->flags.enabled)
256                 x86_acpiid_to_apicid[processor->acpi_id] = processor->id;
257
258         /*
259          * We need to register disabled CPU as well to permit
260          * counting disabled CPUs. This allows us to size
261          * cpus_possible_map more accurately, to permit
262          * to not preallocating memory for all NR_CPUS
263          * when we use CPU hotplug.
264          */
265         mp_register_lapic(processor->id,        /* APIC ID */
266                           processor->flags.enabled);    /* Enabled? */
267
268         return 0;
269 }
270
271 static int __init
272 acpi_parse_lapic_addr_ovr(acpi_table_entry_header * header,
273                           const unsigned long end)
274 {
275         struct acpi_table_lapic_addr_ovr *lapic_addr_ovr = NULL;
276
277         lapic_addr_ovr = (struct acpi_table_lapic_addr_ovr *)header;
278
279         if (BAD_MADT_ENTRY(lapic_addr_ovr, end))
280                 return -EINVAL;
281
282         acpi_lapic_addr = lapic_addr_ovr->address;
283
284         return 0;
285 }
286
287 static int __init
288 acpi_parse_lapic_nmi(acpi_table_entry_header * header, const unsigned long end)
289 {
290         struct acpi_table_lapic_nmi *lapic_nmi = NULL;
291
292         lapic_nmi = (struct acpi_table_lapic_nmi *)header;
293
294         if (BAD_MADT_ENTRY(lapic_nmi, end))
295                 return -EINVAL;
296
297         acpi_table_print_madt_entry(header);
298
299         if (lapic_nmi->lint != 1)
300                 printk(KERN_WARNING PREFIX "NMI not connected to LINT 1!\n");
301
302         return 0;
303 }
304
305 #endif                          /*CONFIG_X86_LOCAL_APIC */
306
307 #ifdef CONFIG_X86_IO_APIC
308
309 static int __init
310 acpi_parse_ioapic(acpi_table_entry_header * header, const unsigned long end)
311 {
312         struct acpi_table_ioapic *ioapic = NULL;
313
314         ioapic = (struct acpi_table_ioapic *)header;
315
316         if (BAD_MADT_ENTRY(ioapic, end))
317                 return -EINVAL;
318
319         acpi_table_print_madt_entry(header);
320
321         mp_register_ioapic(ioapic->id,
322                            ioapic->address, ioapic->global_irq_base);
323
324         return 0;
325 }
326
327 /*
328  * Parse Interrupt Source Override for the ACPI SCI
329  */
330 static void acpi_sci_ioapic_setup(u32 gsi, u16 polarity, u16 trigger)
331 {
332         if (trigger == 0)       /* compatible SCI trigger is level */
333                 trigger = 3;
334
335         if (polarity == 0)      /* compatible SCI polarity is low */
336                 polarity = 3;
337
338         /* Command-line over-ride via acpi_sci= */
339         if (acpi_sci_flags.trigger)
340                 trigger = acpi_sci_flags.trigger;
341
342         if (acpi_sci_flags.polarity)
343                 polarity = acpi_sci_flags.polarity;
344
345         /*
346          * mp_config_acpi_legacy_irqs() already setup IRQs < 16
347          * If GSI is < 16, this will update its flags,
348          * else it will create a new mp_irqs[] entry.
349          */
350         mp_override_legacy_irq(gsi, polarity, trigger, gsi);
351
352         /*
353          * stash over-ride to indicate we've been here
354          * and for later update of acpi_fadt
355          */
356         acpi_sci_override_gsi = gsi;
357         return;
358 }
359
360 static int __init
361 acpi_parse_int_src_ovr(acpi_table_entry_header * header,
362                        const unsigned long end)
363 {
364         struct acpi_table_int_src_ovr *intsrc = NULL;
365
366         intsrc = (struct acpi_table_int_src_ovr *)header;
367
368         if (BAD_MADT_ENTRY(intsrc, end))
369                 return -EINVAL;
370
371         acpi_table_print_madt_entry(header);
372
373         if (intsrc->bus_irq == acpi_fadt.sci_int) {
374                 acpi_sci_ioapic_setup(intsrc->global_irq,
375                                       intsrc->flags.polarity,
376                                       intsrc->flags.trigger);
377                 return 0;
378         }
379
380         if (acpi_skip_timer_override &&
381             intsrc->bus_irq == 0 && intsrc->global_irq == 2) {
382                 printk(PREFIX "BIOS IRQ0 pin2 override ignored.\n");
383                 return 0;
384         }
385
386         mp_override_legacy_irq(intsrc->bus_irq,
387                                intsrc->flags.polarity,
388                                intsrc->flags.trigger, intsrc->global_irq);
389
390         return 0;
391 }
392
393 static int __init
394 acpi_parse_nmi_src(acpi_table_entry_header * header, const unsigned long end)
395 {
396         struct acpi_table_nmi_src *nmi_src = NULL;
397
398         nmi_src = (struct acpi_table_nmi_src *)header;
399
400         if (BAD_MADT_ENTRY(nmi_src, end))
401                 return -EINVAL;
402
403         acpi_table_print_madt_entry(header);
404
405         /* TBD: Support nimsrc entries? */
406
407         return 0;
408 }
409
410 #endif                          /* CONFIG_X86_IO_APIC */
411
412 /*
413  * acpi_pic_sci_set_trigger()
414  * 
415  * use ELCR to set PIC-mode trigger type for SCI
416  *
417  * If a PIC-mode SCI is not recognized or gives spurious IRQ7's
418  * it may require Edge Trigger -- use "acpi_sci=edge"
419  *
420  * Port 0x4d0-4d1 are ECLR1 and ECLR2, the Edge/Level Control Registers
421  * for the 8259 PIC.  bit[n] = 1 means irq[n] is Level, otherwise Edge.
422  * ECLR1 is IRQ's 0-7 (IRQ 0, 1, 2 must be 0)
423  * ECLR2 is IRQ's 8-15 (IRQ 8, 13 must be 0)
424  */
425
426 void __init acpi_pic_sci_set_trigger(unsigned int irq, u16 trigger)
427 {
428         unsigned int mask = 1 << irq;
429         unsigned int old, new;
430
431         /* Real old ELCR mask */
432         old = inb(0x4d0) | (inb(0x4d1) << 8);
433
434         /*
435          * If we use ACPI to set PCI irq's, then we should clear ELCR
436          * since we will set it correctly as we enable the PCI irq
437          * routing.
438          */
439         new = acpi_noirq ? old : 0;
440
441         /*
442          * Update SCI information in the ELCR, it isn't in the PCI
443          * routing tables..
444          */
445         switch (trigger) {
446         case 1:         /* Edge - clear */
447                 new &= ~mask;
448                 break;
449         case 3:         /* Level - set */
450                 new |= mask;
451                 break;
452         }
453
454         if (old == new)
455                 return;
456
457         printk(PREFIX "setting ELCR to %04x (from %04x)\n", new, old);
458         outb(new, 0x4d0);
459         outb(new >> 8, 0x4d1);
460 }
461
462 int acpi_gsi_to_irq(u32 gsi, unsigned int *irq)
463 {
464 #ifdef CONFIG_X86_IO_APIC
465         if (use_pci_vector() && !platform_legacy_irq(gsi))
466                 *irq = IO_APIC_VECTOR(gsi);
467         else
468 #endif
469                 *irq = gsi_irq_sharing(gsi);
470         return 0;
471 }
472
473 /*
474  * success: return IRQ number (>=0)
475  * failure: return < 0
476  */
477 int acpi_register_gsi(u32 gsi, int triggering, int polarity)
478 {
479         unsigned int irq;
480         unsigned int plat_gsi = gsi;
481
482 #ifdef CONFIG_PCI
483         /*
484          * Make sure all (legacy) PCI IRQs are set as level-triggered.
485          */
486         if (acpi_irq_model == ACPI_IRQ_MODEL_PIC) {
487                 extern void eisa_set_level_irq(unsigned int irq);
488
489                 if (triggering == ACPI_LEVEL_SENSITIVE)
490                         eisa_set_level_irq(gsi);
491         }
492 #endif
493
494 #ifdef CONFIG_X86_IO_APIC
495         if (acpi_irq_model == ACPI_IRQ_MODEL_IOAPIC) {
496                 plat_gsi = mp_register_gsi(gsi, triggering, polarity);
497         }
498 #endif
499         acpi_gsi_to_irq(plat_gsi, &irq);
500         return irq;
501 }
502
503 EXPORT_SYMBOL(acpi_register_gsi);
504
505 /*
506  *  ACPI based hotplug support for CPU
507  */
508 #ifdef CONFIG_ACPI_HOTPLUG_CPU
509 int acpi_map_lsapic(acpi_handle handle, int *pcpu)
510 {
511         /* TBD */
512         return -EINVAL;
513 }
514
515 EXPORT_SYMBOL(acpi_map_lsapic);
516
517 int acpi_unmap_lsapic(int cpu)
518 {
519         /* TBD */
520         return -EINVAL;
521 }
522
523 EXPORT_SYMBOL(acpi_unmap_lsapic);
524 #endif                          /* CONFIG_ACPI_HOTPLUG_CPU */
525
526 int acpi_register_ioapic(acpi_handle handle, u64 phys_addr, u32 gsi_base)
527 {
528         /* TBD */
529         return -EINVAL;
530 }
531
532 EXPORT_SYMBOL(acpi_register_ioapic);
533
534 int acpi_unregister_ioapic(acpi_handle handle, u32 gsi_base)
535 {
536         /* TBD */
537         return -EINVAL;
538 }
539
540 EXPORT_SYMBOL(acpi_unregister_ioapic);
541
542 static unsigned long __init
543 acpi_scan_rsdp(unsigned long start, unsigned long length)
544 {
545         unsigned long offset = 0;
546         unsigned long sig_len = sizeof("RSD PTR ") - 1;
547         unsigned long vstart = (unsigned long)isa_bus_to_virt(start);
548
549         /*
550          * Scan all 16-byte boundaries of the physical memory region for the
551          * RSDP signature.
552          */
553         for (offset = 0; offset < length; offset += 16) {
554                 if (strncmp((char *)(vstart + offset), "RSD PTR ", sig_len))
555                         continue;
556                 return (start + offset);
557         }
558
559         return 0;
560 }
561
562 static int __init acpi_parse_sbf(unsigned long phys_addr, unsigned long size)
563 {
564         struct acpi_table_sbf *sb;
565
566         if (!phys_addr || !size)
567                 return -EINVAL;
568
569         sb = (struct acpi_table_sbf *)__acpi_map_table(phys_addr, size);
570         if (!sb) {
571                 printk(KERN_WARNING PREFIX "Unable to map SBF\n");
572                 return -ENODEV;
573         }
574
575         sbf_port = sb->sbf_cmos;        /* Save CMOS port */
576
577         return 0;
578 }
579
580 #ifdef CONFIG_HPET_TIMER
581
582 static int __init acpi_parse_hpet(unsigned long phys, unsigned long size)
583 {
584         struct acpi_table_hpet *hpet_tbl;
585
586         if (!phys || !size)
587                 return -EINVAL;
588
589         hpet_tbl = (struct acpi_table_hpet *)__acpi_map_table(phys, size);
590         if (!hpet_tbl) {
591                 printk(KERN_WARNING PREFIX "Unable to map HPET\n");
592                 return -ENODEV;
593         }
594
595         if (hpet_tbl->addr.space_id != ACPI_SPACE_MEM) {
596                 printk(KERN_WARNING PREFIX "HPET timers must be located in "
597                        "memory.\n");
598                 return -1;
599         }
600 #ifdef  CONFIG_X86_64
601         vxtime.hpet_address = hpet_tbl->addr.addrl |
602             ((long)hpet_tbl->addr.addrh << 32);
603
604         printk(KERN_INFO PREFIX "HPET id: %#x base: %#lx\n",
605                hpet_tbl->id, vxtime.hpet_address);
606 #else                           /* X86 */
607         {
608                 extern unsigned long hpet_address;
609
610                 hpet_address = hpet_tbl->addr.addrl;
611                 printk(KERN_INFO PREFIX "HPET id: %#x base: %#lx\n",
612                        hpet_tbl->id, hpet_address);
613         }
614 #endif                          /* X86 */
615
616         return 0;
617 }
618 #else
619 #define acpi_parse_hpet NULL
620 #endif
621
622 #ifdef CONFIG_X86_PM_TIMER
623 extern u32 pmtmr_ioport;
624 #endif
625
626 static int __init acpi_parse_fadt(unsigned long phys, unsigned long size)
627 {
628         struct fadt_descriptor *fadt = NULL;
629
630         fadt = (struct fadt_descriptor *)__acpi_map_table(phys, size);
631         if (!fadt) {
632                 printk(KERN_WARNING PREFIX "Unable to map FADT\n");
633                 return 0;
634         }
635         /* initialize sci_int early for INT_SRC_OVR MADT parsing */
636         acpi_fadt.sci_int = fadt->sci_int;
637
638         /* initialize rev and apic_phys_dest_mode for x86_64 genapic */
639         acpi_fadt.revision = fadt->revision;
640         acpi_fadt.force_apic_physical_destination_mode =
641             fadt->force_apic_physical_destination_mode;
642
643 #if defined(CONFIG_X86_PM_TIMER) && !defined(CONFIG_XEN)
644         /* detect the location of the ACPI PM Timer */
645         if (fadt->revision >= FADT2_REVISION_ID) {
646                 /* FADT rev. 2 */
647                 if (fadt->xpm_tmr_blk.address_space_id !=
648                     ACPI_ADR_SPACE_SYSTEM_IO)
649                         return 0;
650
651                 pmtmr_ioport = fadt->xpm_tmr_blk.address;
652                 /*
653                  * "X" fields are optional extensions to the original V1.0
654                  * fields, so we must selectively expand V1.0 fields if the
655                  * corresponding X field is zero.
656                  */
657                 if (!pmtmr_ioport)
658                         pmtmr_ioport = fadt->V1_pm_tmr_blk;
659         } else {
660                 /* FADT rev. 1 */
661                 pmtmr_ioport = fadt->V1_pm_tmr_blk;
662         }
663         if (pmtmr_ioport)
664                 printk(KERN_INFO PREFIX "PM-Timer IO Port: %#x\n",
665                        pmtmr_ioport);
666 #endif
667         return 0;
668 }
669
670 unsigned long __init acpi_find_rsdp(void)
671 {
672         unsigned long rsdp_phys = 0;
673
674         if (efi_enabled) {
675                 if (efi.acpi20 != EFI_INVALID_TABLE_ADDR)
676                         return efi.acpi20;
677                 else if (efi.acpi != EFI_INVALID_TABLE_ADDR)
678                         return efi.acpi;
679         }
680         /*
681          * Scan memory looking for the RSDP signature. First search EBDA (low
682          * memory) paragraphs and then search upper memory (E0000-FFFFF).
683          */
684         rsdp_phys = acpi_scan_rsdp(0, 0x400);
685         if (!rsdp_phys)
686                 rsdp_phys = acpi_scan_rsdp(0xE0000, 0x20000);
687
688         return rsdp_phys;
689 }
690
691 #ifdef  CONFIG_X86_LOCAL_APIC
692 /*
693  * Parse LAPIC entries in MADT
694  * returns 0 on success, < 0 on error
695  */
696 static int __init acpi_parse_madt_lapic_entries(void)
697 {
698         int count;
699
700         if (!cpu_has_apic)
701                 return -ENODEV;
702
703         /* 
704          * Note that the LAPIC address is obtained from the MADT (32-bit value)
705          * and (optionally) overriden by a LAPIC_ADDR_OVR entry (64-bit value).
706          */
707
708         count =
709             acpi_table_parse_madt(ACPI_MADT_LAPIC_ADDR_OVR,
710                                   acpi_parse_lapic_addr_ovr, 0);
711         if (count < 0) {
712                 printk(KERN_ERR PREFIX
713                        "Error parsing LAPIC address override entry\n");
714                 return count;
715         }
716
717         mp_register_lapic_address(acpi_lapic_addr);
718
719         count = acpi_table_parse_madt(ACPI_MADT_LAPIC, acpi_parse_lapic,
720                                       MAX_APICS);
721         if (!count) {
722                 printk(KERN_ERR PREFIX "No LAPIC entries present\n");
723                 /* TBD: Cleanup to allow fallback to MPS */
724                 return -ENODEV;
725         } else if (count < 0) {
726                 printk(KERN_ERR PREFIX "Error parsing LAPIC entry\n");
727                 /* TBD: Cleanup to allow fallback to MPS */
728                 return count;
729         }
730
731         count =
732             acpi_table_parse_madt(ACPI_MADT_LAPIC_NMI, acpi_parse_lapic_nmi, 0);
733         if (count < 0) {
734                 printk(KERN_ERR PREFIX "Error parsing LAPIC NMI entry\n");
735                 /* TBD: Cleanup to allow fallback to MPS */
736                 return count;
737         }
738         return 0;
739 }
740 #endif                          /* CONFIG_X86_LOCAL_APIC */
741
742 #ifdef  CONFIG_X86_IO_APIC
743 /*
744  * Parse IOAPIC related entries in MADT
745  * returns 0 on success, < 0 on error
746  */
747 static int __init acpi_parse_madt_ioapic_entries(void)
748 {
749         int count;
750
751         /*
752          * ACPI interpreter is required to complete interrupt setup,
753          * so if it is off, don't enumerate the io-apics with ACPI.
754          * If MPS is present, it will handle them,
755          * otherwise the system will stay in PIC mode
756          */
757         if (acpi_disabled || acpi_noirq) {
758                 return -ENODEV;
759         }
760
761         if (!cpu_has_apic) 
762                 return -ENODEV;
763
764         /*
765          * if "noapic" boot option, don't look for IO-APICs
766          */
767         if (skip_ioapic_setup) {
768                 printk(KERN_INFO PREFIX "Skipping IOAPIC probe "
769                        "due to 'noapic' option.\n");
770                 return -ENODEV;
771         }
772
773         count =
774             acpi_table_parse_madt(ACPI_MADT_IOAPIC, acpi_parse_ioapic,
775                                   MAX_IO_APICS);
776         if (!count) {
777                 printk(KERN_ERR PREFIX "No IOAPIC entries present\n");
778                 return -ENODEV;
779         } else if (count < 0) {
780                 printk(KERN_ERR PREFIX "Error parsing IOAPIC entry\n");
781                 return count;
782         }
783
784         count =
785             acpi_table_parse_madt(ACPI_MADT_INT_SRC_OVR, acpi_parse_int_src_ovr,
786                                   NR_IRQ_VECTORS);
787         if (count < 0) {
788                 printk(KERN_ERR PREFIX
789                        "Error parsing interrupt source overrides entry\n");
790                 /* TBD: Cleanup to allow fallback to MPS */
791                 return count;
792         }
793
794         /*
795          * If BIOS did not supply an INT_SRC_OVR for the SCI
796          * pretend we got one so we can set the SCI flags.
797          */
798         if (!acpi_sci_override_gsi)
799                 acpi_sci_ioapic_setup(acpi_fadt.sci_int, 0, 0);
800
801         /* Fill in identity legacy mapings where no override */
802         mp_config_acpi_legacy_irqs();
803
804         count =
805             acpi_table_parse_madt(ACPI_MADT_NMI_SRC, acpi_parse_nmi_src,
806                                   NR_IRQ_VECTORS);
807         if (count < 0) {
808                 printk(KERN_ERR PREFIX "Error parsing NMI SRC entry\n");
809                 /* TBD: Cleanup to allow fallback to MPS */
810                 return count;
811         }
812
813         return 0;
814 }
815 #else
816 static inline int acpi_parse_madt_ioapic_entries(void)
817 {
818         return -1;
819 }
820 #endif  /* !CONFIG_X86_IO_APIC */
821
822 static void __init acpi_process_madt(void)
823 {
824 #ifdef CONFIG_X86_LOCAL_APIC
825         int count, error;
826
827         count = acpi_table_parse(ACPI_APIC, acpi_parse_madt);
828         if (count >= 1) {
829
830                 /*
831                  * Parse MADT LAPIC entries
832                  */
833                 error = acpi_parse_madt_lapic_entries();
834                 if (!error) {
835                         acpi_lapic = 1;
836
837 #ifdef CONFIG_X86_GENERICARCH
838                         generic_bigsmp_probe();
839 #endif
840                         /*
841                          * Parse MADT IO-APIC entries
842                          */
843                         error = acpi_parse_madt_ioapic_entries();
844                         if (!error) {
845                                 acpi_irq_model = ACPI_IRQ_MODEL_IOAPIC;
846                                 acpi_irq_balance_set(NULL);
847                                 acpi_ioapic = 1;
848
849                                 smp_found_config = 1;
850                                 clustered_apic_check();
851                         }
852                 }
853                 if (error == -EINVAL) {
854                         /*
855                          * Dell Precision Workstation 410, 610 come here.
856                          */
857                         printk(KERN_ERR PREFIX
858                                "Invalid BIOS MADT, disabling ACPI\n");
859                         disable_acpi();
860                 }
861         }
862 #endif
863         return;
864 }
865
866 extern int acpi_force;
867
868 #ifdef __i386__
869
870 static int __init disable_acpi_irq(struct dmi_system_id *d)
871 {
872         if (!acpi_force) {
873                 printk(KERN_NOTICE "%s detected: force use of acpi=noirq\n",
874                        d->ident);
875                 acpi_noirq_set();
876         }
877         return 0;
878 }
879
880 static int __init disable_acpi_pci(struct dmi_system_id *d)
881 {
882         if (!acpi_force) {
883                 printk(KERN_NOTICE "%s detected: force use of pci=noacpi\n",
884                        d->ident);
885                 acpi_disable_pci();
886         }
887         return 0;
888 }
889
890 static int __init dmi_disable_acpi(struct dmi_system_id *d)
891 {
892         if (!acpi_force) {
893                 printk(KERN_NOTICE "%s detected: acpi off\n", d->ident);
894                 disable_acpi();
895         } else {
896                 printk(KERN_NOTICE
897                        "Warning: DMI blacklist says broken, but acpi forced\n");
898         }
899         return 0;
900 }
901
902 /*
903  * Limit ACPI to CPU enumeration for HT
904  */
905 static int __init force_acpi_ht(struct dmi_system_id *d)
906 {
907         if (!acpi_force) {
908                 printk(KERN_NOTICE "%s detected: force use of acpi=ht\n",
909                        d->ident);
910                 disable_acpi();
911                 acpi_ht = 1;
912         } else {
913                 printk(KERN_NOTICE
914                        "Warning: acpi=force overrules DMI blacklist: acpi=ht\n");
915         }
916         return 0;
917 }
918
919 /*
920  * If your system is blacklisted here, but you find that acpi=force
921  * works for you, please contact acpi-devel@sourceforge.net
922  */
923 static struct dmi_system_id __initdata acpi_dmi_table[] = {
924         /*
925          * Boxes that need ACPI disabled
926          */
927         {
928          .callback = dmi_disable_acpi,
929          .ident = "IBM Thinkpad",
930          .matches = {
931                      DMI_MATCH(DMI_BOARD_VENDOR, "IBM"),
932                      DMI_MATCH(DMI_BOARD_NAME, "2629H1G"),
933                      },
934          },
935
936         /*
937          * Boxes that need acpi=ht
938          */
939         {
940          .callback = force_acpi_ht,
941          .ident = "FSC Primergy T850",
942          .matches = {
943                      DMI_MATCH(DMI_SYS_VENDOR, "FUJITSU SIEMENS"),
944                      DMI_MATCH(DMI_PRODUCT_NAME, "PRIMERGY T850"),
945                      },
946          },
947         {
948          .callback = force_acpi_ht,
949          .ident = "DELL GX240",
950          .matches = {
951                      DMI_MATCH(DMI_BOARD_VENDOR, "Dell Computer Corporation"),
952                      DMI_MATCH(DMI_BOARD_NAME, "OptiPlex GX240"),
953                      },
954          },
955         {
956          .callback = force_acpi_ht,
957          .ident = "HP VISUALIZE NT Workstation",
958          .matches = {
959                      DMI_MATCH(DMI_BOARD_VENDOR, "Hewlett-Packard"),
960                      DMI_MATCH(DMI_PRODUCT_NAME, "HP VISUALIZE NT Workstation"),
961                      },
962          },
963         {
964          .callback = force_acpi_ht,
965          .ident = "Compaq Workstation W8000",
966          .matches = {
967                      DMI_MATCH(DMI_SYS_VENDOR, "Compaq"),
968                      DMI_MATCH(DMI_PRODUCT_NAME, "Workstation W8000"),
969                      },
970          },
971         {
972          .callback = force_acpi_ht,
973          .ident = "ASUS P4B266",
974          .matches = {
975                      DMI_MATCH(DMI_BOARD_VENDOR, "ASUSTeK Computer INC."),
976                      DMI_MATCH(DMI_BOARD_NAME, "P4B266"),
977                      },
978          },
979         {
980          .callback = force_acpi_ht,
981          .ident = "ASUS P2B-DS",
982          .matches = {
983                      DMI_MATCH(DMI_BOARD_VENDOR, "ASUSTeK Computer INC."),
984                      DMI_MATCH(DMI_BOARD_NAME, "P2B-DS"),
985                      },
986          },
987         {
988          .callback = force_acpi_ht,
989          .ident = "ASUS CUR-DLS",
990          .matches = {
991                      DMI_MATCH(DMI_BOARD_VENDOR, "ASUSTeK Computer INC."),
992                      DMI_MATCH(DMI_BOARD_NAME, "CUR-DLS"),
993                      },
994          },
995         {
996          .callback = force_acpi_ht,
997          .ident = "ABIT i440BX-W83977",
998          .matches = {
999                      DMI_MATCH(DMI_BOARD_VENDOR, "ABIT <http://www.abit.com>"),
1000                      DMI_MATCH(DMI_BOARD_NAME, "i440BX-W83977 (BP6)"),
1001                      },
1002          },
1003         {
1004          .callback = force_acpi_ht,
1005          .ident = "IBM Bladecenter",
1006          .matches = {
1007                      DMI_MATCH(DMI_BOARD_VENDOR, "IBM"),
1008                      DMI_MATCH(DMI_BOARD_NAME, "IBM eServer BladeCenter HS20"),
1009                      },
1010          },
1011         {
1012          .callback = force_acpi_ht,
1013          .ident = "IBM eServer xSeries 360",
1014          .matches = {
1015                      DMI_MATCH(DMI_BOARD_VENDOR, "IBM"),
1016                      DMI_MATCH(DMI_BOARD_NAME, "eServer xSeries 360"),
1017                      },
1018          },
1019         {
1020          .callback = force_acpi_ht,
1021          .ident = "IBM eserver xSeries 330",
1022          .matches = {
1023                      DMI_MATCH(DMI_BOARD_VENDOR, "IBM"),
1024                      DMI_MATCH(DMI_BOARD_NAME, "eserver xSeries 330"),
1025                      },
1026          },
1027         {
1028          .callback = force_acpi_ht,
1029          .ident = "IBM eserver xSeries 440",
1030          .matches = {
1031                      DMI_MATCH(DMI_BOARD_VENDOR, "IBM"),
1032                      DMI_MATCH(DMI_PRODUCT_NAME, "eserver xSeries 440"),
1033                      },
1034          },
1035
1036         /*
1037          * Boxes that need ACPI PCI IRQ routing disabled
1038          */
1039         {
1040          .callback = disable_acpi_irq,
1041          .ident = "ASUS A7V",
1042          .matches = {
1043                      DMI_MATCH(DMI_BOARD_VENDOR, "ASUSTeK Computer INC"),
1044                      DMI_MATCH(DMI_BOARD_NAME, "<A7V>"),
1045                      /* newer BIOS, Revision 1011, does work */
1046                      DMI_MATCH(DMI_BIOS_VERSION,
1047                                "ASUS A7V ACPI BIOS Revision 1007"),
1048                      },
1049          },
1050
1051         /*
1052          * Boxes that need ACPI PCI IRQ routing and PCI scan disabled
1053          */
1054         {                       /* _BBN 0 bug */
1055          .callback = disable_acpi_pci,
1056          .ident = "ASUS PR-DLS",
1057          .matches = {
1058                      DMI_MATCH(DMI_BOARD_VENDOR, "ASUSTeK Computer INC."),
1059                      DMI_MATCH(DMI_BOARD_NAME, "PR-DLS"),
1060                      DMI_MATCH(DMI_BIOS_VERSION,
1061                                "ASUS PR-DLS ACPI BIOS Revision 1010"),
1062                      DMI_MATCH(DMI_BIOS_DATE, "03/21/2003")
1063                      },
1064          },
1065         {
1066          .callback = disable_acpi_pci,
1067          .ident = "Acer TravelMate 36x Laptop",
1068          .matches = {
1069                      DMI_MATCH(DMI_SYS_VENDOR, "Acer"),
1070                      DMI_MATCH(DMI_PRODUCT_NAME, "TravelMate 360"),
1071                      },
1072          },
1073         {}
1074 };
1075
1076 #endif                          /* __i386__ */
1077
1078 /*
1079  * acpi_boot_table_init() and acpi_boot_init()
1080  *  called from setup_arch(), always.
1081  *      1. checksums all tables
1082  *      2. enumerates lapics
1083  *      3. enumerates io-apics
1084  *
1085  * acpi_table_init() is separate to allow reading SRAT without
1086  * other side effects.
1087  *
1088  * side effects of acpi_boot_init:
1089  *      acpi_lapic = 1 if LAPIC found
1090  *      acpi_ioapic = 1 if IOAPIC found
1091  *      if (acpi_lapic && acpi_ioapic) smp_found_config = 1;
1092  *      if acpi_blacklisted() acpi_disabled = 1;
1093  *      acpi_irq_model=...
1094  *      ...
1095  *
1096  * return value: (currently ignored)
1097  *      0: success
1098  *      !0: failure
1099  */
1100
1101 int __init acpi_boot_table_init(void)
1102 {
1103         int error;
1104
1105 #ifdef __i386__
1106         dmi_check_system(acpi_dmi_table);
1107 #endif
1108
1109         /*
1110          * If acpi_disabled, bail out
1111          * One exception: acpi=ht continues far enough to enumerate LAPICs
1112          */
1113         if (acpi_disabled && !acpi_ht)
1114                 return 1;
1115
1116         /* 
1117          * Initialize the ACPI boot-time table parser.
1118          */
1119         error = acpi_table_init();
1120         if (error) {
1121                 disable_acpi();
1122                 return error;
1123         }
1124
1125         acpi_table_parse(ACPI_BOOT, acpi_parse_sbf);
1126
1127         /*
1128          * blacklist may disable ACPI entirely
1129          */
1130         error = acpi_blacklisted();
1131         if (error) {
1132                 if (acpi_force) {
1133                         printk(KERN_WARNING PREFIX "acpi=force override\n");
1134                 } else {
1135                         printk(KERN_WARNING PREFIX "Disabling ACPI support\n");
1136                         disable_acpi();
1137                         return error;
1138                 }
1139         }
1140
1141         return 0;
1142 }
1143
1144 int __init acpi_boot_init(void)
1145 {
1146         /*
1147          * If acpi_disabled, bail out
1148          * One exception: acpi=ht continues far enough to enumerate LAPICs
1149          */
1150         if (acpi_disabled && !acpi_ht)
1151                 return 1;
1152
1153         acpi_table_parse(ACPI_BOOT, acpi_parse_sbf);
1154
1155         /*
1156          * set sci_int and PM timer address
1157          */
1158         acpi_table_parse(ACPI_FADT, acpi_parse_fadt);
1159
1160         /*
1161          * Process the Multiple APIC Description Table (MADT), if present
1162          */
1163         acpi_process_madt();
1164
1165         acpi_table_parse(ACPI_HPET, acpi_parse_hpet);
1166
1167         return 0;
1168 }