vserver 1.9.3
[linux-2.6.git] / arch / alpha / kernel / pci-noop.c
index b8a7e3f..582a351 100644 (file)
@@ -7,8 +7,10 @@
 #include <linux/pci.h>
 #include <linux/init.h>
 #include <linux/bootmem.h>
+#include <linux/mm.h>
 #include <linux/errno.h>
 #include <linux/sched.h>
+#include <linux/dma-mapping.h>
 
 #include "proto.h"
 
@@ -101,41 +103,112 @@ sys_pciconfig_write(unsigned long bus, unsigned long dfn,
        else
                return -ENODEV;
 }
-/* stubs for the routines in pci_iommu.c */
+
+/* Stubs for the routines in pci_iommu.c: */
+
 void *
 pci_alloc_consistent(struct pci_dev *pdev, size_t size, dma_addr_t *dma_addrp)
 {
        return NULL;
 }
+
 void
 pci_free_consistent(struct pci_dev *pdev, size_t size, void *cpu_addr,
                    dma_addr_t dma_addr)
 {
 }
+
 dma_addr_t
 pci_map_single(struct pci_dev *pdev, void *cpu_addr, size_t size,
               int direction)
 {
        return (dma_addr_t) 0;
 }
+
 void
 pci_unmap_single(struct pci_dev *pdev, dma_addr_t dma_addr, size_t size,
                 int direction)
 {
 }
+
 int
 pci_map_sg(struct pci_dev *pdev, struct scatterlist *sg, int nents,
           int direction)
 {
        return 0;
 }
+
 void
 pci_unmap_sg(struct pci_dev *pdev, struct scatterlist *sg, int nents,
             int direction)
 {
 }
+
 int
 pci_dma_supported(struct pci_dev *hwdev, dma_addr_t mask)
 {
        return 0;
 }
+
+/* Generic DMA mapping functions: */
+
+void *
+dma_alloc_coherent(struct device *dev, size_t size,
+                  dma_addr_t *dma_handle, int gfp)
+{
+       void *ret;
+
+       if (!dev || *dev->dma_mask >= 0xffffffffUL)
+               gfp &= ~GFP_DMA;
+       ret = (void *)__get_free_pages(gfp, get_order(size));
+       if (ret) {
+               memset(ret, 0, size);
+               *dma_handle = virt_to_bus(ret);
+       }
+       return ret;
+}
+
+EXPORT_SYMBOL(dma_alloc_coherent);
+
+int
+dma_map_sg(struct device *dev, struct scatterlist *sg, int nents,
+          enum dma_data_direction direction)
+{
+       int i;
+
+       for (i = 0; i < nents; i++ ) {
+               void *va;
+
+               BUG_ON(!sg[i].page);
+               va = page_address(sg[i].page) + sg[i].offset;
+               sg_dma_address(sg + i) = (dma_addr_t)virt_to_bus(va);
+               sg_dma_len(sg + i) = sg[i].length;
+       }
+
+       return nents;
+}
+
+EXPORT_SYMBOL(dma_map_sg);
+
+int
+dma_set_mask(struct device *dev, u64 mask)
+{
+       if (!dev->dma_mask || !dma_supported(dev, mask))
+               return -EIO;
+
+       *dev->dma_mask = mask;
+
+       return 0;
+}
+
+void __iomem *pci_iomap(struct pci_dev *dev, int bar, unsigned long maxlen)
+{
+       return NULL;
+}
+
+void pci_iounmap(struct pci_dev *dev, void __iomem * addr)
+{
+}
+
+EXPORT_SYMBOL(pci_iomap);
+EXPORT_SYMBOL(pci_iounmap);