vserver 1.9.3
[linux-2.6.git] / drivers / char / drm / drm_memory.h
1 /** 
2  * \file drm_memory.h 
3  * Memory management wrappers for DRM
4  *
5  * \author Rickard E. (Rik) Faith <faith@valinux.com>
6  * \author Gareth Hughes <gareth@valinux.com>
7  */
8
9 /* 
10  * Created: Thu Feb  4 14:00:34 1999 by faith@valinux.com
11  *
12  * Copyright 1999 Precision Insight, Inc., Cedar Park, Texas.
13  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
14  * All Rights Reserved.
15  *
16  * Permission is hereby granted, free of charge, to any person obtaining a
17  * copy of this software and associated documentation files (the "Software"),
18  * to deal in the Software without restriction, including without limitation
19  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
20  * and/or sell copies of the Software, and to permit persons to whom the
21  * Software is furnished to do so, subject to the following conditions:
22  *
23  * The above copyright notice and this permission notice (including the next
24  * paragraph) shall be included in all copies or substantial portions of the
25  * Software.
26  *
27  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
28  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
29  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
30  * VA LINUX SYSTEMS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
31  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
32  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
33  * OTHER DEALINGS IN THE SOFTWARE.
34  */
35
36 #include <linux/config.h>
37 #include <linux/highmem.h>
38 #include "drmP.h"
39
40 /**
41  * Cut down version of drm_memory_debug.h, which used to be called
42  * drm_memory.h.  If you want the debug functionality, change 0 to 1
43  * below.
44  */
45 #define DEBUG_MEMORY 0
46
47 #if __OS_HAS_AGP
48
49 #include <linux/vmalloc.h>
50
51 #ifdef HAVE_PAGE_AGP
52 #include <asm/agp.h>
53 #else
54 # ifdef __powerpc__
55 #  define PAGE_AGP      __pgprot(_PAGE_KERNEL | _PAGE_NO_CACHE)
56 # else
57 #  define PAGE_AGP      PAGE_KERNEL
58 # endif
59 #endif
60
61 #include <asm/tlbflush.h>
62
63 /*
64  * Find the drm_map that covers the range [offset, offset+size).
65  */
66 static inline drm_map_t *
67 drm_lookup_map (unsigned long offset, unsigned long size, drm_device_t *dev)
68 {
69         struct list_head *list;
70         drm_map_list_t *r_list;
71         drm_map_t *map;
72
73         list_for_each(list, &dev->maplist->head) {
74                 r_list = (drm_map_list_t *) list;
75                 map = r_list->map;
76                 if (!map)
77                         continue;
78                 if (map->offset <= offset && (offset + size) <= (map->offset + map->size))
79                         return map;
80         }
81         return NULL;
82 }
83
84 static inline void *
85 agp_remap (unsigned long offset, unsigned long size, drm_device_t *dev)
86 {
87         unsigned long *phys_addr_map, i, num_pages = PAGE_ALIGN(size) / PAGE_SIZE;
88         struct drm_agp_mem *agpmem;
89         struct page **page_map;
90         void *addr;
91
92         size = PAGE_ALIGN(size);
93
94 #ifdef __alpha__
95         offset -= dev->hose->mem_space->start;
96 #endif
97
98         for (agpmem = dev->agp->memory; agpmem; agpmem = agpmem->next)
99                 if (agpmem->bound <= offset
100                     && (agpmem->bound + (agpmem->pages << PAGE_SHIFT)) >= (offset + size))
101                         break;
102         if (!agpmem)
103                 return NULL;
104
105         /*
106          * OK, we're mapping AGP space on a chipset/platform on which memory accesses by
107          * the CPU do not get remapped by the GART.  We fix this by using the kernel's
108          * page-table instead (that's probably faster anyhow...).
109          */
110         /* note: use vmalloc() because num_pages could be large... */
111         page_map = vmalloc(num_pages * sizeof(struct page *));
112         if (!page_map)
113                 return NULL;
114
115         phys_addr_map = agpmem->memory->memory + (offset - agpmem->bound) / PAGE_SIZE;
116         for (i = 0; i < num_pages; ++i)
117                 page_map[i] = pfn_to_page(phys_addr_map[i] >> PAGE_SHIFT);
118         addr = vmap(page_map, num_pages, VM_IOREMAP, PAGE_AGP);
119         vfree(page_map);
120
121         return addr;
122 }
123
124 static inline unsigned long
125 drm_follow_page (void *vaddr)
126 {
127         pgd_t *pgd = pgd_offset_k((unsigned long) vaddr);
128         pmd_t *pmd = pmd_offset(pgd, (unsigned long) vaddr);
129         pte_t *ptep = pte_offset_kernel(pmd, (unsigned long) vaddr);
130         return pte_pfn(*ptep) << PAGE_SHIFT;
131 }
132
133 #else /* __OS_HAS_AGP */
134
135 static inline drm_map_t *drm_lookup_map(unsigned long offset, unsigned long size, drm_device_t *dev)
136 {
137   return NULL;
138 }
139
140 static inline void *agp_remap(unsigned long offset, unsigned long size, drm_device_t *dev)
141 {
142   return NULL;
143 }
144
145 static inline unsigned long drm_follow_page (void *vaddr)
146 {
147   return 0;
148 }
149
150 #endif
151
152 static inline void *drm_ioremap(unsigned long offset, unsigned long size, drm_device_t *dev)
153 {
154         if (drm_core_has_AGP(dev) && dev->agp && dev->agp->cant_use_aperture) {
155                 drm_map_t *map = drm_lookup_map(offset, size, dev);
156
157                 if (map && map->type == _DRM_AGP)
158                         return agp_remap(offset, size, dev);
159         }
160         return ioremap(offset, size);
161 }
162
163 static inline void *drm_ioremap_nocache(unsigned long offset, unsigned long size,
164                                         drm_device_t *dev)
165 {
166         if (drm_core_has_AGP(dev) && dev->agp && dev->agp->cant_use_aperture) {
167                 drm_map_t *map = drm_lookup_map(offset, size, dev);
168
169                 if (map && map->type == _DRM_AGP)
170                         return agp_remap(offset, size, dev);
171         }
172         return ioremap_nocache(offset, size);
173 }
174
175 static inline void drm_ioremapfree(void *pt, unsigned long size, drm_device_t *dev)
176 {
177         /*
178          * This is a bit ugly.  It would be much cleaner if the DRM API would use separate
179          * routines for handling mappings in the AGP space.  Hopefully this can be done in
180          * a future revision of the interface...
181          */
182         if (drm_core_has_AGP(dev) && dev->agp && dev->agp->cant_use_aperture
183             && ((unsigned long) pt >= VMALLOC_START && (unsigned long) pt < VMALLOC_END))
184         {
185                 unsigned long offset;
186                 drm_map_t *map;
187
188                 offset = drm_follow_page(pt) | ((unsigned long) pt & ~PAGE_MASK);
189                 map = drm_lookup_map(offset, size, dev);
190                 if (map && map->type == _DRM_AGP) {
191                         vunmap(pt);
192                         return;
193                 }
194         }
195
196         iounmap(pt);
197 }
198
199
200 #if DEBUG_MEMORY
201 #include "drm_memory_debug.h"
202 #else
203
204 /** No-op. */
205 void DRM(mem_init)(void)
206 {
207 }
208
209 /**
210  * Called when "/proc/dri/%dev%/mem" is read.
211  * 
212  * \param buf output buffer.
213  * \param start start of output data.
214  * \param offset requested start offset.
215  * \param len requested number of bytes.
216  * \param eof whether there is no more data to return.
217  * \param data private data.
218  * \return number of written bytes.
219  *
220  * No-op. 
221  */
222 int DRM(mem_info)(char *buf, char **start, off_t offset,
223                   int len, int *eof, void *data)
224 {
225         return 0;
226 }
227
228 /** Wrapper around kmalloc() */
229 void *DRM(alloc)(size_t size, int area)
230 {
231         return kmalloc(size, GFP_KERNEL);
232 }
233
234 /** Wrapper around kmalloc() */
235 void *DRM(calloc)(size_t size, size_t nmemb, int area)
236 {
237         void *addr;
238
239         addr = kmalloc(size * nmemb, GFP_KERNEL);
240         if (addr != NULL)
241                 memset((void *)addr, 0, size * nmemb);
242
243         return addr;
244 }
245
246 /** Wrapper around kmalloc() and kfree() */
247 void *DRM(realloc)(void *oldpt, size_t oldsize, size_t size, int area)
248 {
249         void *pt;
250
251         if (!(pt = kmalloc(size, GFP_KERNEL))) return NULL;
252         if (oldpt && oldsize) {
253                 memcpy(pt, oldpt, oldsize);
254                 kfree(oldpt);
255         }
256         return pt;
257 }
258
259 /** Wrapper around kfree() */
260 void DRM(free)(void *pt, size_t size, int area)
261 {
262         kfree(pt);
263 }
264
265 /**
266  * Allocate pages.
267  *
268  * \param order size order.
269  * \param area memory area. (Not used.)
270  * \return page address on success, or zero on failure.
271  *
272  * Allocate and reserve free pages.
273  */
274 unsigned long DRM(alloc_pages)(int order, int area)
275 {
276         unsigned long address;
277         unsigned long bytes       = PAGE_SIZE << order;
278         unsigned long addr;
279         unsigned int  sz;
280
281         address = __get_free_pages(GFP_KERNEL, order);
282         if (!address) 
283                 return 0;
284
285                                 /* Zero */
286         memset((void *)address, 0, bytes);
287
288                                 /* Reserve */
289         for (addr = address, sz = bytes;
290              sz > 0;
291              addr += PAGE_SIZE, sz -= PAGE_SIZE) {
292                 SetPageReserved(virt_to_page(addr));
293         }
294
295         return address;
296 }
297
298 /**
299  * Free pages.
300  * 
301  * \param address address of the pages to free.
302  * \param order size order.
303  * \param area memory area. (Not used.)
304  *
305  * Unreserve and free pages allocated by alloc_pages().
306  */
307 void DRM(free_pages)(unsigned long address, int order, int area)
308 {
309         unsigned long bytes = PAGE_SIZE << order;
310         unsigned long addr;
311         unsigned int  sz;
312
313         if (!address) 
314                 return;
315
316         /* Unreserve */
317         for (addr = address, sz = bytes;
318              sz > 0;
319              addr += PAGE_SIZE, sz -= PAGE_SIZE) {
320                 ClearPageReserved(virt_to_page(addr));
321         }
322
323         free_pages(address, order);
324 }
325
326 /** Wrapper around drm_ioremap() */
327 void *DRM(ioremap)(unsigned long offset, unsigned long size, drm_device_t *dev)
328 {
329         return drm_ioremap(offset, size, dev);
330 }
331
332 /** Wrapper around drm_ioremap_nocache() */
333 void *DRM(ioremap_nocache)(unsigned long offset, unsigned long size, drm_device_t *dev)
334 {
335         return drm_ioremap_nocache(offset, size, dev);
336 }
337
338 /** Wrapper around drm_iounmap() */
339 void DRM(ioremapfree)(void *pt, unsigned long size, drm_device_t *dev)
340 {
341         drm_ioremapfree(pt, size, dev);
342 }
343
344 #if __OS_HAS_AGP
345 /** Wrapper around agp_allocate_memory() */
346 DRM_AGP_MEM *DRM(alloc_agp)(int pages, u32 type)
347 {
348         return DRM(agp_allocate_memory)(pages, type);
349 }
350
351 /** Wrapper around agp_free_memory() */
352 int DRM(free_agp)(DRM_AGP_MEM *handle, int pages)
353 {
354         return DRM(agp_free_memory)(handle) ? 0 : -EINVAL;
355 }
356
357 /** Wrapper around agp_bind_memory() */
358 int DRM(bind_agp)(DRM_AGP_MEM *handle, unsigned int start)
359 {
360         return DRM(agp_bind_memory)(handle, start);
361 }
362
363 /** Wrapper around agp_unbind_memory() */
364 int DRM(unbind_agp)(DRM_AGP_MEM *handle)
365 {
366         return DRM(agp_unbind_memory)(handle);
367 }
368 #endif /* agp */
369 #endif /* debug_memory */