Fedora kernel-2.6.17-1.2142_FC4 patched with stable patch-2.6.17.4-vs2.0.2-rc26.diff
[linux-2.6.git] / include / asm-sparc64 / tlb.h
1 #ifndef _SPARC64_TLB_H
2 #define _SPARC64_TLB_H
3
4 #include <linux/config.h>
5 #include <linux/swap.h>
6 #include <linux/vs_memory.h>
7 #include <asm/pgalloc.h>
8 #include <asm/tlbflush.h>
9 #include <asm/mmu_context.h>
10
11 #define TLB_BATCH_NR    192
12
13 /*
14  * For UP we don't need to worry about TLB flush
15  * and page free order so much..
16  */
17 #ifdef CONFIG_SMP
18   #define FREE_PTE_NR   506
19   #define tlb_fast_mode(bp) ((bp)->pages_nr == ~0U)
20 #else
21   #define FREE_PTE_NR   1
22   #define tlb_fast_mode(bp) 1
23 #endif
24
25 struct mmu_gather {
26         struct mm_struct *mm;
27         unsigned int pages_nr;
28         unsigned int need_flush;
29         unsigned int fullmm;
30         unsigned int tlb_nr;
31         unsigned long vaddrs[TLB_BATCH_NR];
32         struct page *pages[FREE_PTE_NR];
33 };
34
35 DECLARE_PER_CPU(struct mmu_gather, mmu_gathers);
36
37 #ifdef CONFIG_SMP
38 extern void smp_flush_tlb_pending(struct mm_struct *,
39                                   unsigned long, unsigned long *);
40 #endif
41
42 extern void __flush_tlb_pending(unsigned long, unsigned long, unsigned long *);
43 extern void flush_tlb_pending(void);
44
45 static inline struct mmu_gather *tlb_gather_mmu(struct mm_struct *mm, unsigned int full_mm_flush)
46 {
47         struct mmu_gather *mp = &get_cpu_var(mmu_gathers);
48
49         BUG_ON(mp->tlb_nr);
50
51         mp->mm = mm;
52         mp->pages_nr = num_online_cpus() > 1 ? 0U : ~0U;
53         mp->fullmm = full_mm_flush;
54
55         return mp;
56 }
57
58
59 static inline void tlb_flush_mmu(struct mmu_gather *mp)
60 {
61         if (mp->need_flush) {
62                 free_pages_and_swap_cache(mp->pages, mp->pages_nr);
63                 mp->pages_nr = 0;
64                 mp->need_flush = 0;
65         }
66
67 }
68
69 #ifdef CONFIG_SMP
70 extern void smp_flush_tlb_mm(struct mm_struct *mm);
71 #define do_flush_tlb_mm(mm) smp_flush_tlb_mm(mm)
72 #else
73 #define do_flush_tlb_mm(mm) __flush_tlb_mm(CTX_HWBITS(mm->context), SECONDARY_CONTEXT)
74 #endif
75
76 static inline void tlb_finish_mmu(struct mmu_gather *mp, unsigned long start, unsigned long end)
77 {
78         tlb_flush_mmu(mp);
79
80         if (mp->fullmm)
81                 mp->fullmm = 0;
82         else
83                 flush_tlb_pending();
84
85         /* keep the page table cache within bounds */
86         check_pgt_cache();
87
88         put_cpu_var(mmu_gathers);
89 }
90
91 static inline void tlb_remove_page(struct mmu_gather *mp, struct page *page)
92 {
93         if (tlb_fast_mode(mp)) {
94                 free_page_and_swap_cache(page);
95                 return;
96         }
97         mp->need_flush = 1;
98         mp->pages[mp->pages_nr++] = page;
99         if (mp->pages_nr >= FREE_PTE_NR)
100                 tlb_flush_mmu(mp);
101 }
102
103 #define tlb_remove_tlb_entry(mp,ptep,addr) do { } while (0)
104 #define pte_free_tlb(mp,ptepage) pte_free(ptepage)
105 #define pmd_free_tlb(mp,pmdp) pmd_free(pmdp)
106 #define pud_free_tlb(tlb,pudp) __pud_free_tlb(tlb,pudp)
107
108 #define tlb_migrate_finish(mm)  do { } while (0)
109 #define tlb_start_vma(tlb, vma) do { } while (0)
110 #define tlb_end_vma(tlb, vma)   do { } while (0)
111
112 #endif /* _SPARC64_TLB_H */