ftp://ftp.kernel.org/pub/linux/kernel/v2.6/linux-2.6.6.tar.bz2
[linux-2.6.git] / arch / i386 / kernel / cpu / cpufreq / p4-clockmod.c
1 /*
2  *      Pentium 4/Xeon CPU on demand clock modulation/speed scaling
3  *      (C) 2002 - 2003 Dominik Brodowski <linux@brodo.de>
4  *      (C) 2002 Zwane Mwaikambo <zwane@commfireservices.com>
5  *      (C) 2002 Arjan van de Ven <arjanv@redhat.com>
6  *      (C) 2002 Tora T. Engstad
7  *      All Rights Reserved
8  *
9  *      This program is free software; you can redistribute it and/or
10  *      modify it under the terms of the GNU General Public License
11  *      as published by the Free Software Foundation; either version
12  *      2 of the License, or (at your option) any later version.
13  *
14  *      The author(s) of this software shall not be held liable for damages
15  *      of any nature resulting due to the use of this software. This
16  *      software is provided AS-IS with no warranties.
17  *      
18  *      Date            Errata                  Description
19  *      20020525        N44, O17        12.5% or 25% DC causes lockup
20  *
21  */
22
23 #include <linux/config.h>
24 #include <linux/kernel.h>
25 #include <linux/module.h> 
26 #include <linux/init.h>
27 #include <linux/smp.h>
28 #include <linux/cpufreq.h>
29 #include <linux/slab.h>
30 #include <linux/sched.h>
31
32 #include <asm/processor.h> 
33 #include <asm/msr.h>
34 #include <asm/timex.h>
35
36 #include "speedstep-lib.h"
37
38 #define PFX     "cpufreq: "
39
40 /*
41  * Duty Cycle (3bits), note DC_DISABLE is not specified in
42  * intel docs i just use it to mean disable
43  */
44 enum {
45         DC_RESV, DC_DFLT, DC_25PT, DC_38PT, DC_50PT,
46         DC_64PT, DC_75PT, DC_88PT, DC_DISABLE
47 };
48
49 #define DC_ENTRIES      8
50
51
52 static int has_N44_O17_errata[NR_CPUS];
53 static unsigned int stock_freq;
54
55 static int cpufreq_p4_setdc(unsigned int cpu, unsigned int newstate)
56 {
57         u32 l, h;
58         cpumask_t cpus_allowed, affected_cpu_map;
59         struct cpufreq_freqs freqs;
60         int hyperthreading = 0;
61         int sibling = 0;
62
63         if (!cpu_online(cpu) || (newstate > DC_DISABLE) || 
64                 (newstate == DC_RESV))
65                 return -EINVAL;
66
67         /* switch to physical CPU where state is to be changed*/
68         cpus_allowed = current->cpus_allowed;
69
70         /* only run on CPU to be set, or on its sibling */
71        affected_cpu_map = cpumask_of_cpu(cpu);
72 #ifdef CONFIG_X86_HT
73         hyperthreading = ((cpu_has_ht) && (smp_num_siblings == 2));
74         if (hyperthreading) {
75                 sibling = cpu_sibling_map[cpu];
76                 cpu_set(sibling, affected_cpu_map);
77         }
78 #endif
79         set_cpus_allowed(current, affected_cpu_map);
80         BUG_ON(!cpu_isset(smp_processor_id(), affected_cpu_map));
81
82         /* get current state */
83         rdmsr(MSR_IA32_THERM_CONTROL, l, h);
84         if (l & 0x10) {
85                 l = l >> 1;
86                 l &= 0x7;
87         } else
88                 l = DC_DISABLE;
89         
90         if (l == newstate) {
91                 set_cpus_allowed(current, cpus_allowed);
92                 return 0;
93         } else if (l == DC_RESV) {
94                 printk(KERN_ERR PFX "BIG FAT WARNING: currently in invalid setting\n");
95         }
96
97         /* notifiers */
98         freqs.old = stock_freq * l / 8;
99         freqs.new = stock_freq * newstate / 8;
100         freqs.cpu = cpu;
101         cpufreq_notify_transition(&freqs, CPUFREQ_PRECHANGE);
102         if (hyperthreading) {
103                 freqs.cpu = sibling;
104                 cpufreq_notify_transition(&freqs, CPUFREQ_PRECHANGE);
105         }
106
107         rdmsr(MSR_IA32_THERM_STATUS, l, h);
108 #if 0
109         if (l & 0x01)
110                 printk(KERN_DEBUG PFX "CPU#%d currently thermal throttled\n", cpu);
111 #endif
112         if (has_N44_O17_errata[cpu] && (newstate == DC_25PT || newstate == DC_DFLT))
113                 newstate = DC_38PT;
114
115         rdmsr(MSR_IA32_THERM_CONTROL, l, h);
116         if (newstate == DC_DISABLE) {
117                 /* printk(KERN_INFO PFX "CPU#%d disabling modulation\n", cpu); */
118                 wrmsr(MSR_IA32_THERM_CONTROL, l & ~(1<<4), h);
119         } else {
120                 /* printk(KERN_INFO PFX "CPU#%d setting duty cycle to %d%%\n",
121                         cpu, ((125 * newstate) / 10)); */
122                 /* bits 63 - 5  : reserved 
123                  * bit  4       : enable/disable
124                  * bits 3-1     : duty cycle
125                  * bit  0       : reserved
126                  */
127                 l = (l & ~14);
128                 l = l | (1<<4) | ((newstate & 0x7)<<1);
129                 wrmsr(MSR_IA32_THERM_CONTROL, l, h);
130         }
131
132         set_cpus_allowed(current, cpus_allowed);
133
134         /* notifiers */
135         cpufreq_notify_transition(&freqs, CPUFREQ_POSTCHANGE);
136         if (hyperthreading) {
137                 freqs.cpu = cpu;
138                 cpufreq_notify_transition(&freqs, CPUFREQ_POSTCHANGE);
139         }
140
141         return 0;
142 }
143
144
145 static struct cpufreq_frequency_table p4clockmod_table[] = {
146         {DC_RESV, CPUFREQ_ENTRY_INVALID},
147         {DC_DFLT, 0},
148         {DC_25PT, 0},
149         {DC_38PT, 0},
150         {DC_50PT, 0},
151         {DC_64PT, 0},
152         {DC_75PT, 0},
153         {DC_88PT, 0},
154         {DC_DISABLE, 0},
155         {DC_RESV, CPUFREQ_TABLE_END},
156 };
157
158
159 static int cpufreq_p4_target(struct cpufreq_policy *policy,
160                              unsigned int target_freq,
161                              unsigned int relation)
162 {
163         unsigned int    newstate = DC_RESV;
164
165         if (cpufreq_frequency_table_target(policy, &p4clockmod_table[0], target_freq, relation, &newstate))
166                 return -EINVAL;
167
168         cpufreq_p4_setdc(policy->cpu, p4clockmod_table[newstate].index);
169
170         return 0;
171 }
172
173
174 static int cpufreq_p4_verify(struct cpufreq_policy *policy)
175 {
176         return cpufreq_frequency_table_verify(policy, &p4clockmod_table[0]);
177 }
178
179
180 static unsigned int cpufreq_p4_get_frequency(struct cpuinfo_x86 *c)
181 {
182         if ((c->x86 == 0x06) && (c->x86_model == 0x09)) {
183                 /* Pentium M */
184                 printk(KERN_WARNING PFX "Warning: Pentium M detected. "
185                        "The speedstep_centrino module offers voltage scaling"
186                        " in addition of frequency scaling. You should use "
187                        "that instead of p4-clockmod, if possible.\n");
188                 return speedstep_get_processor_frequency(SPEEDSTEP_PROCESSOR_PM);
189         }
190
191         if (c->x86 != 0xF) {
192                 printk(KERN_WARNING PFX "Unknown p4-clockmod-capable CPU. Please send an e-mail to <linux@brodo.de>\n");
193                 return 0;
194         }
195
196         if (speedstep_detect_processor() == SPEEDSTEP_PROCESSOR_P4M) {
197                 printk(KERN_WARNING PFX "Warning: Pentium 4-M detected. "
198                        "The speedstep-ich or acpi cpufreq modules offer "
199                        "voltage scaling in addition of frequency scaling. "
200                        "You should use either one instead of p4-clockmod, "
201                        "if possible.\n");
202                 return speedstep_get_processor_frequency(SPEEDSTEP_PROCESSOR_P4M);
203         }
204
205         return speedstep_get_processor_frequency(SPEEDSTEP_PROCESSOR_P4D);
206 }
207
208  
209
210 static int cpufreq_p4_cpu_init(struct cpufreq_policy *policy)
211 {
212         struct cpuinfo_x86 *c = &cpu_data[policy->cpu];
213         int cpuid = 0;
214         unsigned int i;
215
216         /* Errata workaround */
217         cpuid = (c->x86 << 8) | (c->x86_model << 4) | c->x86_mask;
218         switch (cpuid) {
219         case 0x0f07:
220         case 0x0f0a:
221         case 0x0f11:
222         case 0x0f12:
223                 has_N44_O17_errata[policy->cpu] = 1;
224         }
225         
226         /* get max frequency */
227         stock_freq = cpufreq_p4_get_frequency(c);
228         if (!stock_freq)
229                 return -EINVAL;
230
231         /* table init */
232         for (i=1; (p4clockmod_table[i].frequency != CPUFREQ_TABLE_END); i++) {
233                 if ((i<2) && (has_N44_O17_errata[policy->cpu]))
234                         p4clockmod_table[i].frequency = CPUFREQ_ENTRY_INVALID;
235                 else
236                         p4clockmod_table[i].frequency = (stock_freq * i)/8;
237         }
238         cpufreq_frequency_table_get_attr(p4clockmod_table, policy->cpu);
239         
240         /* cpuinfo and default policy values */
241         policy->governor = CPUFREQ_DEFAULT_GOVERNOR;
242         policy->cpuinfo.transition_latency = 1000000; /* assumed */
243         policy->cur = stock_freq;
244
245         return cpufreq_frequency_table_cpuinfo(policy, &p4clockmod_table[0]);
246 }
247
248
249 static int cpufreq_p4_cpu_exit(struct cpufreq_policy *policy)
250 {
251         cpufreq_frequency_table_put_attr(policy->cpu);    
252         return 0;
253 }
254
255 static struct freq_attr* p4clockmod_attr[] = {
256         &cpufreq_freq_attr_scaling_available_freqs,
257         NULL,
258 };
259
260 static struct cpufreq_driver p4clockmod_driver = {
261         .verify         = cpufreq_p4_verify,
262         .target         = cpufreq_p4_target,
263         .init           = cpufreq_p4_cpu_init,
264         .exit           = cpufreq_p4_cpu_exit,
265         .name           = "p4-clockmod",
266         .owner          = THIS_MODULE,
267         .attr           = p4clockmod_attr,
268 };
269
270
271 static int __init cpufreq_p4_init(void)
272 {       
273         struct cpuinfo_x86 *c = cpu_data;
274
275         /*
276          * THERM_CONTROL is architectural for IA32 now, so 
277          * we can rely on the capability checks
278          */
279         if (c->x86_vendor != X86_VENDOR_INTEL)
280                 return -ENODEV;
281
282         if (!test_bit(X86_FEATURE_ACPI, c->x86_capability) ||
283                 !test_bit(X86_FEATURE_ACC, c->x86_capability))
284                 return -ENODEV;
285
286         printk(KERN_INFO PFX "P4/Xeon(TM) CPU On-Demand Clock Modulation available\n");
287
288         return cpufreq_register_driver(&p4clockmod_driver);
289 }
290
291
292 static void __exit cpufreq_p4_exit(void)
293 {
294         cpufreq_unregister_driver(&p4clockmod_driver);
295 }
296
297
298 MODULE_AUTHOR ("Zwane Mwaikambo <zwane@commfireservices.com>");
299 MODULE_DESCRIPTION ("cpufreq driver for Pentium(TM) 4/Xeon(TM)");
300 MODULE_LICENSE ("GPL");
301
302 late_initcall(cpufreq_p4_init);
303 module_exit(cpufreq_p4_exit);
304