patch-2_6_7-vs1_9_1_12
[linux-2.6.git] / drivers / char / random.c
1 /*
2  * random.c -- A strong random number generator
3  *
4  * Version 1.89, last modified 19-Sep-99
5  * 
6  * Copyright Theodore Ts'o, 1994, 1995, 1996, 1997, 1998, 1999.  All
7  * rights reserved.
8  *
9  * Redistribution and use in source and binary forms, with or without
10  * modification, are permitted provided that the following conditions
11  * are met:
12  * 1. Redistributions of source code must retain the above copyright
13  *    notice, and the entire permission notice in its entirety,
14  *    including the disclaimer of warranties.
15  * 2. Redistributions in binary form must reproduce the above copyright
16  *    notice, this list of conditions and the following disclaimer in the
17  *    documentation and/or other materials provided with the distribution.
18  * 3. The name of the author may not be used to endorse or promote
19  *    products derived from this software without specific prior
20  *    written permission.
21  * 
22  * ALTERNATIVELY, this product may be distributed under the terms of
23  * the GNU General Public License, in which case the provisions of the GPL are
24  * required INSTEAD OF the above restrictions.  (This clause is
25  * necessary due to a potential bad interaction between the GPL and
26  * the restrictions contained in a BSD-style copyright.)
27  * 
28  * THIS SOFTWARE IS PROVIDED ``AS IS'' AND ANY EXPRESS OR IMPLIED
29  * WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
30  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE, ALL OF
31  * WHICH ARE HEREBY DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR BE
32  * LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
33  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT
34  * OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR
35  * BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF
36  * LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
37  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE
38  * USE OF THIS SOFTWARE, EVEN IF NOT ADVISED OF THE POSSIBILITY OF SUCH
39  * DAMAGE.
40  */
41
42 /*
43  * (now, with legal B.S. out of the way.....) 
44  * 
45  * This routine gathers environmental noise from device drivers, etc.,
46  * and returns good random numbers, suitable for cryptographic use.
47  * Besides the obvious cryptographic uses, these numbers are also good
48  * for seeding TCP sequence numbers, and other places where it is
49  * desirable to have numbers which are not only random, but hard to
50  * predict by an attacker.
51  *
52  * Theory of operation
53  * ===================
54  * 
55  * Computers are very predictable devices.  Hence it is extremely hard
56  * to produce truly random numbers on a computer --- as opposed to
57  * pseudo-random numbers, which can easily generated by using a
58  * algorithm.  Unfortunately, it is very easy for attackers to guess
59  * the sequence of pseudo-random number generators, and for some
60  * applications this is not acceptable.  So instead, we must try to
61  * gather "environmental noise" from the computer's environment, which
62  * must be hard for outside attackers to observe, and use that to
63  * generate random numbers.  In a Unix environment, this is best done
64  * from inside the kernel.
65  * 
66  * Sources of randomness from the environment include inter-keyboard
67  * timings, inter-interrupt timings from some interrupts, and other
68  * events which are both (a) non-deterministic and (b) hard for an
69  * outside observer to measure.  Randomness from these sources are
70  * added to an "entropy pool", which is mixed using a CRC-like function.
71  * This is not cryptographically strong, but it is adequate assuming
72  * the randomness is not chosen maliciously, and it is fast enough that
73  * the overhead of doing it on every interrupt is very reasonable.
74  * As random bytes are mixed into the entropy pool, the routines keep
75  * an *estimate* of how many bits of randomness have been stored into
76  * the random number generator's internal state.
77  * 
78  * When random bytes are desired, they are obtained by taking the SHA
79  * hash of the contents of the "entropy pool".  The SHA hash avoids
80  * exposing the internal state of the entropy pool.  It is believed to
81  * be computationally infeasible to derive any useful information
82  * about the input of SHA from its output.  Even if it is possible to
83  * analyze SHA in some clever way, as long as the amount of data
84  * returned from the generator is less than the inherent entropy in
85  * the pool, the output data is totally unpredictable.  For this
86  * reason, the routine decreases its internal estimate of how many
87  * bits of "true randomness" are contained in the entropy pool as it
88  * outputs random numbers.
89  * 
90  * If this estimate goes to zero, the routine can still generate
91  * random numbers; however, an attacker may (at least in theory) be
92  * able to infer the future output of the generator from prior
93  * outputs.  This requires successful cryptanalysis of SHA, which is
94  * not believed to be feasible, but there is a remote possibility.
95  * Nonetheless, these numbers should be useful for the vast majority
96  * of purposes.
97  * 
98  * Exported interfaces ---- output
99  * ===============================
100  * 
101  * There are three exported interfaces; the first is one designed to
102  * be used from within the kernel:
103  *
104  *      void get_random_bytes(void *buf, int nbytes);
105  *
106  * This interface will return the requested number of random bytes,
107  * and place it in the requested buffer.
108  * 
109  * The two other interfaces are two character devices /dev/random and
110  * /dev/urandom.  /dev/random is suitable for use when very high
111  * quality randomness is desired (for example, for key generation or
112  * one-time pads), as it will only return a maximum of the number of
113  * bits of randomness (as estimated by the random number generator)
114  * contained in the entropy pool.
115  * 
116  * The /dev/urandom device does not have this limit, and will return
117  * as many bytes as are requested.  As more and more random bytes are
118  * requested without giving time for the entropy pool to recharge,
119  * this will result in random numbers that are merely cryptographically
120  * strong.  For many applications, however, this is acceptable.
121  *
122  * Exported interfaces ---- input
123  * ==============================
124  * 
125  * The current exported interfaces for gathering environmental noise
126  * from the devices are:
127  * 
128  *      void add_keyboard_randomness(unsigned char scancode);
129  *      void add_mouse_randomness(__u32 mouse_data);
130  *      void add_interrupt_randomness(int irq);
131  * 
132  * add_keyboard_randomness() uses the inter-keypress timing, as well as the
133  * scancode as random inputs into the "entropy pool".
134  * 
135  * add_mouse_randomness() uses the mouse interrupt timing, as well as
136  * the reported position of the mouse from the hardware.
137  *
138  * add_interrupt_randomness() uses the inter-interrupt timing as random
139  * inputs to the entropy pool.  Note that not all interrupts are good
140  * sources of randomness!  For example, the timer interrupts is not a
141  * good choice, because the periodicity of the interrupts is too
142  * regular, and hence predictable to an attacker.  Disk interrupts are
143  * a better measure, since the timing of the disk interrupts are more
144  * unpredictable.
145  * 
146  * All of these routines try to estimate how many bits of randomness a
147  * particular randomness source.  They do this by keeping track of the
148  * first and second order deltas of the event timings.
149  *
150  * Ensuring unpredictability at system startup
151  * ============================================
152  * 
153  * When any operating system starts up, it will go through a sequence
154  * of actions that are fairly predictable by an adversary, especially
155  * if the start-up does not involve interaction with a human operator.
156  * This reduces the actual number of bits of unpredictability in the
157  * entropy pool below the value in entropy_count.  In order to
158  * counteract this effect, it helps to carry information in the
159  * entropy pool across shut-downs and start-ups.  To do this, put the
160  * following lines an appropriate script which is run during the boot
161  * sequence: 
162  *
163  *      echo "Initializing random number generator..."
164  *      random_seed=/var/run/random-seed
165  *      # Carry a random seed from start-up to start-up
166  *      # Load and then save the whole entropy pool
167  *      if [ -f $random_seed ]; then
168  *              cat $random_seed >/dev/urandom
169  *      else
170  *              touch $random_seed
171  *      fi
172  *      chmod 600 $random_seed
173  *      poolfile=/proc/sys/kernel/random/poolsize
174  *      [ -r $poolfile ] && bytes=`cat $poolfile` || bytes=512
175  *      dd if=/dev/urandom of=$random_seed count=1 bs=$bytes
176  *
177  * and the following lines in an appropriate script which is run as
178  * the system is shutdown:
179  *
180  *      # Carry a random seed from shut-down to start-up
181  *      # Save the whole entropy pool
182  *      echo "Saving random seed..."
183  *      random_seed=/var/run/random-seed
184  *      touch $random_seed
185  *      chmod 600 $random_seed
186  *      poolfile=/proc/sys/kernel/random/poolsize
187  *      [ -r $poolfile ] && bytes=`cat $poolfile` || bytes=512
188  *      dd if=/dev/urandom of=$random_seed count=1 bs=$bytes
189  *
190  * For example, on most modern systems using the System V init
191  * scripts, such code fragments would be found in
192  * /etc/rc.d/init.d/random.  On older Linux systems, the correct script
193  * location might be in /etc/rcb.d/rc.local or /etc/rc.d/rc.0.
194  * 
195  * Effectively, these commands cause the contents of the entropy pool
196  * to be saved at shut-down time and reloaded into the entropy pool at
197  * start-up.  (The 'dd' in the addition to the bootup script is to
198  * make sure that /etc/random-seed is different for every start-up,
199  * even if the system crashes without executing rc.0.)  Even with
200  * complete knowledge of the start-up activities, predicting the state
201  * of the entropy pool requires knowledge of the previous history of
202  * the system.
203  *
204  * Configuring the /dev/random driver under Linux
205  * ==============================================
206  *
207  * The /dev/random driver under Linux uses minor numbers 8 and 9 of
208  * the /dev/mem major number (#1).  So if your system does not have
209  * /dev/random and /dev/urandom created already, they can be created
210  * by using the commands:
211  *
212  *      mknod /dev/random c 1 8
213  *      mknod /dev/urandom c 1 9
214  * 
215  * Acknowledgements:
216  * =================
217  *
218  * Ideas for constructing this random number generator were derived
219  * from Pretty Good Privacy's random number generator, and from private
220  * discussions with Phil Karn.  Colin Plumb provided a faster random
221  * number generator, which speed up the mixing function of the entropy
222  * pool, taken from PGPfone.  Dale Worley has also contributed many
223  * useful ideas and suggestions to improve this driver.
224  * 
225  * Any flaws in the design are solely my responsibility, and should
226  * not be attributed to the Phil, Colin, or any of authors of PGP.
227  * 
228  * The code for SHA transform was taken from Peter Gutmann's
229  * implementation, which has been placed in the public domain.
230  * The code for MD5 transform was taken from Colin Plumb's
231  * implementation, which has been placed in the public domain.
232  * The MD5 cryptographic checksum was devised by Ronald Rivest, and is
233  * documented in RFC 1321, "The MD5 Message Digest Algorithm".
234  * 
235  * Further background information on this topic may be obtained from
236  * RFC 1750, "Randomness Recommendations for Security", by Donald
237  * Eastlake, Steve Crocker, and Jeff Schiller.
238  */
239
240 #include <linux/utsname.h>
241 #include <linux/config.h>
242 #include <linux/module.h>
243 #include <linux/kernel.h>
244 #include <linux/major.h>
245 #include <linux/string.h>
246 #include <linux/fcntl.h>
247 #include <linux/slab.h>
248 #include <linux/random.h>
249 #include <linux/poll.h>
250 #include <linux/init.h>
251 #include <linux/fs.h>
252 #include <linux/workqueue.h>
253 #include <linux/genhd.h>
254 #include <linux/interrupt.h>
255 #include <linux/spinlock.h>
256 #include <linux/percpu.h>
257
258 #include <asm/processor.h>
259 #include <asm/uaccess.h>
260 #include <asm/irq.h>
261 #include <asm/io.h>
262
263 /*
264  * Configuration information
265  */
266 #define DEFAULT_POOL_SIZE 512
267 #define SECONDARY_POOL_SIZE 128
268 #define BATCH_ENTROPY_SIZE 256
269 #define USE_SHA
270
271 /*
272  * The minimum number of bits of entropy before we wake up a read on
273  * /dev/random.  Should be enough to do a significant reseed.
274  */
275 static int random_read_wakeup_thresh = 64;
276
277 /*
278  * If the entropy count falls under this number of bits, then we
279  * should wake up processes which are selecting or polling on write
280  * access to /dev/random.
281  */
282 static int random_write_wakeup_thresh = 128;
283
284 /*
285  * When the input pool goes over trickle_thresh, start dropping most
286  * samples to avoid wasting CPU time and reduce lock contention.
287  */
288
289 static int trickle_thresh = DEFAULT_POOL_SIZE * 7;
290
291 static DEFINE_PER_CPU(int, trickle_count) = 0;
292
293 /*
294  * A pool of size .poolwords is stirred with a primitive polynomial
295  * of degree .poolwords over GF(2).  The taps for various sizes are
296  * defined below.  They are chosen to be evenly spaced (minimum RMS
297  * distance from evenly spaced; the numbers in the comments are a
298  * scaled squared error sum) except for the last tap, which is 1 to
299  * get the twisting happening as fast as possible.
300  */
301 static struct poolinfo {
302         int     poolwords;
303         int     tap1, tap2, tap3, tap4, tap5;
304 } poolinfo_table[] = {
305         /* x^2048 + x^1638 + x^1231 + x^819 + x^411 + x + 1  -- 115 */
306         { 2048, 1638,   1231,   819,    411,    1 },
307
308         /* x^1024 + x^817 + x^615 + x^412 + x^204 + x + 1 -- 290 */
309         { 1024, 817,    615,    412,    204,    1 },
310 #if 0                           /* Alternate polynomial */
311         /* x^1024 + x^819 + x^616 + x^410 + x^207 + x^2 + 1 -- 115 */
312         { 1024, 819,    616,    410,    207,    2 },
313 #endif
314
315         /* x^512 + x^411 + x^308 + x^208 + x^104 + x + 1 -- 225 */
316         { 512,  411,    308,    208,    104,    1 },
317 #if 0                           /* Alternates */
318         /* x^512 + x^409 + x^307 + x^206 + x^102 + x^2 + 1 -- 95 */
319         { 512,  409,    307,    206,    102,    2 },
320         /* x^512 + x^409 + x^309 + x^205 + x^103 + x^2 + 1 -- 95 */
321         { 512,  409,    309,    205,    103,    2 },
322 #endif
323
324         /* x^256 + x^205 + x^155 + x^101 + x^52 + x + 1 -- 125 */
325         { 256,  205,    155,    101,    52,     1 },
326
327         /* x^128 + x^103 + x^76 + x^51 +x^25 + x + 1 -- 105 */
328         { 128,  103,    76,     51,     25,     1 },
329 #if 0   /* Alternate polynomial */
330         /* x^128 + x^103 + x^78 + x^51 + x^27 + x^2 + 1 -- 70 */
331         { 128,  103,    78,     51,     27,     2 },
332 #endif
333
334         /* x^64 + x^52 + x^39 + x^26 + x^14 + x + 1 -- 15 */
335         { 64,   52,     39,     26,     14,     1 },
336
337         /* x^32 + x^26 + x^20 + x^14 + x^7 + x + 1 -- 15 */
338         { 32,   26,     20,     14,     7,      1 },
339
340         { 0,    0,      0,      0,      0,      0 },
341 };
342
343 #define POOLBITS        poolwords*32
344 #define POOLBYTES       poolwords*4
345
346 /*
347  * For the purposes of better mixing, we use the CRC-32 polynomial as
348  * well to make a twisted Generalized Feedback Shift Reigster
349  *
350  * (See M. Matsumoto & Y. Kurita, 1992.  Twisted GFSR generators.  ACM
351  * Transactions on Modeling and Computer Simulation 2(3):179-194.
352  * Also see M. Matsumoto & Y. Kurita, 1994.  Twisted GFSR generators
353  * II.  ACM Transactions on Mdeling and Computer Simulation 4:254-266)
354  *
355  * Thanks to Colin Plumb for suggesting this.
356  * 
357  * We have not analyzed the resultant polynomial to prove it primitive;
358  * in fact it almost certainly isn't.  Nonetheless, the irreducible factors
359  * of a random large-degree polynomial over GF(2) are more than large enough
360  * that periodicity is not a concern.
361  * 
362  * The input hash is much less sensitive than the output hash.  All
363  * that we want of it is that it be a good non-cryptographic hash;
364  * i.e. it not produce collisions when fed "random" data of the sort
365  * we expect to see.  As long as the pool state differs for different
366  * inputs, we have preserved the input entropy and done a good job.
367  * The fact that an intelligent attacker can construct inputs that
368  * will produce controlled alterations to the pool's state is not
369  * important because we don't consider such inputs to contribute any
370  * randomness.  The only property we need with respect to them is that
371  * the attacker can't increase his/her knowledge of the pool's state.
372  * Since all additions are reversible (knowing the final state and the
373  * input, you can reconstruct the initial state), if an attacker has
374  * any uncertainty about the initial state, he/she can only shuffle
375  * that uncertainty about, but never cause any collisions (which would
376  * decrease the uncertainty).
377  *
378  * The chosen system lets the state of the pool be (essentially) the input
379  * modulo the generator polymnomial.  Now, for random primitive polynomials,
380  * this is a universal class of hash functions, meaning that the chance
381  * of a collision is limited by the attacker's knowledge of the generator
382  * polynomail, so if it is chosen at random, an attacker can never force
383  * a collision.  Here, we use a fixed polynomial, but we *can* assume that
384  * ###--> it is unknown to the processes generating the input entropy. <-###
385  * Because of this important property, this is a good, collision-resistant
386  * hash; hash collisions will occur no more often than chance.
387  */
388
389 /*
390  * Linux 2.2 compatibility
391  */
392 #ifndef DECLARE_WAITQUEUE
393 #define DECLARE_WAITQUEUE(WAIT, PTR)    struct wait_queue WAIT = { PTR, NULL }
394 #endif
395 #ifndef DECLARE_WAIT_QUEUE_HEAD
396 #define DECLARE_WAIT_QUEUE_HEAD(WAIT) struct wait_queue *WAIT
397 #endif
398
399 /*
400  * Static global variables
401  */
402 static struct entropy_store *random_state; /* The default global store */
403 static struct entropy_store *sec_random_state; /* secondary store */
404 static DECLARE_WAIT_QUEUE_HEAD(random_read_wait);
405 static DECLARE_WAIT_QUEUE_HEAD(random_write_wait);
406
407 /*
408  * Forward procedure declarations
409  */
410 #ifdef CONFIG_SYSCTL
411 static void sysctl_init_random(struct entropy_store *random_state);
412 #endif
413
414 /*****************************************************************
415  *
416  * Utility functions, with some ASM defined functions for speed
417  * purposes
418  * 
419  *****************************************************************/
420
421 /*
422  * Unfortunately, while the GCC optimizer for the i386 understands how
423  * to optimize a static rotate left of x bits, it doesn't know how to
424  * deal with a variable rotate of x bits.  So we use a bit of asm magic.
425  */
426 #if (!defined (__i386__))
427 static inline __u32 rotate_left(int i, __u32 word)
428 {
429         return (word << i) | (word >> (32 - i));
430         
431 }
432 #else
433 static inline __u32 rotate_left(int i, __u32 word)
434 {
435         __asm__("roll %%cl,%0"
436                 :"=r" (word)
437                 :"0" (word),"c" (i));
438         return word;
439 }
440 #endif
441
442 /*
443  * More asm magic....
444  * 
445  * For entropy estimation, we need to do an integral base 2
446  * logarithm.  
447  *
448  * Note the "12bits" suffix - this is used for numbers between
449  * 0 and 4095 only.  This allows a few shortcuts.
450  */
451 #if 0   /* Slow but clear version */
452 static inline __u32 int_ln_12bits(__u32 word)
453 {
454         __u32 nbits = 0;
455         
456         while (word >>= 1)
457                 nbits++;
458         return nbits;
459 }
460 #else   /* Faster (more clever) version, courtesy Colin Plumb */
461 static inline __u32 int_ln_12bits(__u32 word)
462 {
463         /* Smear msbit right to make an n-bit mask */
464         word |= word >> 8;
465         word |= word >> 4;
466         word |= word >> 2;
467         word |= word >> 1;
468         /* Remove one bit to make this a logarithm */
469         word >>= 1;
470         /* Count the bits set in the word */
471         word -= (word >> 1) & 0x555;
472         word = (word & 0x333) + ((word >> 2) & 0x333);
473         word += (word >> 4);
474         word += (word >> 8);
475         return word & 15;
476 }
477 #endif
478
479 #if 0
480 #define DEBUG_ENT(fmt, arg...) printk(KERN_DEBUG "random: " fmt, ## arg)
481 #else
482 #define DEBUG_ENT(fmt, arg...) do {} while (0)
483 #endif
484
485 /**********************************************************************
486  *
487  * OS independent entropy store.   Here are the functions which handle
488  * storing entropy in an entropy pool.
489  * 
490  **********************************************************************/
491
492 struct entropy_store {
493         /* mostly-read data: */
494         struct poolinfo poolinfo;
495         __u32           *pool;
496
497         /* read-write data: */
498         spinlock_t lock ____cacheline_aligned_in_smp;
499         unsigned        add_ptr;
500         int             entropy_count;
501         int             input_rotate;
502 };
503
504 /*
505  * Initialize the entropy store.  The input argument is the size of
506  * the random pool.
507  *
508  * Returns an negative error if there is a problem.
509  */
510 static int create_entropy_store(int size, struct entropy_store **ret_bucket)
511 {
512         struct  entropy_store   *r;
513         struct  poolinfo        *p;
514         int     poolwords;
515
516         poolwords = (size + 3) / 4; /* Convert bytes->words */
517         /* The pool size must be a multiple of 16 32-bit words */
518         poolwords = ((poolwords + 15) / 16) * 16;
519
520         for (p = poolinfo_table; p->poolwords; p++) {
521                 if (poolwords == p->poolwords)
522                         break;
523         }
524         if (p->poolwords == 0)
525                 return -EINVAL;
526
527         r = kmalloc(sizeof(struct entropy_store), GFP_KERNEL);
528         if (!r)
529                 return -ENOMEM;
530
531         memset (r, 0, sizeof(struct entropy_store));
532         r->poolinfo = *p;
533
534         r->pool = kmalloc(POOLBYTES, GFP_KERNEL);
535         if (!r->pool) {
536                 kfree(r);
537                 return -ENOMEM;
538         }
539         memset(r->pool, 0, POOLBYTES);
540         r->lock = SPIN_LOCK_UNLOCKED;
541         *ret_bucket = r;
542         return 0;
543 }
544
545 /* Clear the entropy pool and associated counters. */
546 static void clear_entropy_store(struct entropy_store *r)
547 {
548         r->add_ptr = 0;
549         r->entropy_count = 0;
550         r->input_rotate = 0;
551         memset(r->pool, 0, r->poolinfo.POOLBYTES);
552 }
553 #ifdef CONFIG_SYSCTL
554 static void free_entropy_store(struct entropy_store *r)
555 {
556         if (r->pool)
557                 kfree(r->pool);
558         kfree(r);
559 }
560 #endif
561 /*
562  * This function adds a byte into the entropy "pool".  It does not
563  * update the entropy estimate.  The caller should call
564  * credit_entropy_store if this is appropriate.
565  * 
566  * The pool is stirred with a primitive polynomial of the appropriate
567  * degree, and then twisted.  We twist by three bits at a time because
568  * it's cheap to do so and helps slightly in the expected case where
569  * the entropy is concentrated in the low-order bits.
570  */
571 static void add_entropy_words(struct entropy_store *r, const __u32 *in,
572                               int nwords)
573 {
574         static __u32 const twist_table[8] = {
575                          0, 0x3b6e20c8, 0x76dc4190, 0x4db26158,
576                 0xedb88320, 0xd6d6a3e8, 0x9b64c2b0, 0xa00ae278 };
577         unsigned long i, add_ptr, tap1, tap2, tap3, tap4, tap5;
578         int new_rotate, input_rotate;
579         int wordmask = r->poolinfo.poolwords - 1;
580         __u32 w, next_w;
581         unsigned long flags;
582
583         /* Taps are constant, so we can load them without holding r->lock.  */
584         tap1 = r->poolinfo.tap1;
585         tap2 = r->poolinfo.tap2;
586         tap3 = r->poolinfo.tap3;
587         tap4 = r->poolinfo.tap4;
588         tap5 = r->poolinfo.tap5;
589         next_w = *in++;
590
591         spin_lock_irqsave(&r->lock, flags);
592         prefetch_range(r->pool, wordmask);
593         input_rotate = r->input_rotate;
594         add_ptr = r->add_ptr;
595
596         while (nwords--) {
597                 w = rotate_left(input_rotate, next_w);
598                 if (nwords > 0)
599                         next_w = *in++;
600                 i = add_ptr = (add_ptr - 1) & wordmask;
601                 /*
602                  * Normally, we add 7 bits of rotation to the pool.
603                  * At the beginning of the pool, add an extra 7 bits
604                  * rotation, so that successive passes spread the
605                  * input bits across the pool evenly.
606                  */
607                 new_rotate = input_rotate + 14;
608                 if (i)
609                         new_rotate = input_rotate + 7;
610                 input_rotate = new_rotate & 31;
611
612                 /* XOR in the various taps */
613                 w ^= r->pool[(i + tap1) & wordmask];
614                 w ^= r->pool[(i + tap2) & wordmask];
615                 w ^= r->pool[(i + tap3) & wordmask];
616                 w ^= r->pool[(i + tap4) & wordmask];
617                 w ^= r->pool[(i + tap5) & wordmask];
618                 w ^= r->pool[i];
619                 r->pool[i] = (w >> 3) ^ twist_table[w & 7];
620         }
621
622         r->input_rotate = input_rotate;
623         r->add_ptr = add_ptr;
624
625         spin_unlock_irqrestore(&r->lock, flags);
626 }
627
628 /*
629  * Credit (or debit) the entropy store with n bits of entropy
630  */
631 static void credit_entropy_store(struct entropy_store *r, int nbits)
632 {
633         unsigned long flags;
634
635         spin_lock_irqsave(&r->lock, flags);
636
637         if (r->entropy_count + nbits < 0) {
638                 DEBUG_ENT("negative entropy/overflow (%d+%d)\n",
639                           r->entropy_count, nbits);
640                 r->entropy_count = 0;
641         } else if (r->entropy_count + nbits > r->poolinfo.POOLBITS) {
642                 r->entropy_count = r->poolinfo.POOLBITS;
643         } else {
644                 r->entropy_count += nbits;
645                 if (nbits)
646                         DEBUG_ENT("%04d %04d : added %d bits to %s\n",
647                                   random_state->entropy_count,
648                                   sec_random_state->entropy_count,
649                                   nbits,
650                                   r == sec_random_state ? "secondary" :
651                                   r == random_state ? "primary" : "unknown");
652         }
653
654         spin_unlock_irqrestore(&r->lock, flags);
655 }
656
657 /**********************************************************************
658  *
659  * Entropy batch input management
660  *
661  * We batch entropy to be added to avoid increasing interrupt latency
662  *
663  **********************************************************************/
664
665 struct sample {
666         __u32 data[2];
667         int credit;
668 };
669
670 static struct sample *batch_entropy_pool, *batch_entropy_copy;
671 static int      batch_head, batch_tail;
672 static spinlock_t batch_lock = SPIN_LOCK_UNLOCKED;
673
674 static int      batch_max;
675 static void batch_entropy_process(void *private_);
676 static DECLARE_WORK(batch_work, batch_entropy_process, NULL);
677
678 /* note: the size must be a power of 2 */
679 static int __init batch_entropy_init(int size, struct entropy_store *r)
680 {
681         batch_entropy_pool = kmalloc(size*sizeof(struct sample), GFP_KERNEL);
682         if (!batch_entropy_pool)
683                 return -1;
684         batch_entropy_copy = kmalloc(size*sizeof(struct sample), GFP_KERNEL);
685         if (!batch_entropy_copy) {
686                 kfree(batch_entropy_pool);
687                 return -1;
688         }
689         batch_head = batch_tail = 0;
690         batch_work.data = r;
691         batch_max = size;
692         return 0;
693 }
694
695 /*
696  * Changes to the entropy data is put into a queue rather than being added to
697  * the entropy counts directly.  This is presumably to avoid doing heavy
698  * hashing calculations during an interrupt in add_timer_randomness().
699  * Instead, the entropy is only added to the pool by keventd.
700  */
701 void batch_entropy_store(u32 a, u32 b, int num)
702 {
703         int new;
704         unsigned long flags;
705
706         if (!batch_max)
707                 return;
708
709         spin_lock_irqsave(&batch_lock, flags);
710
711         batch_entropy_pool[batch_head].data[0] = a;
712         batch_entropy_pool[batch_head].data[1] = b;
713         batch_entropy_pool[batch_head].credit = num;
714
715         if (((batch_head - batch_tail) & (batch_max-1)) >= (batch_max / 2)) {
716                 /*
717                  * Schedule it for the next timer tick:
718                  */
719                 schedule_delayed_work(&batch_work, 1);
720         }
721
722         new = (batch_head+1) & (batch_max-1);
723         if (new == batch_tail) {
724                 DEBUG_ENT("batch entropy buffer full\n");
725         } else {
726                 batch_head = new;
727         }
728
729         spin_unlock_irqrestore(&batch_lock, flags);
730 }
731
732 EXPORT_SYMBOL(batch_entropy_store);
733
734 /*
735  * Flush out the accumulated entropy operations, adding entropy to the passed
736  * store (normally random_state).  If that store has enough entropy, alternate
737  * between randomizing the data of the primary and secondary stores.
738  */
739 static void batch_entropy_process(void *private_)
740 {
741         struct entropy_store *r = (struct entropy_store *) private_, *p;
742         int max_entropy = r->poolinfo.POOLBITS;
743         unsigned head, tail;
744
745         /* Mixing into the pool is expensive, so copy over the batch
746          * data and release the batch lock. The pool is at least half
747          * full, so don't worry too much about copying only the used
748          * part.
749          */
750         spin_lock_irq(&batch_lock);
751
752         memcpy(batch_entropy_copy, batch_entropy_pool,
753                batch_max*sizeof(struct sample));
754
755         head = batch_head;
756         tail = batch_tail;
757         batch_tail = batch_head;
758
759         spin_unlock_irq(&batch_lock);
760
761         p = r;
762         while (head != tail) {
763                 if (r->entropy_count >= max_entropy) {
764                         r = (r == sec_random_state) ?   random_state :
765                                                         sec_random_state;
766                         max_entropy = r->poolinfo.POOLBITS;
767                 }
768                 add_entropy_words(r, batch_entropy_copy[tail].data, 2);
769                 credit_entropy_store(r, batch_entropy_copy[tail].credit);
770                 tail = (tail+1) & (batch_max-1);
771         }
772         if (p->entropy_count >= random_read_wakeup_thresh)
773                 wake_up_interruptible(&random_read_wait);
774 }
775
776 /*********************************************************************
777  *
778  * Entropy input management
779  *
780  *********************************************************************/
781
782 /* There is one of these per entropy source */
783 struct timer_rand_state {
784         __u32           last_time;
785         __s32           last_delta,last_delta2;
786         int             dont_count_entropy:1;
787 };
788
789 static struct timer_rand_state keyboard_timer_state;
790 static struct timer_rand_state mouse_timer_state;
791 static struct timer_rand_state extract_timer_state;
792 static struct timer_rand_state *irq_timer_state[NR_IRQS];
793
794 /*
795  * This function adds entropy to the entropy "pool" by using timing
796  * delays.  It uses the timer_rand_state structure to make an estimate
797  * of how many bits of entropy this call has added to the pool.
798  *
799  * The number "num" is also added to the pool - it should somehow describe
800  * the type of event which just happened.  This is currently 0-255 for
801  * keyboard scan codes, and 256 upwards for interrupts.
802  * On the i386, this is assumed to be at most 16 bits, and the high bits
803  * are used for a high-resolution timer.
804  *
805  */
806 static void add_timer_randomness(struct timer_rand_state *state, unsigned num)
807 {
808         __u32           time;
809         __s32           delta, delta2, delta3;
810         int             entropy = 0;
811
812         /* if over the trickle threshold, use only 1 in 4096 samples */
813         if ( random_state->entropy_count > trickle_thresh &&
814              (__get_cpu_var(trickle_count)++ & 0xfff))
815                 return;
816
817 #if defined (__i386__) || defined (__x86_64__)
818         if (cpu_has_tsc) {
819                 __u32 high;
820                 rdtsc(time, high);
821                 num ^= high;
822         } else {
823                 time = jiffies;
824         }
825 #else
826         time = jiffies;
827 #endif
828
829         /*
830          * Calculate number of bits of randomness we probably added.
831          * We take into account the first, second and third-order deltas
832          * in order to make our estimate.
833          */
834         if (!state->dont_count_entropy) {
835                 delta = time - state->last_time;
836                 state->last_time = time;
837
838                 delta2 = delta - state->last_delta;
839                 state->last_delta = delta;
840
841                 delta3 = delta2 - state->last_delta2;
842                 state->last_delta2 = delta2;
843
844                 if (delta < 0)
845                         delta = -delta;
846                 if (delta2 < 0)
847                         delta2 = -delta2;
848                 if (delta3 < 0)
849                         delta3 = -delta3;
850                 if (delta > delta2)
851                         delta = delta2;
852                 if (delta > delta3)
853                         delta = delta3;
854
855                 /*
856                  * delta is now minimum absolute delta.
857                  * Round down by 1 bit on general principles,
858                  * and limit entropy entimate to 12 bits.
859                  */
860                 delta >>= 1;
861                 delta &= (1 << 12) - 1;
862
863                 entropy = int_ln_12bits(delta);
864         }
865         batch_entropy_store(num, time, entropy);
866 }
867
868 void add_keyboard_randomness(unsigned char scancode)
869 {
870         static unsigned char last_scancode;
871         /* ignore autorepeat (multiple key down w/o key up) */
872         if (scancode != last_scancode) {
873                 last_scancode = scancode;
874                 add_timer_randomness(&keyboard_timer_state, scancode);
875         }
876 }
877
878 EXPORT_SYMBOL(add_keyboard_randomness);
879
880 void add_mouse_randomness(__u32 mouse_data)
881 {
882         add_timer_randomness(&mouse_timer_state, mouse_data);
883 }
884
885 EXPORT_SYMBOL(add_mouse_randomness);
886
887 void add_interrupt_randomness(int irq)
888 {
889         if (irq >= NR_IRQS || irq_timer_state[irq] == 0)
890                 return;
891
892         add_timer_randomness(irq_timer_state[irq], 0x100+irq);
893 }
894
895 EXPORT_SYMBOL(add_interrupt_randomness);
896
897 void add_disk_randomness(struct gendisk *disk)
898 {
899         if (!disk || !disk->random)
900                 return;
901         /* first major is 1, so we get >= 0x200 here */
902         add_timer_randomness(disk->random, 0x100+MKDEV(disk->major, disk->first_minor));
903 }
904
905 EXPORT_SYMBOL(add_disk_randomness);
906
907 /******************************************************************
908  *
909  * Hash function definition
910  *
911  *******************************************************************/
912
913 /*
914  * This chunk of code defines a function
915  * void HASH_TRANSFORM(__u32 digest[HASH_BUFFER_SIZE + HASH_EXTRA_SIZE],
916  *              __u32 const data[16])
917  * 
918  * The function hashes the input data to produce a digest in the first
919  * HASH_BUFFER_SIZE words of the digest[] array, and uses HASH_EXTRA_SIZE
920  * more words for internal purposes.  (This buffer is exported so the
921  * caller can wipe it once rather than this code doing it each call,
922  * and tacking it onto the end of the digest[] array is the quick and
923  * dirty way of doing it.)
924  *
925  * It so happens that MD5 and SHA share most of the initial vector
926  * used to initialize the digest[] array before the first call:
927  * 1) 0x67452301
928  * 2) 0xefcdab89
929  * 3) 0x98badcfe
930  * 4) 0x10325476
931  * 5) 0xc3d2e1f0 (SHA only)
932  * 
933  * For /dev/random purposes, the length of the data being hashed is
934  * fixed in length, so appending a bit count in the usual way is not
935  * cryptographically necessary.
936  */
937
938 #ifdef USE_SHA
939
940 #define HASH_BUFFER_SIZE 5
941 #define HASH_EXTRA_SIZE 80
942 #define HASH_TRANSFORM SHATransform
943
944 /* Various size/speed tradeoffs are available.  Choose 0..3. */
945 #define SHA_CODE_SIZE 0
946
947 /*
948  * SHA transform algorithm, taken from code written by Peter Gutmann,
949  * and placed in the public domain.
950  */
951
952 /* The SHA f()-functions.  */
953
954 #define f1(x,y,z)   ( z ^ (x & (y^z)) )         /* Rounds  0-19: x ? y : z */
955 #define f2(x,y,z)   (x ^ y ^ z)                 /* Rounds 20-39: XOR */
956 #define f3(x,y,z)   ( (x & y) + (z & (x ^ y)) ) /* Rounds 40-59: majority */
957 #define f4(x,y,z)   (x ^ y ^ z)                 /* Rounds 60-79: XOR */
958
959 /* The SHA Mysterious Constants */
960
961 #define K1  0x5A827999L                 /* Rounds  0-19: sqrt(2) * 2^30 */
962 #define K2  0x6ED9EBA1L                 /* Rounds 20-39: sqrt(3) * 2^30 */
963 #define K3  0x8F1BBCDCL                 /* Rounds 40-59: sqrt(5) * 2^30 */
964 #define K4  0xCA62C1D6L                 /* Rounds 60-79: sqrt(10) * 2^30 */
965
966 #define ROTL(n,X)  ( ( ( X ) << n ) | ( ( X ) >> ( 32 - n ) ) )
967
968 #define subRound(a, b, c, d, e, f, k, data) \
969     ( e += ROTL( 5, a ) + f( b, c, d ) + k + data, b = ROTL( 30, b ) )
970
971
972 static void SHATransform(__u32 digest[85], __u32 const data[16])
973 {
974     __u32 A, B, C, D, E;     /* Local vars */
975     __u32 TEMP;
976     int i;
977 #define W (digest + HASH_BUFFER_SIZE)   /* Expanded data array */
978
979     /*
980      * Do the preliminary expansion of 16 to 80 words.  Doing it
981      * out-of-line line this is faster than doing it in-line on
982      * register-starved machines like the x86, and not really any
983      * slower on real processors.
984      */
985     memcpy(W, data, 16*sizeof(__u32));
986     for (i = 0; i < 64; i++) {
987             TEMP = W[i] ^ W[i+2] ^ W[i+8] ^ W[i+13];
988             W[i+16] = ROTL(1, TEMP);
989     }
990
991     /* Set up first buffer and local data buffer */
992     A = digest[ 0 ];
993     B = digest[ 1 ];
994     C = digest[ 2 ];
995     D = digest[ 3 ];
996     E = digest[ 4 ];
997
998     /* Heavy mangling, in 4 sub-rounds of 20 iterations each. */
999 #if SHA_CODE_SIZE == 0
1000     /*
1001      * Approximately 50% of the speed of the largest version, but
1002      * takes up 1/16 the space.  Saves about 6k on an i386 kernel.
1003      */
1004     for (i = 0; i < 80; i++) {
1005         if (i < 40) {
1006             if (i < 20)
1007                 TEMP = f1(B, C, D) + K1;
1008             else
1009                 TEMP = f2(B, C, D) + K2;
1010         } else {
1011             if (i < 60)
1012                 TEMP = f3(B, C, D) + K3;
1013             else
1014                 TEMP = f4(B, C, D) + K4;
1015         }
1016         TEMP += ROTL(5, A) + E + W[i];
1017         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1018     }
1019 #elif SHA_CODE_SIZE == 1
1020     for (i = 0; i < 20; i++) {
1021         TEMP = f1(B, C, D) + K1 + ROTL(5, A) + E + W[i];
1022         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1023     }
1024     for (; i < 40; i++) {
1025         TEMP = f2(B, C, D) + K2 + ROTL(5, A) + E + W[i];
1026         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1027     }
1028     for (; i < 60; i++) {
1029         TEMP = f3(B, C, D) + K3 + ROTL(5, A) + E + W[i];
1030         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1031     }
1032     for (; i < 80; i++) {
1033         TEMP = f4(B, C, D) + K4 + ROTL(5, A) + E + W[i];
1034         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1035     }
1036 #elif SHA_CODE_SIZE == 2
1037     for (i = 0; i < 20; i += 5) {
1038         subRound( A, B, C, D, E, f1, K1, W[ i   ] );
1039         subRound( E, A, B, C, D, f1, K1, W[ i+1 ] );
1040         subRound( D, E, A, B, C, f1, K1, W[ i+2 ] );
1041         subRound( C, D, E, A, B, f1, K1, W[ i+3 ] );
1042         subRound( B, C, D, E, A, f1, K1, W[ i+4 ] );
1043     }
1044     for (; i < 40; i += 5) {
1045         subRound( A, B, C, D, E, f2, K2, W[ i   ] );
1046         subRound( E, A, B, C, D, f2, K2, W[ i+1 ] );
1047         subRound( D, E, A, B, C, f2, K2, W[ i+2 ] );
1048         subRound( C, D, E, A, B, f2, K2, W[ i+3 ] );
1049         subRound( B, C, D, E, A, f2, K2, W[ i+4 ] );
1050     }
1051     for (; i < 60; i += 5) {
1052         subRound( A, B, C, D, E, f3, K3, W[ i   ] );
1053         subRound( E, A, B, C, D, f3, K3, W[ i+1 ] );
1054         subRound( D, E, A, B, C, f3, K3, W[ i+2 ] );
1055         subRound( C, D, E, A, B, f3, K3, W[ i+3 ] );
1056         subRound( B, C, D, E, A, f3, K3, W[ i+4 ] );
1057     }
1058     for (; i < 80; i += 5) {
1059         subRound( A, B, C, D, E, f4, K4, W[ i   ] );
1060         subRound( E, A, B, C, D, f4, K4, W[ i+1 ] );
1061         subRound( D, E, A, B, C, f4, K4, W[ i+2 ] );
1062         subRound( C, D, E, A, B, f4, K4, W[ i+3 ] );
1063         subRound( B, C, D, E, A, f4, K4, W[ i+4 ] );
1064     }
1065 #elif SHA_CODE_SIZE == 3 /* Really large version */
1066     subRound( A, B, C, D, E, f1, K1, W[  0 ] );
1067     subRound( E, A, B, C, D, f1, K1, W[  1 ] );
1068     subRound( D, E, A, B, C, f1, K1, W[  2 ] );
1069     subRound( C, D, E, A, B, f1, K1, W[  3 ] );
1070     subRound( B, C, D, E, A, f1, K1, W[  4 ] );
1071     subRound( A, B, C, D, E, f1, K1, W[  5 ] );
1072     subRound( E, A, B, C, D, f1, K1, W[  6 ] );
1073     subRound( D, E, A, B, C, f1, K1, W[  7 ] );
1074     subRound( C, D, E, A, B, f1, K1, W[  8 ] );
1075     subRound( B, C, D, E, A, f1, K1, W[  9 ] );
1076     subRound( A, B, C, D, E, f1, K1, W[ 10 ] );
1077     subRound( E, A, B, C, D, f1, K1, W[ 11 ] );
1078     subRound( D, E, A, B, C, f1, K1, W[ 12 ] );
1079     subRound( C, D, E, A, B, f1, K1, W[ 13 ] );
1080     subRound( B, C, D, E, A, f1, K1, W[ 14 ] );
1081     subRound( A, B, C, D, E, f1, K1, W[ 15 ] );
1082     subRound( E, A, B, C, D, f1, K1, W[ 16 ] );
1083     subRound( D, E, A, B, C, f1, K1, W[ 17 ] );
1084     subRound( C, D, E, A, B, f1, K1, W[ 18 ] );
1085     subRound( B, C, D, E, A, f1, K1, W[ 19 ] );
1086
1087     subRound( A, B, C, D, E, f2, K2, W[ 20 ] );
1088     subRound( E, A, B, C, D, f2, K2, W[ 21 ] );
1089     subRound( D, E, A, B, C, f2, K2, W[ 22 ] );
1090     subRound( C, D, E, A, B, f2, K2, W[ 23 ] );
1091     subRound( B, C, D, E, A, f2, K2, W[ 24 ] );
1092     subRound( A, B, C, D, E, f2, K2, W[ 25 ] );
1093     subRound( E, A, B, C, D, f2, K2, W[ 26 ] );
1094     subRound( D, E, A, B, C, f2, K2, W[ 27 ] );
1095     subRound( C, D, E, A, B, f2, K2, W[ 28 ] );
1096     subRound( B, C, D, E, A, f2, K2, W[ 29 ] );
1097     subRound( A, B, C, D, E, f2, K2, W[ 30 ] );
1098     subRound( E, A, B, C, D, f2, K2, W[ 31 ] );
1099     subRound( D, E, A, B, C, f2, K2, W[ 32 ] );
1100     subRound( C, D, E, A, B, f2, K2, W[ 33 ] );
1101     subRound( B, C, D, E, A, f2, K2, W[ 34 ] );
1102     subRound( A, B, C, D, E, f2, K2, W[ 35 ] );
1103     subRound( E, A, B, C, D, f2, K2, W[ 36 ] );
1104     subRound( D, E, A, B, C, f2, K2, W[ 37 ] );
1105     subRound( C, D, E, A, B, f2, K2, W[ 38 ] );
1106     subRound( B, C, D, E, A, f2, K2, W[ 39 ] );
1107     
1108     subRound( A, B, C, D, E, f3, K3, W[ 40 ] );
1109     subRound( E, A, B, C, D, f3, K3, W[ 41 ] );
1110     subRound( D, E, A, B, C, f3, K3, W[ 42 ] );
1111     subRound( C, D, E, A, B, f3, K3, W[ 43 ] );
1112     subRound( B, C, D, E, A, f3, K3, W[ 44 ] );
1113     subRound( A, B, C, D, E, f3, K3, W[ 45 ] );
1114     subRound( E, A, B, C, D, f3, K3, W[ 46 ] );
1115     subRound( D, E, A, B, C, f3, K3, W[ 47 ] );
1116     subRound( C, D, E, A, B, f3, K3, W[ 48 ] );
1117     subRound( B, C, D, E, A, f3, K3, W[ 49 ] );
1118     subRound( A, B, C, D, E, f3, K3, W[ 50 ] );
1119     subRound( E, A, B, C, D, f3, K3, W[ 51 ] );
1120     subRound( D, E, A, B, C, f3, K3, W[ 52 ] );
1121     subRound( C, D, E, A, B, f3, K3, W[ 53 ] );
1122     subRound( B, C, D, E, A, f3, K3, W[ 54 ] );
1123     subRound( A, B, C, D, E, f3, K3, W[ 55 ] );
1124     subRound( E, A, B, C, D, f3, K3, W[ 56 ] );
1125     subRound( D, E, A, B, C, f3, K3, W[ 57 ] );
1126     subRound( C, D, E, A, B, f3, K3, W[ 58 ] );
1127     subRound( B, C, D, E, A, f3, K3, W[ 59 ] );
1128
1129     subRound( A, B, C, D, E, f4, K4, W[ 60 ] );
1130     subRound( E, A, B, C, D, f4, K4, W[ 61 ] );
1131     subRound( D, E, A, B, C, f4, K4, W[ 62 ] );
1132     subRound( C, D, E, A, B, f4, K4, W[ 63 ] );
1133     subRound( B, C, D, E, A, f4, K4, W[ 64 ] );
1134     subRound( A, B, C, D, E, f4, K4, W[ 65 ] );
1135     subRound( E, A, B, C, D, f4, K4, W[ 66 ] );
1136     subRound( D, E, A, B, C, f4, K4, W[ 67 ] );
1137     subRound( C, D, E, A, B, f4, K4, W[ 68 ] );
1138     subRound( B, C, D, E, A, f4, K4, W[ 69 ] );
1139     subRound( A, B, C, D, E, f4, K4, W[ 70 ] );
1140     subRound( E, A, B, C, D, f4, K4, W[ 71 ] );
1141     subRound( D, E, A, B, C, f4, K4, W[ 72 ] );
1142     subRound( C, D, E, A, B, f4, K4, W[ 73 ] );
1143     subRound( B, C, D, E, A, f4, K4, W[ 74 ] );
1144     subRound( A, B, C, D, E, f4, K4, W[ 75 ] );
1145     subRound( E, A, B, C, D, f4, K4, W[ 76 ] );
1146     subRound( D, E, A, B, C, f4, K4, W[ 77 ] );
1147     subRound( C, D, E, A, B, f4, K4, W[ 78 ] );
1148     subRound( B, C, D, E, A, f4, K4, W[ 79 ] );
1149 #else
1150 #error Illegal SHA_CODE_SIZE
1151 #endif
1152
1153     /* Build message digest */
1154     digest[ 0 ] += A;
1155     digest[ 1 ] += B;
1156     digest[ 2 ] += C;
1157     digest[ 3 ] += D;
1158     digest[ 4 ] += E;
1159
1160         /* W is wiped by the caller */
1161 #undef W
1162 }
1163
1164 #undef ROTL
1165 #undef f1
1166 #undef f2
1167 #undef f3
1168 #undef f4
1169 #undef K1       
1170 #undef K2
1171 #undef K3       
1172 #undef K4       
1173 #undef subRound
1174         
1175 #else /* !USE_SHA - Use MD5 */
1176
1177 #define HASH_BUFFER_SIZE 4
1178 #define HASH_EXTRA_SIZE 0
1179 #define HASH_TRANSFORM MD5Transform
1180         
1181 /*
1182  * MD5 transform algorithm, taken from code written by Colin Plumb,
1183  * and put into the public domain
1184  */
1185
1186 /* The four core functions - F1 is optimized somewhat */
1187
1188 /* #define F1(x, y, z) (x & y | ~x & z) */
1189 #define F1(x, y, z) (z ^ (x & (y ^ z)))
1190 #define F2(x, y, z) F1(z, x, y)
1191 #define F3(x, y, z) (x ^ y ^ z)
1192 #define F4(x, y, z) (y ^ (x | ~z))
1193
1194 /* This is the central step in the MD5 algorithm. */
1195 #define MD5STEP(f, w, x, y, z, data, s) \
1196         ( w += f(x, y, z) + data,  w = w<<s | w>>(32-s),  w += x )
1197
1198 /*
1199  * The core of the MD5 algorithm, this alters an existing MD5 hash to
1200  * reflect the addition of 16 longwords of new data.  MD5Update blocks
1201  * the data and converts bytes into longwords for this routine.
1202  */
1203 static void MD5Transform(__u32 buf[HASH_BUFFER_SIZE], __u32 const in[16])
1204 {
1205         __u32 a, b, c, d;
1206
1207         a = buf[0];
1208         b = buf[1];
1209         c = buf[2];
1210         d = buf[3];
1211
1212         MD5STEP(F1, a, b, c, d, in[ 0]+0xd76aa478,  7);
1213         MD5STEP(F1, d, a, b, c, in[ 1]+0xe8c7b756, 12);
1214         MD5STEP(F1, c, d, a, b, in[ 2]+0x242070db, 17);
1215         MD5STEP(F1, b, c, d, a, in[ 3]+0xc1bdceee, 22);
1216         MD5STEP(F1, a, b, c, d, in[ 4]+0xf57c0faf,  7);
1217         MD5STEP(F1, d, a, b, c, in[ 5]+0x4787c62a, 12);
1218         MD5STEP(F1, c, d, a, b, in[ 6]+0xa8304613, 17);
1219         MD5STEP(F1, b, c, d, a, in[ 7]+0xfd469501, 22);
1220         MD5STEP(F1, a, b, c, d, in[ 8]+0x698098d8,  7);
1221         MD5STEP(F1, d, a, b, c, in[ 9]+0x8b44f7af, 12);
1222         MD5STEP(F1, c, d, a, b, in[10]+0xffff5bb1, 17);
1223         MD5STEP(F1, b, c, d, a, in[11]+0x895cd7be, 22);
1224         MD5STEP(F1, a, b, c, d, in[12]+0x6b901122,  7);
1225         MD5STEP(F1, d, a, b, c, in[13]+0xfd987193, 12);
1226         MD5STEP(F1, c, d, a, b, in[14]+0xa679438e, 17);
1227         MD5STEP(F1, b, c, d, a, in[15]+0x49b40821, 22);
1228
1229         MD5STEP(F2, a, b, c, d, in[ 1]+0xf61e2562,  5);
1230         MD5STEP(F2, d, a, b, c, in[ 6]+0xc040b340,  9);
1231         MD5STEP(F2, c, d, a, b, in[11]+0x265e5a51, 14);
1232         MD5STEP(F2, b, c, d, a, in[ 0]+0xe9b6c7aa, 20);
1233         MD5STEP(F2, a, b, c, d, in[ 5]+0xd62f105d,  5);
1234         MD5STEP(F2, d, a, b, c, in[10]+0x02441453,  9);
1235         MD5STEP(F2, c, d, a, b, in[15]+0xd8a1e681, 14);
1236         MD5STEP(F2, b, c, d, a, in[ 4]+0xe7d3fbc8, 20);
1237         MD5STEP(F2, a, b, c, d, in[ 9]+0x21e1cde6,  5);
1238         MD5STEP(F2, d, a, b, c, in[14]+0xc33707d6,  9);
1239         MD5STEP(F2, c, d, a, b, in[ 3]+0xf4d50d87, 14);
1240         MD5STEP(F2, b, c, d, a, in[ 8]+0x455a14ed, 20);
1241         MD5STEP(F2, a, b, c, d, in[13]+0xa9e3e905,  5);
1242         MD5STEP(F2, d, a, b, c, in[ 2]+0xfcefa3f8,  9);
1243         MD5STEP(F2, c, d, a, b, in[ 7]+0x676f02d9, 14);
1244         MD5STEP(F2, b, c, d, a, in[12]+0x8d2a4c8a, 20);
1245
1246         MD5STEP(F3, a, b, c, d, in[ 5]+0xfffa3942,  4);
1247         MD5STEP(F3, d, a, b, c, in[ 8]+0x8771f681, 11);
1248         MD5STEP(F3, c, d, a, b, in[11]+0x6d9d6122, 16);
1249         MD5STEP(F3, b, c, d, a, in[14]+0xfde5380c, 23);
1250         MD5STEP(F3, a, b, c, d, in[ 1]+0xa4beea44,  4);
1251         MD5STEP(F3, d, a, b, c, in[ 4]+0x4bdecfa9, 11);
1252         MD5STEP(F3, c, d, a, b, in[ 7]+0xf6bb4b60, 16);
1253         MD5STEP(F3, b, c, d, a, in[10]+0xbebfbc70, 23);
1254         MD5STEP(F3, a, b, c, d, in[13]+0x289b7ec6,  4);
1255         MD5STEP(F3, d, a, b, c, in[ 0]+0xeaa127fa, 11);
1256         MD5STEP(F3, c, d, a, b, in[ 3]+0xd4ef3085, 16);
1257         MD5STEP(F3, b, c, d, a, in[ 6]+0x04881d05, 23);
1258         MD5STEP(F3, a, b, c, d, in[ 9]+0xd9d4d039,  4);
1259         MD5STEP(F3, d, a, b, c, in[12]+0xe6db99e5, 11);
1260         MD5STEP(F3, c, d, a, b, in[15]+0x1fa27cf8, 16);
1261         MD5STEP(F3, b, c, d, a, in[ 2]+0xc4ac5665, 23);
1262
1263         MD5STEP(F4, a, b, c, d, in[ 0]+0xf4292244,  6);
1264         MD5STEP(F4, d, a, b, c, in[ 7]+0x432aff97, 10);
1265         MD5STEP(F4, c, d, a, b, in[14]+0xab9423a7, 15);
1266         MD5STEP(F4, b, c, d, a, in[ 5]+0xfc93a039, 21);
1267         MD5STEP(F4, a, b, c, d, in[12]+0x655b59c3,  6);
1268         MD5STEP(F4, d, a, b, c, in[ 3]+0x8f0ccc92, 10);
1269         MD5STEP(F4, c, d, a, b, in[10]+0xffeff47d, 15);
1270         MD5STEP(F4, b, c, d, a, in[ 1]+0x85845dd1, 21);
1271         MD5STEP(F4, a, b, c, d, in[ 8]+0x6fa87e4f,  6);
1272         MD5STEP(F4, d, a, b, c, in[15]+0xfe2ce6e0, 10);
1273         MD5STEP(F4, c, d, a, b, in[ 6]+0xa3014314, 15);
1274         MD5STEP(F4, b, c, d, a, in[13]+0x4e0811a1, 21);
1275         MD5STEP(F4, a, b, c, d, in[ 4]+0xf7537e82,  6);
1276         MD5STEP(F4, d, a, b, c, in[11]+0xbd3af235, 10);
1277         MD5STEP(F4, c, d, a, b, in[ 2]+0x2ad7d2bb, 15);
1278         MD5STEP(F4, b, c, d, a, in[ 9]+0xeb86d391, 21);
1279
1280         buf[0] += a;
1281         buf[1] += b;
1282         buf[2] += c;
1283         buf[3] += d;
1284 }
1285
1286 #undef F1
1287 #undef F2
1288 #undef F3
1289 #undef F4
1290 #undef MD5STEP
1291
1292 #endif /* !USE_SHA */
1293
1294 /*********************************************************************
1295  *
1296  * Entropy extraction routines
1297  *
1298  *********************************************************************/
1299
1300 #define EXTRACT_ENTROPY_USER            1
1301 #define EXTRACT_ENTROPY_SECONDARY       2
1302 #define EXTRACT_ENTROPY_LIMIT           4
1303 #define TMP_BUF_SIZE                    (HASH_BUFFER_SIZE + HASH_EXTRA_SIZE)
1304 #define SEC_XFER_SIZE                   (TMP_BUF_SIZE*4)
1305
1306 static ssize_t extract_entropy(struct entropy_store *r, void * buf,
1307                                size_t nbytes, int flags);
1308
1309 /*
1310  * This utility inline function is responsible for transfering entropy
1311  * from the primary pool to the secondary extraction pool. We make
1312  * sure we pull enough for a 'catastrophic reseed'.
1313  */
1314 static inline void xfer_secondary_pool(struct entropy_store *r,
1315                                        size_t nbytes, __u32 *tmp)
1316 {
1317         if (r->entropy_count < nbytes * 8 &&
1318             r->entropy_count < r->poolinfo.POOLBITS) {
1319                 int bytes = max_t(int, random_read_wakeup_thresh / 8,
1320                                 min_t(int, nbytes, TMP_BUF_SIZE));
1321
1322                 DEBUG_ENT("%04d %04d : going to reseed %s with %d bits "
1323                           "(%d of %d requested)\n",
1324                           random_state->entropy_count,
1325                           sec_random_state->entropy_count,
1326                           r == sec_random_state ? "secondary" : "unknown",
1327                           bytes * 8, nbytes * 8, r->entropy_count);
1328
1329                 bytes=extract_entropy(random_state, tmp, bytes,
1330                                       EXTRACT_ENTROPY_LIMIT);
1331                 add_entropy_words(r, tmp, bytes);
1332                 credit_entropy_store(r, bytes*8);
1333         }
1334 }
1335
1336 /*
1337  * This function extracts randomness from the "entropy pool", and
1338  * returns it in a buffer.  This function computes how many remaining
1339  * bits of entropy are left in the pool, but it does not restrict the
1340  * number of bytes that are actually obtained.  If the EXTRACT_ENTROPY_USER
1341  * flag is given, then the buf pointer is assumed to be in user space.
1342  *
1343  * If the EXTRACT_ENTROPY_SECONDARY flag is given, then we are actually
1344  * extracting entropy from the secondary pool, and can refill from the
1345  * primary pool if needed.
1346  *
1347  * Note: extract_entropy() assumes that .poolwords is a multiple of 16 words.
1348  */
1349 static ssize_t extract_entropy(struct entropy_store *r, void * buf,
1350                                size_t nbytes, int flags)
1351 {
1352         ssize_t ret, i;
1353         __u32 tmp[TMP_BUF_SIZE];
1354         __u32 x;
1355         unsigned long cpuflags;
1356
1357
1358         /* Redundant, but just in case... */
1359         if (r->entropy_count > r->poolinfo.POOLBITS)
1360                 r->entropy_count = r->poolinfo.POOLBITS;
1361
1362         if (flags & EXTRACT_ENTROPY_SECONDARY)
1363                 xfer_secondary_pool(r, nbytes, tmp);
1364
1365         /* Hold lock while accounting */
1366         spin_lock_irqsave(&r->lock, cpuflags);
1367
1368         DEBUG_ENT("%04d %04d : trying to extract %d bits from %s\n",
1369                   random_state->entropy_count,
1370                   sec_random_state->entropy_count,
1371                   nbytes * 8,
1372                   r == sec_random_state ? "secondary" :
1373                   r == random_state ? "primary" : "unknown");
1374
1375         if (flags & EXTRACT_ENTROPY_LIMIT && nbytes >= r->entropy_count / 8)
1376                 nbytes = r->entropy_count / 8;
1377
1378         if (r->entropy_count / 8 >= nbytes)
1379                 r->entropy_count -= nbytes*8;
1380         else
1381                 r->entropy_count = 0;
1382
1383         if (r->entropy_count < random_write_wakeup_thresh)
1384                 wake_up_interruptible(&random_write_wait);
1385
1386         DEBUG_ENT("%04d %04d : debiting %d bits from %s%s\n",
1387                   random_state->entropy_count,
1388                   sec_random_state->entropy_count,
1389                   nbytes * 8,
1390                   r == sec_random_state ? "secondary" :
1391                   r == random_state ? "primary" : "unknown",
1392                   flags & EXTRACT_ENTROPY_LIMIT ? "" : " (unlimited)");
1393
1394         spin_unlock_irqrestore(&r->lock, cpuflags);
1395
1396         ret = 0;
1397         while (nbytes) {
1398                 /*
1399                  * Check if we need to break out or reschedule....
1400                  */
1401                 if ((flags & EXTRACT_ENTROPY_USER) && need_resched()) {
1402                         if (signal_pending(current)) {
1403                                 if (ret == 0)
1404                                         ret = -ERESTARTSYS;
1405                                 break;
1406                         }
1407
1408                         DEBUG_ENT("%04d %04d : extract feeling sleepy (%d bytes left)\n",
1409                                   random_state->entropy_count,
1410                                   sec_random_state->entropy_count, nbytes);
1411
1412                         schedule();
1413
1414                         DEBUG_ENT("%04d %04d : extract woke up\n",
1415                                   random_state->entropy_count,
1416                                   sec_random_state->entropy_count);
1417                 }
1418
1419                 /* Hash the pool to get the output */
1420                 tmp[0] = 0x67452301;
1421                 tmp[1] = 0xefcdab89;
1422                 tmp[2] = 0x98badcfe;
1423                 tmp[3] = 0x10325476;
1424 #ifdef USE_SHA
1425                 tmp[4] = 0xc3d2e1f0;
1426 #endif
1427                 /*
1428                  * As we hash the pool, we mix intermediate values of
1429                  * the hash back into the pool.  This eliminates
1430                  * backtracking attacks (where the attacker knows
1431                  * the state of the pool plus the current outputs, and
1432                  * attempts to find previous ouputs), unless the hash
1433                  * function can be inverted.
1434                  */
1435                 for (i = 0, x = 0; i < r->poolinfo.poolwords; i += 16, x+=2) {
1436                         HASH_TRANSFORM(tmp, r->pool+i);
1437                         add_entropy_words(r, &tmp[x%HASH_BUFFER_SIZE], 1);
1438                 }
1439                 
1440                 /*
1441                  * In case the hash function has some recognizable
1442                  * output pattern, we fold it in half.
1443                  */
1444                 for (i = 0; i <  HASH_BUFFER_SIZE/2; i++)
1445                         tmp[i] ^= tmp[i + (HASH_BUFFER_SIZE+1)/2];
1446 #if HASH_BUFFER_SIZE & 1        /* There's a middle word to deal with */
1447                 x = tmp[HASH_BUFFER_SIZE/2];
1448                 x ^= (x >> 16);         /* Fold it in half */
1449                 ((__u16 *)tmp)[HASH_BUFFER_SIZE-1] = (__u16)x;
1450 #endif
1451                 
1452                 /* Copy data to destination buffer */
1453                 i = min(nbytes, HASH_BUFFER_SIZE*sizeof(__u32)/2);
1454                 if (flags & EXTRACT_ENTROPY_USER) {
1455                         i -= copy_to_user(buf, (__u8 const *)tmp, i);
1456                         if (!i) {
1457                                 ret = -EFAULT;
1458                                 break;
1459                         }
1460                 } else
1461                         memcpy(buf, (__u8 const *)tmp, i);
1462                 nbytes -= i;
1463                 buf += i;
1464                 ret += i;
1465         }
1466
1467         /* Wipe data just returned from memory */
1468         memset(tmp, 0, sizeof(tmp));
1469         
1470         return ret;
1471 }
1472
1473 /*
1474  * This function is the exported kernel interface.  It returns some
1475  * number of good random numbers, suitable for seeding TCP sequence
1476  * numbers, etc.
1477  */
1478 void get_random_bytes(void *buf, int nbytes)
1479 {
1480         if (sec_random_state)  
1481                 extract_entropy(sec_random_state, (char *) buf, nbytes, 
1482                                 EXTRACT_ENTROPY_SECONDARY);
1483         else if (random_state)
1484                 extract_entropy(random_state, (char *) buf, nbytes, 0);
1485         else
1486                 printk(KERN_NOTICE "get_random_bytes called before "
1487                                    "random driver initialization\n");
1488 }
1489
1490 EXPORT_SYMBOL(get_random_bytes);
1491
1492 /*********************************************************************
1493  *
1494  * Functions to interface with Linux
1495  *
1496  *********************************************************************/
1497
1498 /*
1499  * Initialize the random pool with standard stuff.
1500  *
1501  * NOTE: This is an OS-dependent function.
1502  */
1503 static void init_std_data(struct entropy_store *r)
1504 {
1505         struct timeval  tv;
1506         __u32           words[2];
1507         char            *p;
1508         int             i;
1509
1510         do_gettimeofday(&tv);
1511         words[0] = tv.tv_sec;
1512         words[1] = tv.tv_usec;
1513         add_entropy_words(r, words, 2);
1514
1515         /*
1516          *      This doesn't lock system.utsname. However, we are generating
1517          *      entropy so a race with a name set here is fine.
1518          */
1519         p = (char *) &system_utsname;
1520         for (i = sizeof(system_utsname) / sizeof(words); i; i--) {
1521                 memcpy(words, p, sizeof(words));
1522                 add_entropy_words(r, words, sizeof(words)/4);
1523                 p += sizeof(words);
1524         }
1525 }
1526
1527 static int __init rand_initialize(void)
1528 {
1529         int i;
1530
1531         if (create_entropy_store(DEFAULT_POOL_SIZE, &random_state))
1532                 goto err;
1533         if (batch_entropy_init(BATCH_ENTROPY_SIZE, random_state))
1534                 goto err;
1535         if (create_entropy_store(SECONDARY_POOL_SIZE, &sec_random_state))
1536                 goto err;
1537         clear_entropy_store(random_state);
1538         clear_entropy_store(sec_random_state);
1539         init_std_data(random_state);
1540 #ifdef CONFIG_SYSCTL
1541         sysctl_init_random(random_state);
1542 #endif
1543         for (i = 0; i < NR_IRQS; i++)
1544                 irq_timer_state[i] = NULL;
1545         memset(&keyboard_timer_state, 0, sizeof(struct timer_rand_state));
1546         memset(&mouse_timer_state, 0, sizeof(struct timer_rand_state));
1547         memset(&extract_timer_state, 0, sizeof(struct timer_rand_state));
1548         extract_timer_state.dont_count_entropy = 1;
1549         return 0;
1550 err:
1551         return -1;
1552 }
1553 module_init(rand_initialize);
1554
1555 void rand_initialize_irq(int irq)
1556 {
1557         struct timer_rand_state *state;
1558         
1559         if (irq >= NR_IRQS || irq_timer_state[irq])
1560                 return;
1561
1562         /*
1563          * If kmalloc returns null, we just won't use that entropy
1564          * source.
1565          */
1566         state = kmalloc(sizeof(struct timer_rand_state), GFP_KERNEL);
1567         if (state) {
1568                 memset(state, 0, sizeof(struct timer_rand_state));
1569                 irq_timer_state[irq] = state;
1570         }
1571 }
1572  
1573 void rand_initialize_disk(struct gendisk *disk)
1574 {
1575         struct timer_rand_state *state;
1576         
1577         /*
1578          * If kmalloc returns null, we just won't use that entropy
1579          * source.
1580          */
1581         state = kmalloc(sizeof(struct timer_rand_state), GFP_KERNEL);
1582         if (state) {
1583                 memset(state, 0, sizeof(struct timer_rand_state));
1584                 disk->random = state;
1585         }
1586 }
1587
1588 static ssize_t
1589 random_read(struct file * file, char __user * buf, size_t nbytes, loff_t *ppos)
1590 {
1591         DECLARE_WAITQUEUE(wait, current);
1592         ssize_t                 n, retval = 0, count = 0;
1593         
1594         if (nbytes == 0)
1595                 return 0;
1596
1597         while (nbytes > 0) {
1598                 n = nbytes;
1599                 if (n > SEC_XFER_SIZE)
1600                         n = SEC_XFER_SIZE;
1601
1602                 DEBUG_ENT("%04d %04d : reading %d bits, p: %d s: %d\n",
1603                           random_state->entropy_count,
1604                           sec_random_state->entropy_count,
1605                           n*8, random_state->entropy_count,
1606                           sec_random_state->entropy_count);
1607
1608                 n = extract_entropy(sec_random_state, buf, n,
1609                                     EXTRACT_ENTROPY_USER |
1610                                     EXTRACT_ENTROPY_LIMIT |
1611                                     EXTRACT_ENTROPY_SECONDARY);
1612
1613                 DEBUG_ENT("%04d %04d : read got %d bits (%d still needed)\n",
1614                           random_state->entropy_count,
1615                           sec_random_state->entropy_count,
1616                           n*8, (nbytes-n)*8);
1617
1618                 if (n == 0) {
1619                         if (file->f_flags & O_NONBLOCK) {
1620                                 retval = -EAGAIN;
1621                                 break;
1622                         }
1623                         if (signal_pending(current)) {
1624                                 retval = -ERESTARTSYS;
1625                                 break;
1626                         }
1627
1628                         DEBUG_ENT("%04d %04d : sleeping?\n",
1629                                   random_state->entropy_count,
1630                                   sec_random_state->entropy_count);
1631
1632                         set_current_state(TASK_INTERRUPTIBLE);
1633                         add_wait_queue(&random_read_wait, &wait);
1634
1635                         if (sec_random_state->entropy_count / 8 == 0)
1636                                 schedule();
1637
1638                         set_current_state(TASK_RUNNING);
1639                         remove_wait_queue(&random_read_wait, &wait);
1640
1641                         DEBUG_ENT("%04d %04d : waking up\n",
1642                                   random_state->entropy_count,
1643                                   sec_random_state->entropy_count);
1644
1645                         continue;
1646                 }
1647
1648                 if (n < 0) {
1649                         retval = n;
1650                         break;
1651                 }
1652                 count += n;
1653                 buf += n;
1654                 nbytes -= n;
1655                 break;          /* This break makes the device work */
1656                                 /* like a named pipe */
1657         }
1658
1659         /*
1660          * If we gave the user some bytes, update the access time.
1661          */
1662         if (count)
1663                 file_accessed(file);
1664         
1665         return (count ? count : retval);
1666 }
1667
1668 static ssize_t
1669 urandom_read(struct file * file, char __user * buf,
1670                       size_t nbytes, loff_t *ppos)
1671 {
1672         return extract_entropy(sec_random_state, buf, nbytes,
1673                                EXTRACT_ENTROPY_USER |
1674                                EXTRACT_ENTROPY_SECONDARY);
1675 }
1676
1677 static unsigned int
1678 random_poll(struct file *file, poll_table * wait)
1679 {
1680         unsigned int mask;
1681
1682         poll_wait(file, &random_read_wait, wait);
1683         poll_wait(file, &random_write_wait, wait);
1684         mask = 0;
1685         if (random_state->entropy_count >= random_read_wakeup_thresh)
1686                 mask |= POLLIN | POLLRDNORM;
1687         if (random_state->entropy_count < random_write_wakeup_thresh)
1688                 mask |= POLLOUT | POLLWRNORM;
1689         return mask;
1690 }
1691
1692 static ssize_t
1693 random_write(struct file * file, const char __user * buffer,
1694              size_t count, loff_t *ppos)
1695 {
1696         int             ret = 0;
1697         size_t          bytes;
1698         __u32           buf[16];
1699         const char      __user *p = buffer;
1700         size_t          c = count;
1701
1702         while (c > 0) {
1703                 bytes = min(c, sizeof(buf));
1704
1705                 bytes -= copy_from_user(&buf, p, bytes);
1706                 if (!bytes) {
1707                         ret = -EFAULT;
1708                         break;
1709                 }
1710                 c -= bytes;
1711                 p += bytes;
1712
1713                 add_entropy_words(random_state, buf, (bytes + 3) / 4);
1714         }
1715         if (p == buffer) {
1716                 return (ssize_t)ret;
1717         } else {
1718                 file->f_dentry->d_inode->i_mtime = CURRENT_TIME;
1719                 mark_inode_dirty(file->f_dentry->d_inode);
1720                 return (ssize_t)(p - buffer);
1721         }
1722 }
1723
1724 static int
1725 random_ioctl(struct inode * inode, struct file * file,
1726              unsigned int cmd, unsigned long arg)
1727 {
1728         int *tmp, size, ent_count;
1729         int __user *p = (int __user *)arg;
1730         int retval;
1731         unsigned long flags;
1732         
1733         switch (cmd) {
1734         case RNDGETENTCNT:
1735                 ent_count = random_state->entropy_count;
1736                 if (put_user(ent_count, p))
1737                         return -EFAULT;
1738                 return 0;
1739         case RNDADDTOENTCNT:
1740                 if (!capable(CAP_SYS_ADMIN))
1741                         return -EPERM;
1742                 if (get_user(ent_count, p))
1743                         return -EFAULT;
1744                 credit_entropy_store(random_state, ent_count);
1745                 /*
1746                  * Wake up waiting processes if we have enough
1747                  * entropy.
1748                  */
1749                 if (random_state->entropy_count >= random_read_wakeup_thresh)
1750                         wake_up_interruptible(&random_read_wait);
1751                 return 0;
1752         case RNDGETPOOL:
1753                 if (!capable(CAP_SYS_ADMIN))
1754                         return -EPERM;
1755                 if (get_user(size, p) ||
1756                     put_user(random_state->poolinfo.poolwords, p++))
1757                         return -EFAULT;
1758                 if (size < 0)
1759                         return -EFAULT;
1760                 if (size > random_state->poolinfo.poolwords)
1761                         size = random_state->poolinfo.poolwords;
1762
1763                 /* prepare to atomically snapshot pool */
1764
1765                 tmp = kmalloc(size * sizeof(__u32), GFP_KERNEL);
1766
1767                 if (!tmp)
1768                         return -ENOMEM;
1769
1770                 spin_lock_irqsave(&random_state->lock, flags);
1771                 ent_count = random_state->entropy_count;
1772                 memcpy(tmp, random_state->pool, size * sizeof(__u32));
1773                 spin_unlock_irqrestore(&random_state->lock, flags);
1774
1775                 if (!copy_to_user(p, tmp, size * sizeof(__u32))) {
1776                         kfree(tmp);
1777                         return -EFAULT;
1778                 }
1779
1780                 kfree(tmp);
1781
1782                 if(put_user(ent_count, p++))
1783                         return -EFAULT;
1784
1785                 return 0;
1786         case RNDADDENTROPY:
1787                 if (!capable(CAP_SYS_ADMIN))
1788                         return -EPERM;
1789                 if (get_user(ent_count, p++))
1790                         return -EFAULT;
1791                 if (ent_count < 0)
1792                         return -EINVAL;
1793                 if (get_user(size, p++))
1794                         return -EFAULT;
1795                 retval = random_write(file, (const char __user *) p,
1796                                       size, &file->f_pos);
1797                 if (retval < 0)
1798                         return retval;
1799                 credit_entropy_store(random_state, ent_count);
1800                 /*
1801                  * Wake up waiting processes if we have enough
1802                  * entropy.
1803                  */
1804                 if (random_state->entropy_count >= random_read_wakeup_thresh)
1805                         wake_up_interruptible(&random_read_wait);
1806                 return 0;
1807         case RNDZAPENTCNT:
1808                 if (!capable(CAP_SYS_ADMIN))
1809                         return -EPERM;
1810                 random_state->entropy_count = 0;
1811                 return 0;
1812         case RNDCLEARPOOL:
1813                 /* Clear the entropy pool and associated counters. */
1814                 if (!capable(CAP_SYS_ADMIN))
1815                         return -EPERM;
1816                 clear_entropy_store(random_state);
1817                 init_std_data(random_state);
1818                 return 0;
1819         default:
1820                 return -EINVAL;
1821         }
1822 }
1823
1824 struct file_operations random_fops = {
1825         .read           = random_read,
1826         .write          = random_write,
1827         .poll           = random_poll,
1828         .ioctl          = random_ioctl,
1829 };
1830
1831 struct file_operations urandom_fops = {
1832         .read           = urandom_read,
1833         .write          = random_write,
1834         .ioctl          = random_ioctl,
1835 };
1836
1837 /***************************************************************
1838  * Random UUID interface
1839  * 
1840  * Used here for a Boot ID, but can be useful for other kernel 
1841  * drivers.
1842  ***************************************************************/
1843
1844 /*
1845  * Generate random UUID
1846  */
1847 void generate_random_uuid(unsigned char uuid_out[16])
1848 {
1849         get_random_bytes(uuid_out, 16);
1850         /* Set UUID version to 4 --- truely random generation */
1851         uuid_out[6] = (uuid_out[6] & 0x0F) | 0x40;
1852         /* Set the UUID variant to DCE */
1853         uuid_out[8] = (uuid_out[8] & 0x3F) | 0x80;
1854 }
1855
1856 EXPORT_SYMBOL(generate_random_uuid);
1857
1858 /********************************************************************
1859  *
1860  * Sysctl interface
1861  *
1862  ********************************************************************/
1863
1864 #ifdef CONFIG_SYSCTL
1865
1866 #include <linux/sysctl.h>
1867
1868 static int sysctl_poolsize;
1869 static int min_read_thresh, max_read_thresh;
1870 static int min_write_thresh, max_write_thresh;
1871 static char sysctl_bootid[16];
1872
1873 /*
1874  * This function handles a request from the user to change the pool size 
1875  * of the primary entropy store.
1876  */
1877 static int change_poolsize(int poolsize)
1878 {
1879         struct entropy_store    *new_store, *old_store;
1880         int                     ret;
1881         
1882         if ((ret = create_entropy_store(poolsize, &new_store)))
1883                 return ret;
1884
1885         add_entropy_words(new_store, random_state->pool,
1886                           random_state->poolinfo.poolwords);
1887         credit_entropy_store(new_store, random_state->entropy_count);
1888
1889         sysctl_init_random(new_store);
1890         old_store = random_state;
1891         random_state = batch_work.data = new_store;
1892         free_entropy_store(old_store);
1893         return 0;
1894 }
1895
1896 static int proc_do_poolsize(ctl_table *table, int write, struct file *filp,
1897                             void __user *buffer, size_t *lenp)
1898 {
1899         int     ret;
1900
1901         sysctl_poolsize = random_state->poolinfo.POOLBYTES;
1902
1903         ret = proc_dointvec(table, write, filp, buffer, lenp);
1904         if (ret || !write ||
1905             (sysctl_poolsize == random_state->poolinfo.POOLBYTES))
1906                 return ret;
1907
1908         return change_poolsize(sysctl_poolsize);
1909 }
1910
1911 static int poolsize_strategy(ctl_table *table, int __user *name, int nlen,
1912                              void __user *oldval, size_t __user *oldlenp,
1913                              void __user *newval, size_t newlen, void **context)
1914 {
1915         int     len;
1916         
1917         sysctl_poolsize = random_state->poolinfo.POOLBYTES;
1918
1919         /*
1920          * We only handle the write case, since the read case gets
1921          * handled by the default handler (and we don't care if the
1922          * write case happens twice; it's harmless).
1923          */
1924         if (newval && newlen) {
1925                 len = newlen;
1926                 if (len > table->maxlen)
1927                         len = table->maxlen;
1928                 if (copy_from_user(table->data, newval, len))
1929                         return -EFAULT;
1930         }
1931
1932         if (sysctl_poolsize != random_state->poolinfo.POOLBYTES)
1933                 return change_poolsize(sysctl_poolsize);
1934
1935         return 0;
1936 }
1937
1938 /*
1939  * These functions is used to return both the bootid UUID, and random
1940  * UUID.  The difference is in whether table->data is NULL; if it is,
1941  * then a new UUID is generated and returned to the user.
1942  * 
1943  * If the user accesses this via the proc interface, it will be returned
1944  * as an ASCII string in the standard UUID format.  If accesses via the 
1945  * sysctl system call, it is returned as 16 bytes of binary data.
1946  */
1947 static int proc_do_uuid(ctl_table *table, int write, struct file *filp,
1948                         void __user *buffer, size_t *lenp)
1949 {
1950         ctl_table       fake_table;
1951         unsigned char   buf[64], tmp_uuid[16], *uuid;
1952
1953         uuid = table->data;
1954         if (!uuid) {
1955                 uuid = tmp_uuid;
1956                 uuid[8] = 0;
1957         }
1958         if (uuid[8] == 0)
1959                 generate_random_uuid(uuid);
1960
1961         sprintf(buf, "%02x%02x%02x%02x-%02x%02x-%02x%02x-%02x%02x-"
1962                 "%02x%02x%02x%02x%02x%02x",
1963                 uuid[0],  uuid[1],  uuid[2],  uuid[3],
1964                 uuid[4],  uuid[5],  uuid[6],  uuid[7],
1965                 uuid[8],  uuid[9],  uuid[10], uuid[11],
1966                 uuid[12], uuid[13], uuid[14], uuid[15]);
1967         fake_table.data = buf;
1968         fake_table.maxlen = sizeof(buf);
1969
1970         return proc_dostring(&fake_table, write, filp, buffer, lenp);
1971 }
1972
1973 static int uuid_strategy(ctl_table *table, int __user *name, int nlen,
1974                          void __user *oldval, size_t __user *oldlenp,
1975                          void __user *newval, size_t newlen, void **context)
1976 {
1977         unsigned char   tmp_uuid[16], *uuid;
1978         unsigned int    len;
1979
1980         if (!oldval || !oldlenp)
1981                 return 1;
1982
1983         uuid = table->data;
1984         if (!uuid) {
1985                 uuid = tmp_uuid;
1986                 uuid[8] = 0;
1987         }
1988         if (uuid[8] == 0)
1989                 generate_random_uuid(uuid);
1990
1991         if (get_user(len, oldlenp))
1992                 return -EFAULT;
1993         if (len) {
1994                 if (len > 16)
1995                         len = 16;
1996                 if (copy_to_user(oldval, uuid, len) ||
1997                     put_user(len, oldlenp))
1998                         return -EFAULT;
1999         }
2000         return 1;
2001 }
2002
2003 ctl_table random_table[] = {
2004         {
2005                 .ctl_name       = RANDOM_POOLSIZE,
2006                 .procname       = "poolsize",
2007                 .data           = &sysctl_poolsize,
2008                 .maxlen         = sizeof(int),
2009                 .mode           = 0644,
2010                 .proc_handler   = &proc_do_poolsize,
2011                 .strategy       = &poolsize_strategy,
2012         },
2013         {
2014                 .ctl_name       = RANDOM_ENTROPY_COUNT,
2015                 .procname       = "entropy_avail",
2016                 .maxlen         = sizeof(int),
2017                 .mode           = 0444,
2018                 .proc_handler   = &proc_dointvec,
2019         },
2020         {
2021                 .ctl_name       = RANDOM_READ_THRESH,
2022                 .procname       = "read_wakeup_threshold",
2023                 .data           = &random_read_wakeup_thresh,
2024                 .maxlen         = sizeof(int),
2025                 .mode           = 0644,
2026                 .proc_handler   = &proc_dointvec_minmax,
2027                 .strategy       = &sysctl_intvec,
2028                 .extra1         = &min_read_thresh,
2029                 .extra2         = &max_read_thresh,
2030         },
2031         {
2032                 .ctl_name       = RANDOM_WRITE_THRESH,
2033                 .procname       = "write_wakeup_threshold",
2034                 .data           = &random_write_wakeup_thresh,
2035                 .maxlen         = sizeof(int),
2036                 .mode           = 0644,
2037                 .proc_handler   = &proc_dointvec_minmax,
2038                 .strategy       = &sysctl_intvec,
2039                 .extra1         = &min_write_thresh,
2040                 .extra2         = &max_write_thresh,
2041         },
2042         {
2043                 .ctl_name       = RANDOM_BOOT_ID,
2044                 .procname       = "boot_id",
2045                 .data           = &sysctl_bootid,
2046                 .maxlen         = 16,
2047                 .mode           = 0444,
2048                 .proc_handler   = &proc_do_uuid,
2049                 .strategy       = &uuid_strategy,
2050         },
2051         {
2052                 .ctl_name       = RANDOM_UUID,
2053                 .procname       = "uuid",
2054                 .maxlen         = 16,
2055                 .mode           = 0444,
2056                 .proc_handler   = &proc_do_uuid,
2057                 .strategy       = &uuid_strategy,
2058         },
2059         { .ctl_name = 0 }
2060 };
2061
2062 static void sysctl_init_random(struct entropy_store *random_state)
2063 {
2064         min_read_thresh = 8;
2065         min_write_thresh = 0;
2066         max_read_thresh = max_write_thresh = random_state->poolinfo.POOLBITS;
2067         random_table[1].data = &random_state->entropy_count;
2068 }
2069 #endif  /* CONFIG_SYSCTL */
2070
2071 /********************************************************************
2072  *
2073  * Random funtions for networking
2074  *
2075  ********************************************************************/
2076
2077 /*
2078  * TCP initial sequence number picking.  This uses the random number
2079  * generator to pick an initial secret value.  This value is hashed
2080  * along with the TCP endpoint information to provide a unique
2081  * starting point for each pair of TCP endpoints.  This defeats
2082  * attacks which rely on guessing the initial TCP sequence number.
2083  * This algorithm was suggested by Steve Bellovin.
2084  *
2085  * Using a very strong hash was taking an appreciable amount of the total
2086  * TCP connection establishment time, so this is a weaker hash,
2087  * compensated for by changing the secret periodically.
2088  */
2089
2090 /* F, G and H are basic MD4 functions: selection, majority, parity */
2091 #define F(x, y, z) ((z) ^ ((x) & ((y) ^ (z))))
2092 #define G(x, y, z) (((x) & (y)) + (((x) ^ (y)) & (z)))
2093 #define H(x, y, z) ((x) ^ (y) ^ (z))
2094
2095 /*
2096  * The generic round function.  The application is so specific that
2097  * we don't bother protecting all the arguments with parens, as is generally
2098  * good macro practice, in favor of extra legibility.
2099  * Rotation is separate from addition to prevent recomputation
2100  */
2101 #define ROUND(f, a, b, c, d, x, s)      \
2102         (a += f(b, c, d) + x, a = (a << s) | (a >> (32-s)))
2103 #define K1 0
2104 #define K2 013240474631UL
2105 #define K3 015666365641UL
2106
2107 /*
2108  * Basic cut-down MD4 transform.  Returns only 32 bits of result.
2109  */
2110 static __u32 halfMD4Transform (__u32 const buf[4], __u32 const in[8])
2111 {
2112         __u32   a = buf[0], b = buf[1], c = buf[2], d = buf[3];
2113
2114         /* Round 1 */
2115         ROUND(F, a, b, c, d, in[0] + K1,  3);
2116         ROUND(F, d, a, b, c, in[1] + K1,  7);
2117         ROUND(F, c, d, a, b, in[2] + K1, 11);
2118         ROUND(F, b, c, d, a, in[3] + K1, 19);
2119         ROUND(F, a, b, c, d, in[4] + K1,  3);
2120         ROUND(F, d, a, b, c, in[5] + K1,  7);
2121         ROUND(F, c, d, a, b, in[6] + K1, 11);
2122         ROUND(F, b, c, d, a, in[7] + K1, 19);
2123
2124         /* Round 2 */
2125         ROUND(G, a, b, c, d, in[1] + K2,  3);
2126         ROUND(G, d, a, b, c, in[3] + K2,  5);
2127         ROUND(G, c, d, a, b, in[5] + K2,  9);
2128         ROUND(G, b, c, d, a, in[7] + K2, 13);
2129         ROUND(G, a, b, c, d, in[0] + K2,  3);
2130         ROUND(G, d, a, b, c, in[2] + K2,  5);
2131         ROUND(G, c, d, a, b, in[4] + K2,  9);
2132         ROUND(G, b, c, d, a, in[6] + K2, 13);
2133
2134         /* Round 3 */
2135         ROUND(H, a, b, c, d, in[3] + K3,  3);
2136         ROUND(H, d, a, b, c, in[7] + K3,  9);
2137         ROUND(H, c, d, a, b, in[2] + K3, 11);
2138         ROUND(H, b, c, d, a, in[6] + K3, 15);
2139         ROUND(H, a, b, c, d, in[1] + K3,  3);
2140         ROUND(H, d, a, b, c, in[5] + K3,  9);
2141         ROUND(H, c, d, a, b, in[0] + K3, 11);
2142         ROUND(H, b, c, d, a, in[4] + K3, 15);
2143
2144         return buf[1] + b;      /* "most hashed" word */
2145         /* Alternative: return sum of all words? */
2146 }
2147
2148 #if defined(CONFIG_IPV6) || defined(CONFIG_IPV6_MODULE)
2149
2150 static __u32 twothirdsMD4Transform (__u32 const buf[4], __u32 const in[12])
2151 {
2152         __u32   a = buf[0], b = buf[1], c = buf[2], d = buf[3];
2153
2154         /* Round 1 */
2155         ROUND(F, a, b, c, d, in[ 0] + K1,  3);
2156         ROUND(F, d, a, b, c, in[ 1] + K1,  7);
2157         ROUND(F, c, d, a, b, in[ 2] + K1, 11);
2158         ROUND(F, b, c, d, a, in[ 3] + K1, 19);
2159         ROUND(F, a, b, c, d, in[ 4] + K1,  3);
2160         ROUND(F, d, a, b, c, in[ 5] + K1,  7);
2161         ROUND(F, c, d, a, b, in[ 6] + K1, 11);
2162         ROUND(F, b, c, d, a, in[ 7] + K1, 19);
2163         ROUND(F, a, b, c, d, in[ 8] + K1,  3);
2164         ROUND(F, d, a, b, c, in[ 9] + K1,  7);
2165         ROUND(F, c, d, a, b, in[10] + K1, 11);
2166         ROUND(F, b, c, d, a, in[11] + K1, 19);
2167
2168         /* Round 2 */
2169         ROUND(G, a, b, c, d, in[ 1] + K2,  3);
2170         ROUND(G, d, a, b, c, in[ 3] + K2,  5);
2171         ROUND(G, c, d, a, b, in[ 5] + K2,  9);
2172         ROUND(G, b, c, d, a, in[ 7] + K2, 13);
2173         ROUND(G, a, b, c, d, in[ 9] + K2,  3);
2174         ROUND(G, d, a, b, c, in[11] + K2,  5);
2175         ROUND(G, c, d, a, b, in[ 0] + K2,  9);
2176         ROUND(G, b, c, d, a, in[ 2] + K2, 13);
2177         ROUND(G, a, b, c, d, in[ 4] + K2,  3);
2178         ROUND(G, d, a, b, c, in[ 6] + K2,  5);
2179         ROUND(G, c, d, a, b, in[ 8] + K2,  9);
2180         ROUND(G, b, c, d, a, in[10] + K2, 13);
2181
2182         /* Round 3 */
2183         ROUND(H, a, b, c, d, in[ 3] + K3,  3);
2184         ROUND(H, d, a, b, c, in[ 7] + K3,  9);
2185         ROUND(H, c, d, a, b, in[11] + K3, 11);
2186         ROUND(H, b, c, d, a, in[ 2] + K3, 15);
2187         ROUND(H, a, b, c, d, in[ 6] + K3,  3);
2188         ROUND(H, d, a, b, c, in[10] + K3,  9);
2189         ROUND(H, c, d, a, b, in[ 1] + K3, 11);
2190         ROUND(H, b, c, d, a, in[ 5] + K3, 15);
2191         ROUND(H, a, b, c, d, in[ 9] + K3,  3);
2192         ROUND(H, d, a, b, c, in[ 0] + K3,  9);
2193         ROUND(H, c, d, a, b, in[ 4] + K3, 11);
2194         ROUND(H, b, c, d, a, in[ 8] + K3, 15);
2195
2196         return buf[1] + b;      /* "most hashed" word */
2197         /* Alternative: return sum of all words? */
2198 }
2199 #endif
2200
2201 #undef ROUND
2202 #undef F
2203 #undef G
2204 #undef H
2205 #undef K1
2206 #undef K2
2207 #undef K3
2208
2209 /* This should not be decreased so low that ISNs wrap too fast. */
2210 #define REKEY_INTERVAL  300
2211 /*
2212  * Bit layout of the tcp sequence numbers (before adding current time):
2213  * bit 24-31: increased after every key exchange
2214  * bit 0-23: hash(source,dest)
2215  *
2216  * The implementation is similar to the algorithm described
2217  * in the Appendix of RFC 1185, except that
2218  * - it uses a 1 MHz clock instead of a 250 kHz clock
2219  * - it performs a rekey every 5 minutes, which is equivalent
2220  *      to a (source,dest) tulple dependent forward jump of the
2221  *      clock by 0..2^(HASH_BITS+1)
2222  *
2223  * Thus the average ISN wraparound time is 68 minutes instead of
2224  * 4.55 hours.
2225  *
2226  * SMP cleanup and lock avoidance with poor man's RCU.
2227  *                      Manfred Spraul <manfred@colorfullife.com>
2228  *              
2229  */
2230 #define COUNT_BITS      8
2231 #define COUNT_MASK      ( (1<<COUNT_BITS)-1)
2232 #define HASH_BITS       24
2233 #define HASH_MASK       ( (1<<HASH_BITS)-1 )
2234
2235 static struct keydata {
2236         time_t rekey_time;
2237         __u32   count;          // already shifted to the final position
2238         __u32   secret[12];
2239 } ____cacheline_aligned ip_keydata[2];
2240
2241 static spinlock_t ip_lock = SPIN_LOCK_UNLOCKED;
2242 static unsigned int ip_cnt;
2243
2244 static struct keydata *__check_and_rekey(time_t time)
2245 {
2246         struct keydata *keyptr;
2247         spin_lock_bh(&ip_lock);
2248         keyptr = &ip_keydata[ip_cnt&1];
2249         if (!keyptr->rekey_time || (time - keyptr->rekey_time) > REKEY_INTERVAL) {
2250                 keyptr = &ip_keydata[1^(ip_cnt&1)];
2251                 keyptr->rekey_time = time;
2252                 get_random_bytes(keyptr->secret, sizeof(keyptr->secret));
2253                 keyptr->count = (ip_cnt&COUNT_MASK)<<HASH_BITS;
2254                 mb();
2255                 ip_cnt++;
2256         }
2257         spin_unlock_bh(&ip_lock);
2258         return keyptr;
2259 }
2260
2261 static inline struct keydata *check_and_rekey(time_t time)
2262 {
2263         struct keydata *keyptr = &ip_keydata[ip_cnt&1];
2264
2265         rmb();
2266         if (!keyptr->rekey_time || (time - keyptr->rekey_time) > REKEY_INTERVAL) {
2267                 keyptr = __check_and_rekey(time);
2268         }
2269
2270         return keyptr;
2271 }
2272
2273 #if defined(CONFIG_IPV6) || defined(CONFIG_IPV6_MODULE)
2274 __u32 secure_tcpv6_sequence_number(__u32 *saddr, __u32 *daddr,
2275                                    __u16 sport, __u16 dport)
2276 {
2277         struct timeval  tv;
2278         __u32           seq;
2279         __u32           hash[12];
2280         struct keydata *keyptr;
2281
2282         /* The procedure is the same as for IPv4, but addresses are longer.
2283          * Thus we must use twothirdsMD4Transform.
2284          */
2285
2286         do_gettimeofday(&tv);   /* We need the usecs below... */
2287         keyptr = check_and_rekey(tv.tv_sec);
2288
2289         memcpy(hash, saddr, 16);
2290         hash[4]=(sport << 16) + dport;
2291         memcpy(&hash[5],keyptr->secret,sizeof(__u32)*7);
2292
2293         seq = twothirdsMD4Transform(daddr, hash) & HASH_MASK;
2294         seq += keyptr->count;
2295         seq += tv.tv_usec + tv.tv_sec*1000000;
2296
2297         return seq;
2298 }
2299 EXPORT_SYMBOL(secure_tcpv6_sequence_number);
2300
2301 __u32 secure_ipv6_id(__u32 *daddr)
2302 {
2303         struct keydata *keyptr;
2304
2305         keyptr = check_and_rekey(get_seconds());
2306
2307         return halfMD4Transform(daddr, keyptr->secret);
2308 }
2309
2310 EXPORT_SYMBOL(secure_ipv6_id);
2311 #endif
2312
2313
2314 __u32 secure_tcp_sequence_number(__u32 saddr, __u32 daddr,
2315                                  __u16 sport, __u16 dport)
2316 {
2317         struct timeval  tv;
2318         __u32           seq;
2319         __u32   hash[4];
2320         struct keydata *keyptr;
2321
2322         /*
2323          * Pick a random secret every REKEY_INTERVAL seconds.
2324          */
2325         do_gettimeofday(&tv);   /* We need the usecs below... */
2326         keyptr = check_and_rekey(tv.tv_sec);
2327
2328         /*
2329          *  Pick a unique starting offset for each TCP connection endpoints
2330          *  (saddr, daddr, sport, dport).
2331          *  Note that the words are placed into the starting vector, which is 
2332          *  then mixed with a partial MD4 over random data.
2333          */
2334         hash[0]=saddr;
2335         hash[1]=daddr;
2336         hash[2]=(sport << 16) + dport;
2337         hash[3]=keyptr->secret[11];
2338
2339         seq = halfMD4Transform(hash, keyptr->secret) & HASH_MASK;
2340         seq += keyptr->count;
2341         /*
2342          *      As close as possible to RFC 793, which
2343          *      suggests using a 250 kHz clock.
2344          *      Further reading shows this assumes 2 Mb/s networks.
2345          *      For 10 Mb/s Ethernet, a 1 MHz clock is appropriate.
2346          *      That's funny, Linux has one built in!  Use it!
2347          *      (Networks are faster now - should this be increased?)
2348          */
2349         seq += tv.tv_usec + tv.tv_sec*1000000;
2350 #if 0
2351         printk("init_seq(%lx, %lx, %d, %d) = %d\n",
2352                saddr, daddr, sport, dport, seq);
2353 #endif
2354         return seq;
2355 }
2356
2357 EXPORT_SYMBOL(secure_tcp_sequence_number);
2358
2359 /*  The code below is shamelessly stolen from secure_tcp_sequence_number().
2360  *  All blames to Andrey V. Savochkin <saw@msu.ru>.
2361  */
2362 __u32 secure_ip_id(__u32 daddr)
2363 {
2364         struct keydata *keyptr;
2365         __u32 hash[4];
2366
2367         keyptr = check_and_rekey(get_seconds());
2368
2369         /*
2370          *  Pick a unique starting offset for each IP destination.
2371          *  The dest ip address is placed in the starting vector,
2372          *  which is then hashed with random data.
2373          */
2374         hash[0] = daddr;
2375         hash[1] = keyptr->secret[9];
2376         hash[2] = keyptr->secret[10];
2377         hash[3] = keyptr->secret[11];
2378
2379         return halfMD4Transform(hash, keyptr->secret);
2380 }
2381
2382 #ifdef CONFIG_SYN_COOKIES
2383 /*
2384  * Secure SYN cookie computation. This is the algorithm worked out by
2385  * Dan Bernstein and Eric Schenk.
2386  *
2387  * For linux I implement the 1 minute counter by looking at the jiffies clock.
2388  * The count is passed in as a parameter, so this code doesn't much care.
2389  */
2390
2391 #define COOKIEBITS 24   /* Upper bits store count */
2392 #define COOKIEMASK (((__u32)1 << COOKIEBITS) - 1)
2393
2394 static int      syncookie_init;
2395 static __u32    syncookie_secret[2][16-3+HASH_BUFFER_SIZE];
2396
2397 __u32 secure_tcp_syn_cookie(__u32 saddr, __u32 daddr, __u16 sport,
2398                 __u16 dport, __u32 sseq, __u32 count, __u32 data)
2399 {
2400         __u32   tmp[16 + HASH_BUFFER_SIZE + HASH_EXTRA_SIZE];
2401         __u32   seq;
2402
2403         /*
2404          * Pick two random secrets the first time we need a cookie.
2405          */
2406         if (syncookie_init == 0) {
2407                 get_random_bytes(syncookie_secret, sizeof(syncookie_secret));
2408                 syncookie_init = 1;
2409         }
2410
2411         /*
2412          * Compute the secure sequence number.
2413          * The output should be:
2414          *   HASH(sec1,saddr,sport,daddr,dport,sec1) + sseq + (count * 2^24)
2415          *      + (HASH(sec2,saddr,sport,daddr,dport,count,sec2) % 2^24).
2416          * Where sseq is their sequence number and count increases every
2417          * minute by 1.
2418          * As an extra hack, we add a small "data" value that encodes the
2419          * MSS into the second hash value.
2420          */
2421
2422         memcpy(tmp+3, syncookie_secret[0], sizeof(syncookie_secret[0]));
2423         tmp[0]=saddr;
2424         tmp[1]=daddr;
2425         tmp[2]=(sport << 16) + dport;
2426         HASH_TRANSFORM(tmp+16, tmp);
2427         seq = tmp[17] + sseq + (count << COOKIEBITS);
2428
2429         memcpy(tmp+3, syncookie_secret[1], sizeof(syncookie_secret[1]));
2430         tmp[0]=saddr;
2431         tmp[1]=daddr;
2432         tmp[2]=(sport << 16) + dport;
2433         tmp[3] = count; /* minute counter */
2434         HASH_TRANSFORM(tmp+16, tmp);
2435
2436         /* Add in the second hash and the data */
2437         return seq + ((tmp[17] + data) & COOKIEMASK);
2438 }
2439
2440 /*
2441  * This retrieves the small "data" value from the syncookie.
2442  * If the syncookie is bad, the data returned will be out of
2443  * range.  This must be checked by the caller.
2444  *
2445  * The count value used to generate the cookie must be within
2446  * "maxdiff" if the current (passed-in) "count".  The return value
2447  * is (__u32)-1 if this test fails.
2448  */
2449 __u32 check_tcp_syn_cookie(__u32 cookie, __u32 saddr, __u32 daddr, __u16 sport,
2450                 __u16 dport, __u32 sseq, __u32 count, __u32 maxdiff)
2451 {
2452         __u32   tmp[16 + HASH_BUFFER_SIZE + HASH_EXTRA_SIZE];
2453         __u32   diff;
2454
2455         if (syncookie_init == 0)
2456                 return (__u32)-1;       /* Well, duh! */
2457
2458         /* Strip away the layers from the cookie */
2459         memcpy(tmp+3, syncookie_secret[0], sizeof(syncookie_secret[0]));
2460         tmp[0]=saddr;
2461         tmp[1]=daddr;
2462         tmp[2]=(sport << 16) + dport;
2463         HASH_TRANSFORM(tmp+16, tmp);
2464         cookie -= tmp[17] + sseq;
2465         /* Cookie is now reduced to (count * 2^24) ^ (hash % 2^24) */
2466
2467         diff = (count - (cookie >> COOKIEBITS)) & ((__u32)-1 >> COOKIEBITS);
2468         if (diff >= maxdiff)
2469                 return (__u32)-1;
2470
2471         memcpy(tmp+3, syncookie_secret[1], sizeof(syncookie_secret[1]));
2472         tmp[0] = saddr;
2473         tmp[1] = daddr;
2474         tmp[2] = (sport << 16) + dport;
2475         tmp[3] = count - diff;  /* minute counter */
2476         HASH_TRANSFORM(tmp+16, tmp);
2477
2478         return (cookie - tmp[17]) & COOKIEMASK; /* Leaving the data behind */
2479 }
2480 #endif