vserver 1.9.3
[linux-2.6.git] / drivers / char / random.c
1 /*
2  * random.c -- A strong random number generator
3  *
4  * Version 1.89, last modified 19-Sep-99
5  * 
6  * Copyright Theodore Ts'o, 1994, 1995, 1996, 1997, 1998, 1999.  All
7  * rights reserved.
8  *
9  * Redistribution and use in source and binary forms, with or without
10  * modification, are permitted provided that the following conditions
11  * are met:
12  * 1. Redistributions of source code must retain the above copyright
13  *    notice, and the entire permission notice in its entirety,
14  *    including the disclaimer of warranties.
15  * 2. Redistributions in binary form must reproduce the above copyright
16  *    notice, this list of conditions and the following disclaimer in the
17  *    documentation and/or other materials provided with the distribution.
18  * 3. The name of the author may not be used to endorse or promote
19  *    products derived from this software without specific prior
20  *    written permission.
21  * 
22  * ALTERNATIVELY, this product may be distributed under the terms of
23  * the GNU General Public License, in which case the provisions of the GPL are
24  * required INSTEAD OF the above restrictions.  (This clause is
25  * necessary due to a potential bad interaction between the GPL and
26  * the restrictions contained in a BSD-style copyright.)
27  * 
28  * THIS SOFTWARE IS PROVIDED ``AS IS'' AND ANY EXPRESS OR IMPLIED
29  * WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
30  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE, ALL OF
31  * WHICH ARE HEREBY DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR BE
32  * LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
33  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT
34  * OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR
35  * BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF
36  * LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
37  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE
38  * USE OF THIS SOFTWARE, EVEN IF NOT ADVISED OF THE POSSIBILITY OF SUCH
39  * DAMAGE.
40  */
41
42 /*
43  * (now, with legal B.S. out of the way.....) 
44  * 
45  * This routine gathers environmental noise from device drivers, etc.,
46  * and returns good random numbers, suitable for cryptographic use.
47  * Besides the obvious cryptographic uses, these numbers are also good
48  * for seeding TCP sequence numbers, and other places where it is
49  * desirable to have numbers which are not only random, but hard to
50  * predict by an attacker.
51  *
52  * Theory of operation
53  * ===================
54  * 
55  * Computers are very predictable devices.  Hence it is extremely hard
56  * to produce truly random numbers on a computer --- as opposed to
57  * pseudo-random numbers, which can easily generated by using a
58  * algorithm.  Unfortunately, it is very easy for attackers to guess
59  * the sequence of pseudo-random number generators, and for some
60  * applications this is not acceptable.  So instead, we must try to
61  * gather "environmental noise" from the computer's environment, which
62  * must be hard for outside attackers to observe, and use that to
63  * generate random numbers.  In a Unix environment, this is best done
64  * from inside the kernel.
65  * 
66  * Sources of randomness from the environment include inter-keyboard
67  * timings, inter-interrupt timings from some interrupts, and other
68  * events which are both (a) non-deterministic and (b) hard for an
69  * outside observer to measure.  Randomness from these sources are
70  * added to an "entropy pool", which is mixed using a CRC-like function.
71  * This is not cryptographically strong, but it is adequate assuming
72  * the randomness is not chosen maliciously, and it is fast enough that
73  * the overhead of doing it on every interrupt is very reasonable.
74  * As random bytes are mixed into the entropy pool, the routines keep
75  * an *estimate* of how many bits of randomness have been stored into
76  * the random number generator's internal state.
77  * 
78  * When random bytes are desired, they are obtained by taking the SHA
79  * hash of the contents of the "entropy pool".  The SHA hash avoids
80  * exposing the internal state of the entropy pool.  It is believed to
81  * be computationally infeasible to derive any useful information
82  * about the input of SHA from its output.  Even if it is possible to
83  * analyze SHA in some clever way, as long as the amount of data
84  * returned from the generator is less than the inherent entropy in
85  * the pool, the output data is totally unpredictable.  For this
86  * reason, the routine decreases its internal estimate of how many
87  * bits of "true randomness" are contained in the entropy pool as it
88  * outputs random numbers.
89  * 
90  * If this estimate goes to zero, the routine can still generate
91  * random numbers; however, an attacker may (at least in theory) be
92  * able to infer the future output of the generator from prior
93  * outputs.  This requires successful cryptanalysis of SHA, which is
94  * not believed to be feasible, but there is a remote possibility.
95  * Nonetheless, these numbers should be useful for the vast majority
96  * of purposes.
97  * 
98  * Exported interfaces ---- output
99  * ===============================
100  * 
101  * There are three exported interfaces; the first is one designed to
102  * be used from within the kernel:
103  *
104  *      void get_random_bytes(void *buf, int nbytes);
105  *
106  * This interface will return the requested number of random bytes,
107  * and place it in the requested buffer.
108  * 
109  * The two other interfaces are two character devices /dev/random and
110  * /dev/urandom.  /dev/random is suitable for use when very high
111  * quality randomness is desired (for example, for key generation or
112  * one-time pads), as it will only return a maximum of the number of
113  * bits of randomness (as estimated by the random number generator)
114  * contained in the entropy pool.
115  * 
116  * The /dev/urandom device does not have this limit, and will return
117  * as many bytes as are requested.  As more and more random bytes are
118  * requested without giving time for the entropy pool to recharge,
119  * this will result in random numbers that are merely cryptographically
120  * strong.  For many applications, however, this is acceptable.
121  *
122  * Exported interfaces ---- input
123  * ==============================
124  * 
125  * The current exported interfaces for gathering environmental noise
126  * from the devices are:
127  * 
128  *      void add_keyboard_randomness(unsigned char scancode);
129  *      void add_mouse_randomness(__u32 mouse_data);
130  *      void add_interrupt_randomness(int irq);
131  * 
132  * add_keyboard_randomness() uses the inter-keypress timing, as well as the
133  * scancode as random inputs into the "entropy pool".
134  * 
135  * add_mouse_randomness() uses the mouse interrupt timing, as well as
136  * the reported position of the mouse from the hardware.
137  *
138  * add_interrupt_randomness() uses the inter-interrupt timing as random
139  * inputs to the entropy pool.  Note that not all interrupts are good
140  * sources of randomness!  For example, the timer interrupts is not a
141  * good choice, because the periodicity of the interrupts is too
142  * regular, and hence predictable to an attacker.  Disk interrupts are
143  * a better measure, since the timing of the disk interrupts are more
144  * unpredictable.
145  * 
146  * All of these routines try to estimate how many bits of randomness a
147  * particular randomness source.  They do this by keeping track of the
148  * first and second order deltas of the event timings.
149  *
150  * Ensuring unpredictability at system startup
151  * ============================================
152  * 
153  * When any operating system starts up, it will go through a sequence
154  * of actions that are fairly predictable by an adversary, especially
155  * if the start-up does not involve interaction with a human operator.
156  * This reduces the actual number of bits of unpredictability in the
157  * entropy pool below the value in entropy_count.  In order to
158  * counteract this effect, it helps to carry information in the
159  * entropy pool across shut-downs and start-ups.  To do this, put the
160  * following lines an appropriate script which is run during the boot
161  * sequence: 
162  *
163  *      echo "Initializing random number generator..."
164  *      random_seed=/var/run/random-seed
165  *      # Carry a random seed from start-up to start-up
166  *      # Load and then save the whole entropy pool
167  *      if [ -f $random_seed ]; then
168  *              cat $random_seed >/dev/urandom
169  *      else
170  *              touch $random_seed
171  *      fi
172  *      chmod 600 $random_seed
173  *      poolfile=/proc/sys/kernel/random/poolsize
174  *      [ -r $poolfile ] && bytes=`cat $poolfile` || bytes=512
175  *      dd if=/dev/urandom of=$random_seed count=1 bs=$bytes
176  *
177  * and the following lines in an appropriate script which is run as
178  * the system is shutdown:
179  *
180  *      # Carry a random seed from shut-down to start-up
181  *      # Save the whole entropy pool
182  *      echo "Saving random seed..."
183  *      random_seed=/var/run/random-seed
184  *      touch $random_seed
185  *      chmod 600 $random_seed
186  *      poolfile=/proc/sys/kernel/random/poolsize
187  *      [ -r $poolfile ] && bytes=`cat $poolfile` || bytes=512
188  *      dd if=/dev/urandom of=$random_seed count=1 bs=$bytes
189  *
190  * For example, on most modern systems using the System V init
191  * scripts, such code fragments would be found in
192  * /etc/rc.d/init.d/random.  On older Linux systems, the correct script
193  * location might be in /etc/rcb.d/rc.local or /etc/rc.d/rc.0.
194  * 
195  * Effectively, these commands cause the contents of the entropy pool
196  * to be saved at shut-down time and reloaded into the entropy pool at
197  * start-up.  (The 'dd' in the addition to the bootup script is to
198  * make sure that /etc/random-seed is different for every start-up,
199  * even if the system crashes without executing rc.0.)  Even with
200  * complete knowledge of the start-up activities, predicting the state
201  * of the entropy pool requires knowledge of the previous history of
202  * the system.
203  *
204  * Configuring the /dev/random driver under Linux
205  * ==============================================
206  *
207  * The /dev/random driver under Linux uses minor numbers 8 and 9 of
208  * the /dev/mem major number (#1).  So if your system does not have
209  * /dev/random and /dev/urandom created already, they can be created
210  * by using the commands:
211  *
212  *      mknod /dev/random c 1 8
213  *      mknod /dev/urandom c 1 9
214  * 
215  * Acknowledgements:
216  * =================
217  *
218  * Ideas for constructing this random number generator were derived
219  * from Pretty Good Privacy's random number generator, and from private
220  * discussions with Phil Karn.  Colin Plumb provided a faster random
221  * number generator, which speed up the mixing function of the entropy
222  * pool, taken from PGPfone.  Dale Worley has also contributed many
223  * useful ideas and suggestions to improve this driver.
224  * 
225  * Any flaws in the design are solely my responsibility, and should
226  * not be attributed to the Phil, Colin, or any of authors of PGP.
227  * 
228  * The code for SHA transform was taken from Peter Gutmann's
229  * implementation, which has been placed in the public domain.
230  * The code for MD5 transform was taken from Colin Plumb's
231  * implementation, which has been placed in the public domain.
232  * The MD5 cryptographic checksum was devised by Ronald Rivest, and is
233  * documented in RFC 1321, "The MD5 Message Digest Algorithm".
234  * 
235  * Further background information on this topic may be obtained from
236  * RFC 1750, "Randomness Recommendations for Security", by Donald
237  * Eastlake, Steve Crocker, and Jeff Schiller.
238  */
239
240 #include <linux/utsname.h>
241 #include <linux/config.h>
242 #include <linux/module.h>
243 #include <linux/kernel.h>
244 #include <linux/major.h>
245 #include <linux/string.h>
246 #include <linux/fcntl.h>
247 #include <linux/slab.h>
248 #include <linux/random.h>
249 #include <linux/poll.h>
250 #include <linux/init.h>
251 #include <linux/fs.h>
252 #include <linux/workqueue.h>
253 #include <linux/genhd.h>
254 #include <linux/interrupt.h>
255 #include <linux/spinlock.h>
256 #include <linux/percpu.h>
257
258 #include <asm/processor.h>
259 #include <asm/uaccess.h>
260 #include <asm/irq.h>
261 #include <asm/io.h>
262
263 /*
264  * Configuration information
265  */
266 #define DEFAULT_POOL_SIZE 512
267 #define SECONDARY_POOL_SIZE 128
268 #define BATCH_ENTROPY_SIZE 256
269 #define USE_SHA
270
271 /*
272  * The minimum number of bits of entropy before we wake up a read on
273  * /dev/random.  Should be enough to do a significant reseed.
274  */
275 static int random_read_wakeup_thresh = 64;
276
277 /*
278  * If the entropy count falls under this number of bits, then we
279  * should wake up processes which are selecting or polling on write
280  * access to /dev/random.
281  */
282 static int random_write_wakeup_thresh = 128;
283
284 /*
285  * When the input pool goes over trickle_thresh, start dropping most
286  * samples to avoid wasting CPU time and reduce lock contention.
287  */
288
289 static int trickle_thresh = DEFAULT_POOL_SIZE * 7;
290
291 static DEFINE_PER_CPU(int, trickle_count) = 0;
292
293 /*
294  * A pool of size .poolwords is stirred with a primitive polynomial
295  * of degree .poolwords over GF(2).  The taps for various sizes are
296  * defined below.  They are chosen to be evenly spaced (minimum RMS
297  * distance from evenly spaced; the numbers in the comments are a
298  * scaled squared error sum) except for the last tap, which is 1 to
299  * get the twisting happening as fast as possible.
300  */
301 static struct poolinfo {
302         int     poolwords;
303         int     tap1, tap2, tap3, tap4, tap5;
304 } poolinfo_table[] = {
305         /* x^2048 + x^1638 + x^1231 + x^819 + x^411 + x + 1  -- 115 */
306         { 2048, 1638,   1231,   819,    411,    1 },
307
308         /* x^1024 + x^817 + x^615 + x^412 + x^204 + x + 1 -- 290 */
309         { 1024, 817,    615,    412,    204,    1 },
310 #if 0                           /* Alternate polynomial */
311         /* x^1024 + x^819 + x^616 + x^410 + x^207 + x^2 + 1 -- 115 */
312         { 1024, 819,    616,    410,    207,    2 },
313 #endif
314
315         /* x^512 + x^411 + x^308 + x^208 + x^104 + x + 1 -- 225 */
316         { 512,  411,    308,    208,    104,    1 },
317 #if 0                           /* Alternates */
318         /* x^512 + x^409 + x^307 + x^206 + x^102 + x^2 + 1 -- 95 */
319         { 512,  409,    307,    206,    102,    2 },
320         /* x^512 + x^409 + x^309 + x^205 + x^103 + x^2 + 1 -- 95 */
321         { 512,  409,    309,    205,    103,    2 },
322 #endif
323
324         /* x^256 + x^205 + x^155 + x^101 + x^52 + x + 1 -- 125 */
325         { 256,  205,    155,    101,    52,     1 },
326
327         /* x^128 + x^103 + x^76 + x^51 +x^25 + x + 1 -- 105 */
328         { 128,  103,    76,     51,     25,     1 },
329 #if 0   /* Alternate polynomial */
330         /* x^128 + x^103 + x^78 + x^51 + x^27 + x^2 + 1 -- 70 */
331         { 128,  103,    78,     51,     27,     2 },
332 #endif
333
334         /* x^64 + x^52 + x^39 + x^26 + x^14 + x + 1 -- 15 */
335         { 64,   52,     39,     26,     14,     1 },
336
337         /* x^32 + x^26 + x^20 + x^14 + x^7 + x + 1 -- 15 */
338         { 32,   26,     20,     14,     7,      1 },
339
340         { 0,    0,      0,      0,      0,      0 },
341 };
342
343 #define POOLBITS        poolwords*32
344 #define POOLBYTES       poolwords*4
345
346 /*
347  * For the purposes of better mixing, we use the CRC-32 polynomial as
348  * well to make a twisted Generalized Feedback Shift Reigster
349  *
350  * (See M. Matsumoto & Y. Kurita, 1992.  Twisted GFSR generators.  ACM
351  * Transactions on Modeling and Computer Simulation 2(3):179-194.
352  * Also see M. Matsumoto & Y. Kurita, 1994.  Twisted GFSR generators
353  * II.  ACM Transactions on Mdeling and Computer Simulation 4:254-266)
354  *
355  * Thanks to Colin Plumb for suggesting this.
356  * 
357  * We have not analyzed the resultant polynomial to prove it primitive;
358  * in fact it almost certainly isn't.  Nonetheless, the irreducible factors
359  * of a random large-degree polynomial over GF(2) are more than large enough
360  * that periodicity is not a concern.
361  * 
362  * The input hash is much less sensitive than the output hash.  All
363  * that we want of it is that it be a good non-cryptographic hash;
364  * i.e. it not produce collisions when fed "random" data of the sort
365  * we expect to see.  As long as the pool state differs for different
366  * inputs, we have preserved the input entropy and done a good job.
367  * The fact that an intelligent attacker can construct inputs that
368  * will produce controlled alterations to the pool's state is not
369  * important because we don't consider such inputs to contribute any
370  * randomness.  The only property we need with respect to them is that
371  * the attacker can't increase his/her knowledge of the pool's state.
372  * Since all additions are reversible (knowing the final state and the
373  * input, you can reconstruct the initial state), if an attacker has
374  * any uncertainty about the initial state, he/she can only shuffle
375  * that uncertainty about, but never cause any collisions (which would
376  * decrease the uncertainty).
377  *
378  * The chosen system lets the state of the pool be (essentially) the input
379  * modulo the generator polymnomial.  Now, for random primitive polynomials,
380  * this is a universal class of hash functions, meaning that the chance
381  * of a collision is limited by the attacker's knowledge of the generator
382  * polynomail, so if it is chosen at random, an attacker can never force
383  * a collision.  Here, we use a fixed polynomial, but we *can* assume that
384  * ###--> it is unknown to the processes generating the input entropy. <-###
385  * Because of this important property, this is a good, collision-resistant
386  * hash; hash collisions will occur no more often than chance.
387  */
388
389 /*
390  * Linux 2.2 compatibility
391  */
392 #ifndef DECLARE_WAITQUEUE
393 #define DECLARE_WAITQUEUE(WAIT, PTR)    struct wait_queue WAIT = { PTR, NULL }
394 #endif
395 #ifndef DECLARE_WAIT_QUEUE_HEAD
396 #define DECLARE_WAIT_QUEUE_HEAD(WAIT) struct wait_queue *WAIT
397 #endif
398
399 /*
400  * Static global variables
401  */
402 static struct entropy_store *random_state; /* The default global store */
403 static struct entropy_store *sec_random_state; /* secondary store */
404 static struct entropy_store *urandom_state; /* For urandom */
405 static DECLARE_WAIT_QUEUE_HEAD(random_read_wait);
406 static DECLARE_WAIT_QUEUE_HEAD(random_write_wait);
407
408 /*
409  * Forward procedure declarations
410  */
411 #ifdef CONFIG_SYSCTL
412 static void sysctl_init_random(struct entropy_store *random_state);
413 #endif
414
415 /*****************************************************************
416  *
417  * Utility functions, with some ASM defined functions for speed
418  * purposes
419  * 
420  *****************************************************************/
421
422 /*
423  * Unfortunately, while the GCC optimizer for the i386 understands how
424  * to optimize a static rotate left of x bits, it doesn't know how to
425  * deal with a variable rotate of x bits.  So we use a bit of asm magic.
426  */
427 #if (!defined (__i386__))
428 static inline __u32 rotate_left(int i, __u32 word)
429 {
430         return (word << i) | (word >> (32 - i));
431         
432 }
433 #else
434 static inline __u32 rotate_left(int i, __u32 word)
435 {
436         __asm__("roll %%cl,%0"
437                 :"=r" (word)
438                 :"0" (word),"c" (i));
439         return word;
440 }
441 #endif
442
443 /*
444  * More asm magic....
445  * 
446  * For entropy estimation, we need to do an integral base 2
447  * logarithm.  
448  *
449  * Note the "12bits" suffix - this is used for numbers between
450  * 0 and 4095 only.  This allows a few shortcuts.
451  */
452 #if 0   /* Slow but clear version */
453 static inline __u32 int_ln_12bits(__u32 word)
454 {
455         __u32 nbits = 0;
456         
457         while (word >>= 1)
458                 nbits++;
459         return nbits;
460 }
461 #else   /* Faster (more clever) version, courtesy Colin Plumb */
462 static inline __u32 int_ln_12bits(__u32 word)
463 {
464         /* Smear msbit right to make an n-bit mask */
465         word |= word >> 8;
466         word |= word >> 4;
467         word |= word >> 2;
468         word |= word >> 1;
469         /* Remove one bit to make this a logarithm */
470         word >>= 1;
471         /* Count the bits set in the word */
472         word -= (word >> 1) & 0x555;
473         word = (word & 0x333) + ((word >> 2) & 0x333);
474         word += (word >> 4);
475         word += (word >> 8);
476         return word & 15;
477 }
478 #endif
479
480 #if 0
481 #define DEBUG_ENT(fmt, arg...) printk(KERN_DEBUG "random: " fmt, ## arg)
482 #else
483 #define DEBUG_ENT(fmt, arg...) do {} while (0)
484 #endif
485
486 /**********************************************************************
487  *
488  * OS independent entropy store.   Here are the functions which handle
489  * storing entropy in an entropy pool.
490  * 
491  **********************************************************************/
492
493 struct entropy_store {
494         /* mostly-read data: */
495         struct poolinfo poolinfo;
496         __u32           *pool;
497         const char      *name;
498
499         /* read-write data: */
500         spinlock_t lock ____cacheline_aligned_in_smp;
501         unsigned        add_ptr;
502         int             entropy_count;
503         int             input_rotate;
504 };
505
506 /*
507  * Initialize the entropy store.  The input argument is the size of
508  * the random pool.
509  *
510  * Returns an negative error if there is a problem.
511  */
512 static int create_entropy_store(int size, const char *name,
513                                 struct entropy_store **ret_bucket)
514 {
515         struct  entropy_store   *r;
516         struct  poolinfo        *p;
517         int     poolwords;
518
519         poolwords = (size + 3) / 4; /* Convert bytes->words */
520         /* The pool size must be a multiple of 16 32-bit words */
521         poolwords = ((poolwords + 15) / 16) * 16;
522
523         for (p = poolinfo_table; p->poolwords; p++) {
524                 if (poolwords == p->poolwords)
525                         break;
526         }
527         if (p->poolwords == 0)
528                 return -EINVAL;
529
530         r = kmalloc(sizeof(struct entropy_store), GFP_KERNEL);
531         if (!r)
532                 return -ENOMEM;
533
534         memset (r, 0, sizeof(struct entropy_store));
535         r->poolinfo = *p;
536
537         r->pool = kmalloc(POOLBYTES, GFP_KERNEL);
538         if (!r->pool) {
539                 kfree(r);
540                 return -ENOMEM;
541         }
542         memset(r->pool, 0, POOLBYTES);
543         r->lock = SPIN_LOCK_UNLOCKED;
544         r->name = name;
545         *ret_bucket = r;
546         return 0;
547 }
548
549 /* Clear the entropy pool and associated counters. */
550 static void clear_entropy_store(struct entropy_store *r)
551 {
552         r->add_ptr = 0;
553         r->entropy_count = 0;
554         r->input_rotate = 0;
555         memset(r->pool, 0, r->poolinfo.POOLBYTES);
556 }
557 #ifdef CONFIG_SYSCTL
558 static void free_entropy_store(struct entropy_store *r)
559 {
560         if (r->pool)
561                 kfree(r->pool);
562         kfree(r);
563 }
564 #endif
565 /*
566  * This function adds a byte into the entropy "pool".  It does not
567  * update the entropy estimate.  The caller should call
568  * credit_entropy_store if this is appropriate.
569  * 
570  * The pool is stirred with a primitive polynomial of the appropriate
571  * degree, and then twisted.  We twist by three bits at a time because
572  * it's cheap to do so and helps slightly in the expected case where
573  * the entropy is concentrated in the low-order bits.
574  */
575 static void add_entropy_words(struct entropy_store *r, const __u32 *in,
576                               int nwords)
577 {
578         static __u32 const twist_table[8] = {
579                          0, 0x3b6e20c8, 0x76dc4190, 0x4db26158,
580                 0xedb88320, 0xd6d6a3e8, 0x9b64c2b0, 0xa00ae278 };
581         unsigned long i, add_ptr, tap1, tap2, tap3, tap4, tap5;
582         int new_rotate, input_rotate;
583         int wordmask = r->poolinfo.poolwords - 1;
584         __u32 w, next_w;
585         unsigned long flags;
586
587         /* Taps are constant, so we can load them without holding r->lock.  */
588         tap1 = r->poolinfo.tap1;
589         tap2 = r->poolinfo.tap2;
590         tap3 = r->poolinfo.tap3;
591         tap4 = r->poolinfo.tap4;
592         tap5 = r->poolinfo.tap5;
593         next_w = *in++;
594
595         spin_lock_irqsave(&r->lock, flags);
596         prefetch_range(r->pool, wordmask);
597         input_rotate = r->input_rotate;
598         add_ptr = r->add_ptr;
599
600         while (nwords--) {
601                 w = rotate_left(input_rotate, next_w);
602                 if (nwords > 0)
603                         next_w = *in++;
604                 i = add_ptr = (add_ptr - 1) & wordmask;
605                 /*
606                  * Normally, we add 7 bits of rotation to the pool.
607                  * At the beginning of the pool, add an extra 7 bits
608                  * rotation, so that successive passes spread the
609                  * input bits across the pool evenly.
610                  */
611                 new_rotate = input_rotate + 14;
612                 if (i)
613                         new_rotate = input_rotate + 7;
614                 input_rotate = new_rotate & 31;
615
616                 /* XOR in the various taps */
617                 w ^= r->pool[(i + tap1) & wordmask];
618                 w ^= r->pool[(i + tap2) & wordmask];
619                 w ^= r->pool[(i + tap3) & wordmask];
620                 w ^= r->pool[(i + tap4) & wordmask];
621                 w ^= r->pool[(i + tap5) & wordmask];
622                 w ^= r->pool[i];
623                 r->pool[i] = (w >> 3) ^ twist_table[w & 7];
624         }
625
626         r->input_rotate = input_rotate;
627         r->add_ptr = add_ptr;
628
629         spin_unlock_irqrestore(&r->lock, flags);
630 }
631
632 /*
633  * Credit (or debit) the entropy store with n bits of entropy
634  */
635 static void credit_entropy_store(struct entropy_store *r, int nbits)
636 {
637         unsigned long flags;
638
639         spin_lock_irqsave(&r->lock, flags);
640
641         if (r->entropy_count + nbits < 0) {
642                 DEBUG_ENT("negative entropy/overflow (%d+%d)\n",
643                           r->entropy_count, nbits);
644                 r->entropy_count = 0;
645         } else if (r->entropy_count + nbits > r->poolinfo.POOLBITS) {
646                 r->entropy_count = r->poolinfo.POOLBITS;
647         } else {
648                 r->entropy_count += nbits;
649                 if (nbits)
650                         DEBUG_ENT("Added %d entropy credits to %s, now %d\n",
651                                   nbits, r->name, r->entropy_count);
652         }
653
654         spin_unlock_irqrestore(&r->lock, flags);
655 }
656
657 /**********************************************************************
658  *
659  * Entropy batch input management
660  *
661  * We batch entropy to be added to avoid increasing interrupt latency
662  *
663  **********************************************************************/
664
665 struct sample {
666         __u32 data[2];
667         int credit;
668 };
669
670 static struct sample *batch_entropy_pool, *batch_entropy_copy;
671 static int      batch_head, batch_tail;
672 static spinlock_t batch_lock = SPIN_LOCK_UNLOCKED;
673
674 static int      batch_max;
675 static void batch_entropy_process(void *private_);
676 static DECLARE_WORK(batch_work, batch_entropy_process, NULL);
677
678 /* note: the size must be a power of 2 */
679 static int __init batch_entropy_init(int size, struct entropy_store *r)
680 {
681         batch_entropy_pool = kmalloc(size*sizeof(struct sample), GFP_KERNEL);
682         if (!batch_entropy_pool)
683                 return -1;
684         batch_entropy_copy = kmalloc(size*sizeof(struct sample), GFP_KERNEL);
685         if (!batch_entropy_copy) {
686                 kfree(batch_entropy_pool);
687                 return -1;
688         }
689         batch_head = batch_tail = 0;
690         batch_work.data = r;
691         batch_max = size;
692         return 0;
693 }
694
695 /*
696  * Changes to the entropy data is put into a queue rather than being added to
697  * the entropy counts directly.  This is presumably to avoid doing heavy
698  * hashing calculations during an interrupt in add_timer_randomness().
699  * Instead, the entropy is only added to the pool by keventd.
700  */
701 void batch_entropy_store(u32 a, u32 b, int num)
702 {
703         int new;
704         unsigned long flags;
705
706         if (!batch_max)
707                 return;
708
709         spin_lock_irqsave(&batch_lock, flags);
710
711         batch_entropy_pool[batch_head].data[0] = a;
712         batch_entropy_pool[batch_head].data[1] = b;
713         batch_entropy_pool[batch_head].credit = num;
714
715         if (((batch_head - batch_tail) & (batch_max-1)) >= (batch_max / 2)) {
716                 /*
717                  * Schedule it for the next timer tick:
718                  */
719                 schedule_delayed_work(&batch_work, 1);
720         }
721
722         new = (batch_head+1) & (batch_max-1);
723         if (new == batch_tail) {
724                 DEBUG_ENT("batch entropy buffer full\n");
725         } else {
726                 batch_head = new;
727         }
728
729         spin_unlock_irqrestore(&batch_lock, flags);
730 }
731
732 EXPORT_SYMBOL(batch_entropy_store);
733
734 /*
735  * Flush out the accumulated entropy operations, adding entropy to the passed
736  * store (normally random_state).  If that store has enough entropy, alternate
737  * between randomizing the data of the primary and secondary stores.
738  */
739 static void batch_entropy_process(void *private_)
740 {
741         struct entropy_store *r = (struct entropy_store *) private_, *p;
742         int max_entropy = r->poolinfo.POOLBITS;
743         unsigned head, tail;
744
745         /* Mixing into the pool is expensive, so copy over the batch
746          * data and release the batch lock. The pool is at least half
747          * full, so don't worry too much about copying only the used
748          * part.
749          */
750         spin_lock_irq(&batch_lock);
751
752         memcpy(batch_entropy_copy, batch_entropy_pool,
753                batch_max*sizeof(struct sample));
754
755         head = batch_head;
756         tail = batch_tail;
757         batch_tail = batch_head;
758
759         spin_unlock_irq(&batch_lock);
760
761         p = r;
762         while (head != tail) {
763                 if (r->entropy_count >= max_entropy) {
764                         r = (r == sec_random_state) ?   random_state :
765                                                         sec_random_state;
766                         max_entropy = r->poolinfo.POOLBITS;
767                 }
768                 add_entropy_words(r, batch_entropy_copy[tail].data, 2);
769                 credit_entropy_store(r, batch_entropy_copy[tail].credit);
770                 tail = (tail+1) & (batch_max-1);
771         }
772         if (p->entropy_count >= random_read_wakeup_thresh)
773                 wake_up_interruptible(&random_read_wait);
774 }
775
776 /*********************************************************************
777  *
778  * Entropy input management
779  *
780  *********************************************************************/
781
782 /* There is one of these per entropy source */
783 struct timer_rand_state {
784         cycles_t        last_time;
785         long            last_delta,last_delta2;
786         unsigned        dont_count_entropy:1;
787 };
788
789 static struct timer_rand_state keyboard_timer_state;
790 static struct timer_rand_state mouse_timer_state;
791 static struct timer_rand_state extract_timer_state;
792 static struct timer_rand_state *irq_timer_state[NR_IRQS];
793
794 /*
795  * This function adds entropy to the entropy "pool" by using timing
796  * delays.  It uses the timer_rand_state structure to make an estimate
797  * of how many bits of entropy this call has added to the pool.
798  *
799  * The number "num" is also added to the pool - it should somehow describe
800  * the type of event which just happened.  This is currently 0-255 for
801  * keyboard scan codes, and 256 upwards for interrupts.
802  *
803  */
804 static void add_timer_randomness(struct timer_rand_state *state, unsigned num)
805 {
806         cycles_t        time;
807         long            delta, delta2, delta3;
808         int             entropy = 0;
809
810         preempt_disable();
811         /* if over the trickle threshold, use only 1 in 4096 samples */
812         if ( random_state->entropy_count > trickle_thresh &&
813              (__get_cpu_var(trickle_count)++ & 0xfff))
814                 goto out;
815
816         /*
817          * Use get_cycles() if implemented, otherwise fall back to
818          * jiffies.
819          */
820         time = get_cycles();
821         if (time != 0) {
822                 if (sizeof(time) > 4)
823                         num ^= (u32)(time >> 32);
824         } else {
825                 time = jiffies;
826         }
827
828         /*
829          * Calculate number of bits of randomness we probably added.
830          * We take into account the first, second and third-order deltas
831          * in order to make our estimate.
832          */
833         if (!state->dont_count_entropy) {
834                 delta = time - state->last_time;
835                 state->last_time = time;
836
837                 delta2 = delta - state->last_delta;
838                 state->last_delta = delta;
839
840                 delta3 = delta2 - state->last_delta2;
841                 state->last_delta2 = delta2;
842
843                 if (delta < 0)
844                         delta = -delta;
845                 if (delta2 < 0)
846                         delta2 = -delta2;
847                 if (delta3 < 0)
848                         delta3 = -delta3;
849                 if (delta > delta2)
850                         delta = delta2;
851                 if (delta > delta3)
852                         delta = delta3;
853
854                 /*
855                  * delta is now minimum absolute delta.
856                  * Round down by 1 bit on general principles,
857                  * and limit entropy entimate to 12 bits.
858                  */
859                 delta >>= 1;
860                 delta &= (1 << 12) - 1;
861
862                 entropy = int_ln_12bits(delta);
863         }
864         batch_entropy_store(num, time, entropy);
865 out:
866         preempt_enable();
867 }
868
869 void add_keyboard_randomness(unsigned char scancode)
870 {
871         static unsigned char last_scancode;
872         /* ignore autorepeat (multiple key down w/o key up) */
873         if (scancode != last_scancode) {
874                 last_scancode = scancode;
875                 add_timer_randomness(&keyboard_timer_state, scancode);
876         }
877 }
878
879 EXPORT_SYMBOL(add_keyboard_randomness);
880
881 void add_mouse_randomness(__u32 mouse_data)
882 {
883         add_timer_randomness(&mouse_timer_state, mouse_data);
884 }
885
886 EXPORT_SYMBOL(add_mouse_randomness);
887
888 void add_interrupt_randomness(int irq)
889 {
890         if (irq >= NR_IRQS || irq_timer_state[irq] == 0)
891                 return;
892
893         add_timer_randomness(irq_timer_state[irq], 0x100+irq);
894 }
895
896 EXPORT_SYMBOL(add_interrupt_randomness);
897
898 void add_disk_randomness(struct gendisk *disk)
899 {
900         if (!disk || !disk->random)
901                 return;
902         /* first major is 1, so we get >= 0x200 here */
903         add_timer_randomness(disk->random, 0x100+MKDEV(disk->major, disk->first_minor));
904 }
905
906 EXPORT_SYMBOL(add_disk_randomness);
907
908 /******************************************************************
909  *
910  * Hash function definition
911  *
912  *******************************************************************/
913
914 /*
915  * This chunk of code defines a function
916  * void HASH_TRANSFORM(__u32 digest[HASH_BUFFER_SIZE + HASH_EXTRA_SIZE],
917  *              __u32 const data[16])
918  * 
919  * The function hashes the input data to produce a digest in the first
920  * HASH_BUFFER_SIZE words of the digest[] array, and uses HASH_EXTRA_SIZE
921  * more words for internal purposes.  (This buffer is exported so the
922  * caller can wipe it once rather than this code doing it each call,
923  * and tacking it onto the end of the digest[] array is the quick and
924  * dirty way of doing it.)
925  *
926  * It so happens that MD5 and SHA share most of the initial vector
927  * used to initialize the digest[] array before the first call:
928  * 1) 0x67452301
929  * 2) 0xefcdab89
930  * 3) 0x98badcfe
931  * 4) 0x10325476
932  * 5) 0xc3d2e1f0 (SHA only)
933  * 
934  * For /dev/random purposes, the length of the data being hashed is
935  * fixed in length, so appending a bit count in the usual way is not
936  * cryptographically necessary.
937  */
938
939 #ifdef USE_SHA
940
941 #define HASH_BUFFER_SIZE 5
942 #define HASH_EXTRA_SIZE 80
943 #define HASH_TRANSFORM SHATransform
944
945 /* Various size/speed tradeoffs are available.  Choose 0..3. */
946 #define SHA_CODE_SIZE 0
947
948 /*
949  * SHA transform algorithm, taken from code written by Peter Gutmann,
950  * and placed in the public domain.
951  */
952
953 /* The SHA f()-functions.  */
954
955 #define f1(x,y,z)   ( z ^ (x & (y^z)) )         /* Rounds  0-19: x ? y : z */
956 #define f2(x,y,z)   (x ^ y ^ z)                 /* Rounds 20-39: XOR */
957 #define f3(x,y,z)   ( (x & y) + (z & (x ^ y)) ) /* Rounds 40-59: majority */
958 #define f4(x,y,z)   (x ^ y ^ z)                 /* Rounds 60-79: XOR */
959
960 /* The SHA Mysterious Constants */
961
962 #define K1  0x5A827999L                 /* Rounds  0-19: sqrt(2) * 2^30 */
963 #define K2  0x6ED9EBA1L                 /* Rounds 20-39: sqrt(3) * 2^30 */
964 #define K3  0x8F1BBCDCL                 /* Rounds 40-59: sqrt(5) * 2^30 */
965 #define K4  0xCA62C1D6L                 /* Rounds 60-79: sqrt(10) * 2^30 */
966
967 #define ROTL(n,X)  ( ( ( X ) << n ) | ( ( X ) >> ( 32 - n ) ) )
968
969 #define subRound(a, b, c, d, e, f, k, data) \
970     ( e += ROTL( 5, a ) + f( b, c, d ) + k + data, b = ROTL( 30, b ) )
971
972
973 static void SHATransform(__u32 digest[85], __u32 const data[16])
974 {
975     __u32 A, B, C, D, E;     /* Local vars */
976     __u32 TEMP;
977     int i;
978 #define W (digest + HASH_BUFFER_SIZE)   /* Expanded data array */
979
980     /*
981      * Do the preliminary expansion of 16 to 80 words.  Doing it
982      * out-of-line line this is faster than doing it in-line on
983      * register-starved machines like the x86, and not really any
984      * slower on real processors.
985      */
986     memcpy(W, data, 16*sizeof(__u32));
987     for (i = 0; i < 64; i++) {
988             TEMP = W[i] ^ W[i+2] ^ W[i+8] ^ W[i+13];
989             W[i+16] = ROTL(1, TEMP);
990     }
991
992     /* Set up first buffer and local data buffer */
993     A = digest[ 0 ];
994     B = digest[ 1 ];
995     C = digest[ 2 ];
996     D = digest[ 3 ];
997     E = digest[ 4 ];
998
999     /* Heavy mangling, in 4 sub-rounds of 20 iterations each. */
1000 #if SHA_CODE_SIZE == 0
1001     /*
1002      * Approximately 50% of the speed of the largest version, but
1003      * takes up 1/16 the space.  Saves about 6k on an i386 kernel.
1004      */
1005     for (i = 0; i < 80; i++) {
1006         if (i < 40) {
1007             if (i < 20)
1008                 TEMP = f1(B, C, D) + K1;
1009             else
1010                 TEMP = f2(B, C, D) + K2;
1011         } else {
1012             if (i < 60)
1013                 TEMP = f3(B, C, D) + K3;
1014             else
1015                 TEMP = f4(B, C, D) + K4;
1016         }
1017         TEMP += ROTL(5, A) + E + W[i];
1018         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1019     }
1020 #elif SHA_CODE_SIZE == 1
1021     for (i = 0; i < 20; i++) {
1022         TEMP = f1(B, C, D) + K1 + ROTL(5, A) + E + W[i];
1023         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1024     }
1025     for (; i < 40; i++) {
1026         TEMP = f2(B, C, D) + K2 + ROTL(5, A) + E + W[i];
1027         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1028     }
1029     for (; i < 60; i++) {
1030         TEMP = f3(B, C, D) + K3 + ROTL(5, A) + E + W[i];
1031         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1032     }
1033     for (; i < 80; i++) {
1034         TEMP = f4(B, C, D) + K4 + ROTL(5, A) + E + W[i];
1035         E = D; D = C; C = ROTL(30, B); B = A; A = TEMP;
1036     }
1037 #elif SHA_CODE_SIZE == 2
1038     for (i = 0; i < 20; i += 5) {
1039         subRound( A, B, C, D, E, f1, K1, W[ i   ] );
1040         subRound( E, A, B, C, D, f1, K1, W[ i+1 ] );
1041         subRound( D, E, A, B, C, f1, K1, W[ i+2 ] );
1042         subRound( C, D, E, A, B, f1, K1, W[ i+3 ] );
1043         subRound( B, C, D, E, A, f1, K1, W[ i+4 ] );
1044     }
1045     for (; i < 40; i += 5) {
1046         subRound( A, B, C, D, E, f2, K2, W[ i   ] );
1047         subRound( E, A, B, C, D, f2, K2, W[ i+1 ] );
1048         subRound( D, E, A, B, C, f2, K2, W[ i+2 ] );
1049         subRound( C, D, E, A, B, f2, K2, W[ i+3 ] );
1050         subRound( B, C, D, E, A, f2, K2, W[ i+4 ] );
1051     }
1052     for (; i < 60; i += 5) {
1053         subRound( A, B, C, D, E, f3, K3, W[ i   ] );
1054         subRound( E, A, B, C, D, f3, K3, W[ i+1 ] );
1055         subRound( D, E, A, B, C, f3, K3, W[ i+2 ] );
1056         subRound( C, D, E, A, B, f3, K3, W[ i+3 ] );
1057         subRound( B, C, D, E, A, f3, K3, W[ i+4 ] );
1058     }
1059     for (; i < 80; i += 5) {
1060         subRound( A, B, C, D, E, f4, K4, W[ i   ] );
1061         subRound( E, A, B, C, D, f4, K4, W[ i+1 ] );
1062         subRound( D, E, A, B, C, f4, K4, W[ i+2 ] );
1063         subRound( C, D, E, A, B, f4, K4, W[ i+3 ] );
1064         subRound( B, C, D, E, A, f4, K4, W[ i+4 ] );
1065     }
1066 #elif SHA_CODE_SIZE == 3 /* Really large version */
1067     subRound( A, B, C, D, E, f1, K1, W[  0 ] );
1068     subRound( E, A, B, C, D, f1, K1, W[  1 ] );
1069     subRound( D, E, A, B, C, f1, K1, W[  2 ] );
1070     subRound( C, D, E, A, B, f1, K1, W[  3 ] );
1071     subRound( B, C, D, E, A, f1, K1, W[  4 ] );
1072     subRound( A, B, C, D, E, f1, K1, W[  5 ] );
1073     subRound( E, A, B, C, D, f1, K1, W[  6 ] );
1074     subRound( D, E, A, B, C, f1, K1, W[  7 ] );
1075     subRound( C, D, E, A, B, f1, K1, W[  8 ] );
1076     subRound( B, C, D, E, A, f1, K1, W[  9 ] );
1077     subRound( A, B, C, D, E, f1, K1, W[ 10 ] );
1078     subRound( E, A, B, C, D, f1, K1, W[ 11 ] );
1079     subRound( D, E, A, B, C, f1, K1, W[ 12 ] );
1080     subRound( C, D, E, A, B, f1, K1, W[ 13 ] );
1081     subRound( B, C, D, E, A, f1, K1, W[ 14 ] );
1082     subRound( A, B, C, D, E, f1, K1, W[ 15 ] );
1083     subRound( E, A, B, C, D, f1, K1, W[ 16 ] );
1084     subRound( D, E, A, B, C, f1, K1, W[ 17 ] );
1085     subRound( C, D, E, A, B, f1, K1, W[ 18 ] );
1086     subRound( B, C, D, E, A, f1, K1, W[ 19 ] );
1087
1088     subRound( A, B, C, D, E, f2, K2, W[ 20 ] );
1089     subRound( E, A, B, C, D, f2, K2, W[ 21 ] );
1090     subRound( D, E, A, B, C, f2, K2, W[ 22 ] );
1091     subRound( C, D, E, A, B, f2, K2, W[ 23 ] );
1092     subRound( B, C, D, E, A, f2, K2, W[ 24 ] );
1093     subRound( A, B, C, D, E, f2, K2, W[ 25 ] );
1094     subRound( E, A, B, C, D, f2, K2, W[ 26 ] );
1095     subRound( D, E, A, B, C, f2, K2, W[ 27 ] );
1096     subRound( C, D, E, A, B, f2, K2, W[ 28 ] );
1097     subRound( B, C, D, E, A, f2, K2, W[ 29 ] );
1098     subRound( A, B, C, D, E, f2, K2, W[ 30 ] );
1099     subRound( E, A, B, C, D, f2, K2, W[ 31 ] );
1100     subRound( D, E, A, B, C, f2, K2, W[ 32 ] );
1101     subRound( C, D, E, A, B, f2, K2, W[ 33 ] );
1102     subRound( B, C, D, E, A, f2, K2, W[ 34 ] );
1103     subRound( A, B, C, D, E, f2, K2, W[ 35 ] );
1104     subRound( E, A, B, C, D, f2, K2, W[ 36 ] );
1105     subRound( D, E, A, B, C, f2, K2, W[ 37 ] );
1106     subRound( C, D, E, A, B, f2, K2, W[ 38 ] );
1107     subRound( B, C, D, E, A, f2, K2, W[ 39 ] );
1108     
1109     subRound( A, B, C, D, E, f3, K3, W[ 40 ] );
1110     subRound( E, A, B, C, D, f3, K3, W[ 41 ] );
1111     subRound( D, E, A, B, C, f3, K3, W[ 42 ] );
1112     subRound( C, D, E, A, B, f3, K3, W[ 43 ] );
1113     subRound( B, C, D, E, A, f3, K3, W[ 44 ] );
1114     subRound( A, B, C, D, E, f3, K3, W[ 45 ] );
1115     subRound( E, A, B, C, D, f3, K3, W[ 46 ] );
1116     subRound( D, E, A, B, C, f3, K3, W[ 47 ] );
1117     subRound( C, D, E, A, B, f3, K3, W[ 48 ] );
1118     subRound( B, C, D, E, A, f3, K3, W[ 49 ] );
1119     subRound( A, B, C, D, E, f3, K3, W[ 50 ] );
1120     subRound( E, A, B, C, D, f3, K3, W[ 51 ] );
1121     subRound( D, E, A, B, C, f3, K3, W[ 52 ] );
1122     subRound( C, D, E, A, B, f3, K3, W[ 53 ] );
1123     subRound( B, C, D, E, A, f3, K3, W[ 54 ] );
1124     subRound( A, B, C, D, E, f3, K3, W[ 55 ] );
1125     subRound( E, A, B, C, D, f3, K3, W[ 56 ] );
1126     subRound( D, E, A, B, C, f3, K3, W[ 57 ] );
1127     subRound( C, D, E, A, B, f3, K3, W[ 58 ] );
1128     subRound( B, C, D, E, A, f3, K3, W[ 59 ] );
1129
1130     subRound( A, B, C, D, E, f4, K4, W[ 60 ] );
1131     subRound( E, A, B, C, D, f4, K4, W[ 61 ] );
1132     subRound( D, E, A, B, C, f4, K4, W[ 62 ] );
1133     subRound( C, D, E, A, B, f4, K4, W[ 63 ] );
1134     subRound( B, C, D, E, A, f4, K4, W[ 64 ] );
1135     subRound( A, B, C, D, E, f4, K4, W[ 65 ] );
1136     subRound( E, A, B, C, D, f4, K4, W[ 66 ] );
1137     subRound( D, E, A, B, C, f4, K4, W[ 67 ] );
1138     subRound( C, D, E, A, B, f4, K4, W[ 68 ] );
1139     subRound( B, C, D, E, A, f4, K4, W[ 69 ] );
1140     subRound( A, B, C, D, E, f4, K4, W[ 70 ] );
1141     subRound( E, A, B, C, D, f4, K4, W[ 71 ] );
1142     subRound( D, E, A, B, C, f4, K4, W[ 72 ] );
1143     subRound( C, D, E, A, B, f4, K4, W[ 73 ] );
1144     subRound( B, C, D, E, A, f4, K4, W[ 74 ] );
1145     subRound( A, B, C, D, E, f4, K4, W[ 75 ] );
1146     subRound( E, A, B, C, D, f4, K4, W[ 76 ] );
1147     subRound( D, E, A, B, C, f4, K4, W[ 77 ] );
1148     subRound( C, D, E, A, B, f4, K4, W[ 78 ] );
1149     subRound( B, C, D, E, A, f4, K4, W[ 79 ] );
1150 #else
1151 #error Illegal SHA_CODE_SIZE
1152 #endif
1153
1154     /* Build message digest */
1155     digest[ 0 ] += A;
1156     digest[ 1 ] += B;
1157     digest[ 2 ] += C;
1158     digest[ 3 ] += D;
1159     digest[ 4 ] += E;
1160
1161         /* W is wiped by the caller */
1162 #undef W
1163 }
1164
1165 #undef ROTL
1166 #undef f1
1167 #undef f2
1168 #undef f3
1169 #undef f4
1170 #undef K1       
1171 #undef K2
1172 #undef K3       
1173 #undef K4       
1174 #undef subRound
1175         
1176 #else /* !USE_SHA - Use MD5 */
1177
1178 #define HASH_BUFFER_SIZE 4
1179 #define HASH_EXTRA_SIZE 0
1180 #define HASH_TRANSFORM MD5Transform
1181         
1182 /*
1183  * MD5 transform algorithm, taken from code written by Colin Plumb,
1184  * and put into the public domain
1185  */
1186
1187 /* The four core functions - F1 is optimized somewhat */
1188
1189 /* #define F1(x, y, z) (x & y | ~x & z) */
1190 #define F1(x, y, z) (z ^ (x & (y ^ z)))
1191 #define F2(x, y, z) F1(z, x, y)
1192 #define F3(x, y, z) (x ^ y ^ z)
1193 #define F4(x, y, z) (y ^ (x | ~z))
1194
1195 /* This is the central step in the MD5 algorithm. */
1196 #define MD5STEP(f, w, x, y, z, data, s) \
1197         ( w += f(x, y, z) + data,  w = w<<s | w>>(32-s),  w += x )
1198
1199 /*
1200  * The core of the MD5 algorithm, this alters an existing MD5 hash to
1201  * reflect the addition of 16 longwords of new data.  MD5Update blocks
1202  * the data and converts bytes into longwords for this routine.
1203  */
1204 static void MD5Transform(__u32 buf[HASH_BUFFER_SIZE], __u32 const in[16])
1205 {
1206         __u32 a, b, c, d;
1207
1208         a = buf[0];
1209         b = buf[1];
1210         c = buf[2];
1211         d = buf[3];
1212
1213         MD5STEP(F1, a, b, c, d, in[ 0]+0xd76aa478,  7);
1214         MD5STEP(F1, d, a, b, c, in[ 1]+0xe8c7b756, 12);
1215         MD5STEP(F1, c, d, a, b, in[ 2]+0x242070db, 17);
1216         MD5STEP(F1, b, c, d, a, in[ 3]+0xc1bdceee, 22);
1217         MD5STEP(F1, a, b, c, d, in[ 4]+0xf57c0faf,  7);
1218         MD5STEP(F1, d, a, b, c, in[ 5]+0x4787c62a, 12);
1219         MD5STEP(F1, c, d, a, b, in[ 6]+0xa8304613, 17);
1220         MD5STEP(F1, b, c, d, a, in[ 7]+0xfd469501, 22);
1221         MD5STEP(F1, a, b, c, d, in[ 8]+0x698098d8,  7);
1222         MD5STEP(F1, d, a, b, c, in[ 9]+0x8b44f7af, 12);
1223         MD5STEP(F1, c, d, a, b, in[10]+0xffff5bb1, 17);
1224         MD5STEP(F1, b, c, d, a, in[11]+0x895cd7be, 22);
1225         MD5STEP(F1, a, b, c, d, in[12]+0x6b901122,  7);
1226         MD5STEP(F1, d, a, b, c, in[13]+0xfd987193, 12);
1227         MD5STEP(F1, c, d, a, b, in[14]+0xa679438e, 17);
1228         MD5STEP(F1, b, c, d, a, in[15]+0x49b40821, 22);
1229
1230         MD5STEP(F2, a, b, c, d, in[ 1]+0xf61e2562,  5);
1231         MD5STEP(F2, d, a, b, c, in[ 6]+0xc040b340,  9);
1232         MD5STEP(F2, c, d, a, b, in[11]+0x265e5a51, 14);
1233         MD5STEP(F2, b, c, d, a, in[ 0]+0xe9b6c7aa, 20);
1234         MD5STEP(F2, a, b, c, d, in[ 5]+0xd62f105d,  5);
1235         MD5STEP(F2, d, a, b, c, in[10]+0x02441453,  9);
1236         MD5STEP(F2, c, d, a, b, in[15]+0xd8a1e681, 14);
1237         MD5STEP(F2, b, c, d, a, in[ 4]+0xe7d3fbc8, 20);
1238         MD5STEP(F2, a, b, c, d, in[ 9]+0x21e1cde6,  5);
1239         MD5STEP(F2, d, a, b, c, in[14]+0xc33707d6,  9);
1240         MD5STEP(F2, c, d, a, b, in[ 3]+0xf4d50d87, 14);
1241         MD5STEP(F2, b, c, d, a, in[ 8]+0x455a14ed, 20);
1242         MD5STEP(F2, a, b, c, d, in[13]+0xa9e3e905,  5);
1243         MD5STEP(F2, d, a, b, c, in[ 2]+0xfcefa3f8,  9);
1244         MD5STEP(F2, c, d, a, b, in[ 7]+0x676f02d9, 14);
1245         MD5STEP(F2, b, c, d, a, in[12]+0x8d2a4c8a, 20);
1246
1247         MD5STEP(F3, a, b, c, d, in[ 5]+0xfffa3942,  4);
1248         MD5STEP(F3, d, a, b, c, in[ 8]+0x8771f681, 11);
1249         MD5STEP(F3, c, d, a, b, in[11]+0x6d9d6122, 16);
1250         MD5STEP(F3, b, c, d, a, in[14]+0xfde5380c, 23);
1251         MD5STEP(F3, a, b, c, d, in[ 1]+0xa4beea44,  4);
1252         MD5STEP(F3, d, a, b, c, in[ 4]+0x4bdecfa9, 11);
1253         MD5STEP(F3, c, d, a, b, in[ 7]+0xf6bb4b60, 16);
1254         MD5STEP(F3, b, c, d, a, in[10]+0xbebfbc70, 23);
1255         MD5STEP(F3, a, b, c, d, in[13]+0x289b7ec6,  4);
1256         MD5STEP(F3, d, a, b, c, in[ 0]+0xeaa127fa, 11);
1257         MD5STEP(F3, c, d, a, b, in[ 3]+0xd4ef3085, 16);
1258         MD5STEP(F3, b, c, d, a, in[ 6]+0x04881d05, 23);
1259         MD5STEP(F3, a, b, c, d, in[ 9]+0xd9d4d039,  4);
1260         MD5STEP(F3, d, a, b, c, in[12]+0xe6db99e5, 11);
1261         MD5STEP(F3, c, d, a, b, in[15]+0x1fa27cf8, 16);
1262         MD5STEP(F3, b, c, d, a, in[ 2]+0xc4ac5665, 23);
1263
1264         MD5STEP(F4, a, b, c, d, in[ 0]+0xf4292244,  6);
1265         MD5STEP(F4, d, a, b, c, in[ 7]+0x432aff97, 10);
1266         MD5STEP(F4, c, d, a, b, in[14]+0xab9423a7, 15);
1267         MD5STEP(F4, b, c, d, a, in[ 5]+0xfc93a039, 21);
1268         MD5STEP(F4, a, b, c, d, in[12]+0x655b59c3,  6);
1269         MD5STEP(F4, d, a, b, c, in[ 3]+0x8f0ccc92, 10);
1270         MD5STEP(F4, c, d, a, b, in[10]+0xffeff47d, 15);
1271         MD5STEP(F4, b, c, d, a, in[ 1]+0x85845dd1, 21);
1272         MD5STEP(F4, a, b, c, d, in[ 8]+0x6fa87e4f,  6);
1273         MD5STEP(F4, d, a, b, c, in[15]+0xfe2ce6e0, 10);
1274         MD5STEP(F4, c, d, a, b, in[ 6]+0xa3014314, 15);
1275         MD5STEP(F4, b, c, d, a, in[13]+0x4e0811a1, 21);
1276         MD5STEP(F4, a, b, c, d, in[ 4]+0xf7537e82,  6);
1277         MD5STEP(F4, d, a, b, c, in[11]+0xbd3af235, 10);
1278         MD5STEP(F4, c, d, a, b, in[ 2]+0x2ad7d2bb, 15);
1279         MD5STEP(F4, b, c, d, a, in[ 9]+0xeb86d391, 21);
1280
1281         buf[0] += a;
1282         buf[1] += b;
1283         buf[2] += c;
1284         buf[3] += d;
1285 }
1286
1287 #undef F1
1288 #undef F2
1289 #undef F3
1290 #undef F4
1291 #undef MD5STEP
1292
1293 #endif /* !USE_SHA */
1294
1295 /*********************************************************************
1296  *
1297  * Entropy extraction routines
1298  *
1299  *********************************************************************/
1300
1301 #define EXTRACT_ENTROPY_USER            1
1302 #define EXTRACT_ENTROPY_SECONDARY       2
1303 #define EXTRACT_ENTROPY_LIMIT           4
1304 #define TMP_BUF_SIZE                    (HASH_BUFFER_SIZE + HASH_EXTRA_SIZE)
1305 #define SEC_XFER_SIZE                   (TMP_BUF_SIZE*4)
1306
1307 static ssize_t extract_entropy(struct entropy_store *r, void * buf,
1308                                size_t nbytes, int flags);
1309
1310 /*
1311  * This utility inline function is responsible for transfering entropy
1312  * from the primary pool to the secondary extraction pool. We make
1313  * sure we pull enough for a 'catastrophic reseed'.
1314  */
1315 static inline void xfer_secondary_pool(struct entropy_store *r,
1316                                        size_t nbytes, __u32 *tmp)
1317 {
1318         if (r->entropy_count < nbytes * 8 &&
1319             r->entropy_count < r->poolinfo.POOLBITS) {
1320                 int bytes = max_t(int, random_read_wakeup_thresh / 8,
1321                                 min_t(int, nbytes, TMP_BUF_SIZE));
1322
1323                 DEBUG_ENT("%04d %04d : going to reseed %s with %d bits "
1324                           "(%d of %d requested)\n",
1325                           random_state->entropy_count,
1326                           sec_random_state->entropy_count,
1327                           r->name, bytes * 8, nbytes * 8, r->entropy_count);
1328
1329                 bytes=extract_entropy(random_state, tmp, bytes,
1330                                       EXTRACT_ENTROPY_LIMIT);
1331                 add_entropy_words(r, tmp, bytes);
1332                 credit_entropy_store(r, bytes*8);
1333         }
1334 }
1335
1336 /*
1337  * This function extracts randomness from the "entropy pool", and
1338  * returns it in a buffer.  This function computes how many remaining
1339  * bits of entropy are left in the pool, but it does not restrict the
1340  * number of bytes that are actually obtained.  If the EXTRACT_ENTROPY_USER
1341  * flag is given, then the buf pointer is assumed to be in user space.
1342  *
1343  * If the EXTRACT_ENTROPY_SECONDARY flag is given, then we are actually
1344  * extracting entropy from the secondary pool, and can refill from the
1345  * primary pool if needed.
1346  *
1347  * Note: extract_entropy() assumes that .poolwords is a multiple of 16 words.
1348  */
1349 static ssize_t extract_entropy(struct entropy_store *r, void * buf,
1350                                size_t nbytes, int flags)
1351 {
1352         ssize_t ret, i;
1353         __u32 tmp[TMP_BUF_SIZE];
1354         __u32 x;
1355         unsigned long cpuflags;
1356
1357
1358         /* Redundant, but just in case... */
1359         if (r->entropy_count > r->poolinfo.POOLBITS)
1360                 r->entropy_count = r->poolinfo.POOLBITS;
1361
1362         if (flags & EXTRACT_ENTROPY_SECONDARY)
1363                 xfer_secondary_pool(r, nbytes, tmp);
1364
1365         /* Hold lock while accounting */
1366         spin_lock_irqsave(&r->lock, cpuflags);
1367
1368         DEBUG_ENT("%04d %04d : trying to extract %d bits from %s\n",
1369                   random_state->entropy_count,
1370                   sec_random_state->entropy_count,
1371                   nbytes * 8, r->name);
1372
1373         if (flags & EXTRACT_ENTROPY_LIMIT && nbytes >= r->entropy_count / 8)
1374                 nbytes = r->entropy_count / 8;
1375
1376         if (r->entropy_count / 8 >= nbytes)
1377                 r->entropy_count -= nbytes*8;
1378         else
1379                 r->entropy_count = 0;
1380
1381         if (r->entropy_count < random_write_wakeup_thresh)
1382                 wake_up_interruptible(&random_write_wait);
1383
1384         DEBUG_ENT("Debiting %d entropy credits from %s%s\n",
1385                   nbytes * 8, r->name,
1386                   flags & EXTRACT_ENTROPY_LIMIT ? "" : " (unlimited)");
1387
1388         spin_unlock_irqrestore(&r->lock, cpuflags);
1389
1390         ret = 0;
1391         while (nbytes) {
1392                 /*
1393                  * Check if we need to break out or reschedule....
1394                  */
1395                 if ((flags & EXTRACT_ENTROPY_USER) && need_resched()) {
1396                         if (signal_pending(current)) {
1397                                 if (ret == 0)
1398                                         ret = -ERESTARTSYS;
1399                                 break;
1400                         }
1401
1402                         DEBUG_ENT("%04d %04d : extract feeling sleepy (%d bytes left)\n",
1403                                   random_state->entropy_count,
1404                                   sec_random_state->entropy_count, nbytes);
1405
1406                         schedule();
1407
1408                         DEBUG_ENT("%04d %04d : extract woke up\n",
1409                                   random_state->entropy_count,
1410                                   sec_random_state->entropy_count);
1411                 }
1412
1413                 /* Hash the pool to get the output */
1414                 tmp[0] = 0x67452301;
1415                 tmp[1] = 0xefcdab89;
1416                 tmp[2] = 0x98badcfe;
1417                 tmp[3] = 0x10325476;
1418 #ifdef USE_SHA
1419                 tmp[4] = 0xc3d2e1f0;
1420 #endif
1421                 /*
1422                  * As we hash the pool, we mix intermediate values of
1423                  * the hash back into the pool.  This eliminates
1424                  * backtracking attacks (where the attacker knows
1425                  * the state of the pool plus the current outputs, and
1426                  * attempts to find previous ouputs), unless the hash
1427                  * function can be inverted.
1428                  */
1429                 for (i = 0, x = 0; i < r->poolinfo.poolwords; i += 16, x+=2) {
1430                         HASH_TRANSFORM(tmp, r->pool+i);
1431                         add_entropy_words(r, &tmp[x%HASH_BUFFER_SIZE], 1);
1432                 }
1433                 
1434                 /*
1435                  * In case the hash function has some recognizable
1436                  * output pattern, we fold it in half.
1437                  */
1438                 for (i = 0; i <  HASH_BUFFER_SIZE/2; i++)
1439                         tmp[i] ^= tmp[i + (HASH_BUFFER_SIZE+1)/2];
1440 #if HASH_BUFFER_SIZE & 1        /* There's a middle word to deal with */
1441                 x = tmp[HASH_BUFFER_SIZE/2];
1442                 x ^= (x >> 16);         /* Fold it in half */
1443                 ((__u16 *)tmp)[HASH_BUFFER_SIZE-1] = (__u16)x;
1444 #endif
1445                 
1446                 /* Copy data to destination buffer */
1447                 i = min(nbytes, HASH_BUFFER_SIZE*sizeof(__u32)/2);
1448                 if (flags & EXTRACT_ENTROPY_USER) {
1449                         i -= copy_to_user(buf, (__u8 const *)tmp, i);
1450                         if (!i) {
1451                                 ret = -EFAULT;
1452                                 break;
1453                         }
1454                 } else
1455                         memcpy(buf, (__u8 const *)tmp, i);
1456                 nbytes -= i;
1457                 buf += i;
1458                 ret += i;
1459         }
1460
1461         /* Wipe data just returned from memory */
1462         memset(tmp, 0, sizeof(tmp));
1463         
1464         return ret;
1465 }
1466
1467 /*
1468  * This function is the exported kernel interface.  It returns some
1469  * number of good random numbers, suitable for seeding TCP sequence
1470  * numbers, etc.
1471  */
1472 void get_random_bytes(void *buf, int nbytes)
1473 {
1474         struct entropy_store *r = urandom_state;
1475         int flags = EXTRACT_ENTROPY_SECONDARY;
1476
1477         if (!r)
1478                 r = sec_random_state;
1479         if (!r) {
1480                 r = random_state;
1481                 flags = 0;
1482         }
1483         if (!r) {
1484                 printk(KERN_NOTICE "get_random_bytes called before "
1485                                    "random driver initialization\n");
1486                 return;
1487         }
1488         extract_entropy(r, (char *) buf, nbytes, flags);
1489 }
1490
1491 EXPORT_SYMBOL(get_random_bytes);
1492
1493 /*********************************************************************
1494  *
1495  * Functions to interface with Linux
1496  *
1497  *********************************************************************/
1498
1499 /*
1500  * Initialize the random pool with standard stuff.
1501  *
1502  * NOTE: This is an OS-dependent function.
1503  */
1504 static void init_std_data(struct entropy_store *r)
1505 {
1506         struct timeval  tv;
1507         __u32           words[2];
1508         char            *p;
1509         int             i;
1510
1511         do_gettimeofday(&tv);
1512         words[0] = tv.tv_sec;
1513         words[1] = tv.tv_usec;
1514         add_entropy_words(r, words, 2);
1515
1516         /*
1517          *      This doesn't lock system.utsname. However, we are generating
1518          *      entropy so a race with a name set here is fine.
1519          */
1520         p = (char *) &system_utsname;
1521         for (i = sizeof(system_utsname) / sizeof(words); i; i--) {
1522                 memcpy(words, p, sizeof(words));
1523                 add_entropy_words(r, words, sizeof(words)/4);
1524                 p += sizeof(words);
1525         }
1526 }
1527
1528 static int __init rand_initialize(void)
1529 {
1530         int i;
1531
1532         if (create_entropy_store(DEFAULT_POOL_SIZE, "primary", &random_state))
1533                 goto err;
1534         if (batch_entropy_init(BATCH_ENTROPY_SIZE, random_state))
1535                 goto err;
1536         if (create_entropy_store(SECONDARY_POOL_SIZE, "secondary",
1537                                  &sec_random_state))
1538                 goto err;
1539         if (create_entropy_store(SECONDARY_POOL_SIZE, "urandom",
1540                                  &urandom_state))
1541                 goto err;
1542         clear_entropy_store(random_state);
1543         clear_entropy_store(sec_random_state);
1544         clear_entropy_store(urandom_state);
1545         init_std_data(random_state);
1546         init_std_data(sec_random_state);
1547         init_std_data(urandom_state);
1548 #ifdef CONFIG_SYSCTL
1549         sysctl_init_random(random_state);
1550 #endif
1551         for (i = 0; i < NR_IRQS; i++)
1552                 irq_timer_state[i] = NULL;
1553         memset(&keyboard_timer_state, 0, sizeof(struct timer_rand_state));
1554         memset(&mouse_timer_state, 0, sizeof(struct timer_rand_state));
1555         memset(&extract_timer_state, 0, sizeof(struct timer_rand_state));
1556         extract_timer_state.dont_count_entropy = 1;
1557         return 0;
1558 err:
1559         return -1;
1560 }
1561 module_init(rand_initialize);
1562
1563 void rand_initialize_irq(int irq)
1564 {
1565         struct timer_rand_state *state;
1566         
1567         if (irq >= NR_IRQS || irq_timer_state[irq])
1568                 return;
1569
1570         /*
1571          * If kmalloc returns null, we just won't use that entropy
1572          * source.
1573          */
1574         state = kmalloc(sizeof(struct timer_rand_state), GFP_KERNEL);
1575         if (state) {
1576                 memset(state, 0, sizeof(struct timer_rand_state));
1577                 irq_timer_state[irq] = state;
1578         }
1579 }
1580  
1581 void rand_initialize_disk(struct gendisk *disk)
1582 {
1583         struct timer_rand_state *state;
1584         
1585         /*
1586          * If kmalloc returns null, we just won't use that entropy
1587          * source.
1588          */
1589         state = kmalloc(sizeof(struct timer_rand_state), GFP_KERNEL);
1590         if (state) {
1591                 memset(state, 0, sizeof(struct timer_rand_state));
1592                 disk->random = state;
1593         }
1594 }
1595
1596 static ssize_t
1597 random_read(struct file * file, char __user * buf, size_t nbytes, loff_t *ppos)
1598 {
1599         DECLARE_WAITQUEUE(wait, current);
1600         ssize_t                 n, retval = 0, count = 0;
1601         
1602         if (nbytes == 0)
1603                 return 0;
1604
1605         while (nbytes > 0) {
1606                 n = nbytes;
1607                 if (n > SEC_XFER_SIZE)
1608                         n = SEC_XFER_SIZE;
1609
1610                 DEBUG_ENT("%04d %04d : reading %d bits, p: %d s: %d\n",
1611                           random_state->entropy_count,
1612                           sec_random_state->entropy_count,
1613                           n*8, random_state->entropy_count,
1614                           sec_random_state->entropy_count);
1615
1616                 n = extract_entropy(sec_random_state, buf, n,
1617                                     EXTRACT_ENTROPY_USER |
1618                                     EXTRACT_ENTROPY_LIMIT |
1619                                     EXTRACT_ENTROPY_SECONDARY);
1620
1621                 DEBUG_ENT("%04d %04d : read got %d bits (%d still needed)\n",
1622                           random_state->entropy_count,
1623                           sec_random_state->entropy_count,
1624                           n*8, (nbytes-n)*8);
1625
1626                 if (n == 0) {
1627                         if (file->f_flags & O_NONBLOCK) {
1628                                 retval = -EAGAIN;
1629                                 break;
1630                         }
1631                         if (signal_pending(current)) {
1632                                 retval = -ERESTARTSYS;
1633                                 break;
1634                         }
1635
1636                         DEBUG_ENT("%04d %04d : sleeping?\n",
1637                                   random_state->entropy_count,
1638                                   sec_random_state->entropy_count);
1639
1640                         set_current_state(TASK_INTERRUPTIBLE);
1641                         add_wait_queue(&random_read_wait, &wait);
1642
1643                         if (sec_random_state->entropy_count / 8 == 0)
1644                                 schedule();
1645
1646                         set_current_state(TASK_RUNNING);
1647                         remove_wait_queue(&random_read_wait, &wait);
1648
1649                         DEBUG_ENT("%04d %04d : waking up\n",
1650                                   random_state->entropy_count,
1651                                   sec_random_state->entropy_count);
1652
1653                         continue;
1654                 }
1655
1656                 if (n < 0) {
1657                         retval = n;
1658                         break;
1659                 }
1660                 count += n;
1661                 buf += n;
1662                 nbytes -= n;
1663                 break;          /* This break makes the device work */
1664                                 /* like a named pipe */
1665         }
1666
1667         /*
1668          * If we gave the user some bytes, update the access time.
1669          */
1670         if (count)
1671                 file_accessed(file);
1672         
1673         return (count ? count : retval);
1674 }
1675
1676 static ssize_t
1677 urandom_read(struct file * file, char __user * buf,
1678                       size_t nbytes, loff_t *ppos)
1679 {
1680         int flags = EXTRACT_ENTROPY_USER;
1681         unsigned long cpuflags;
1682
1683         spin_lock_irqsave(&random_state->lock, cpuflags);
1684         if (random_state->entropy_count > random_state->poolinfo.POOLBITS)
1685                 flags |= EXTRACT_ENTROPY_SECONDARY;
1686         spin_unlock_irqrestore(&random_state->lock, cpuflags);
1687
1688         return extract_entropy(urandom_state, buf, nbytes, flags);
1689 }
1690
1691 static unsigned int
1692 random_poll(struct file *file, poll_table * wait)
1693 {
1694         unsigned int mask;
1695
1696         poll_wait(file, &random_read_wait, wait);
1697         poll_wait(file, &random_write_wait, wait);
1698         mask = 0;
1699         if (random_state->entropy_count >= random_read_wakeup_thresh)
1700                 mask |= POLLIN | POLLRDNORM;
1701         if (random_state->entropy_count < random_write_wakeup_thresh)
1702                 mask |= POLLOUT | POLLWRNORM;
1703         return mask;
1704 }
1705
1706 static ssize_t
1707 random_write(struct file * file, const char __user * buffer,
1708              size_t count, loff_t *ppos)
1709 {
1710         int             ret = 0;
1711         size_t          bytes;
1712         __u32           buf[16];
1713         const char      __user *p = buffer;
1714         size_t          c = count;
1715
1716         while (c > 0) {
1717                 bytes = min(c, sizeof(buf));
1718
1719                 bytes -= copy_from_user(&buf, p, bytes);
1720                 if (!bytes) {
1721                         ret = -EFAULT;
1722                         break;
1723                 }
1724                 c -= bytes;
1725                 p += bytes;
1726
1727                 add_entropy_words(random_state, buf, (bytes + 3) / 4);
1728         }
1729         if (p == buffer) {
1730                 return (ssize_t)ret;
1731         } else {
1732                 file->f_dentry->d_inode->i_mtime = CURRENT_TIME;
1733                 mark_inode_dirty(file->f_dentry->d_inode);
1734                 return (ssize_t)(p - buffer);
1735         }
1736 }
1737
1738 static int
1739 random_ioctl(struct inode * inode, struct file * file,
1740              unsigned int cmd, unsigned long arg)
1741 {
1742         int size, ent_count;
1743         int __user *p = (int __user *)arg;
1744         int retval;
1745         
1746         switch (cmd) {
1747         case RNDGETENTCNT:
1748                 ent_count = random_state->entropy_count;
1749                 if (put_user(ent_count, p))
1750                         return -EFAULT;
1751                 return 0;
1752         case RNDADDTOENTCNT:
1753                 if (!capable(CAP_SYS_ADMIN))
1754                         return -EPERM;
1755                 if (get_user(ent_count, p))
1756                         return -EFAULT;
1757                 credit_entropy_store(random_state, ent_count);
1758                 /*
1759                  * Wake up waiting processes if we have enough
1760                  * entropy.
1761                  */
1762                 if (random_state->entropy_count >= random_read_wakeup_thresh)
1763                         wake_up_interruptible(&random_read_wait);
1764                 return 0;
1765         case RNDADDENTROPY:
1766                 if (!capable(CAP_SYS_ADMIN))
1767                         return -EPERM;
1768                 if (get_user(ent_count, p++))
1769                         return -EFAULT;
1770                 if (ent_count < 0)
1771                         return -EINVAL;
1772                 if (get_user(size, p++))
1773                         return -EFAULT;
1774                 retval = random_write(file, (const char __user *) p,
1775                                       size, &file->f_pos);
1776                 if (retval < 0)
1777                         return retval;
1778                 credit_entropy_store(random_state, ent_count);
1779                 /*
1780                  * Wake up waiting processes if we have enough
1781                  * entropy.
1782                  */
1783                 if (random_state->entropy_count >= random_read_wakeup_thresh)
1784                         wake_up_interruptible(&random_read_wait);
1785                 return 0;
1786         case RNDZAPENTCNT:
1787                 if (!capable(CAP_SYS_ADMIN))
1788                         return -EPERM;
1789                 random_state->entropy_count = 0;
1790                 return 0;
1791         case RNDCLEARPOOL:
1792                 /* Clear the entropy pool and associated counters. */
1793                 if (!capable(CAP_SYS_ADMIN))
1794                         return -EPERM;
1795                 clear_entropy_store(random_state);
1796                 init_std_data(random_state);
1797                 return 0;
1798         default:
1799                 return -EINVAL;
1800         }
1801 }
1802
1803 struct file_operations random_fops = {
1804         .read           = random_read,
1805         .write          = random_write,
1806         .poll           = random_poll,
1807         .ioctl          = random_ioctl,
1808 };
1809
1810 struct file_operations urandom_fops = {
1811         .read           = urandom_read,
1812         .write          = random_write,
1813         .ioctl          = random_ioctl,
1814 };
1815
1816 /***************************************************************
1817  * Random UUID interface
1818  * 
1819  * Used here for a Boot ID, but can be useful for other kernel 
1820  * drivers.
1821  ***************************************************************/
1822
1823 /*
1824  * Generate random UUID
1825  */
1826 void generate_random_uuid(unsigned char uuid_out[16])
1827 {
1828         get_random_bytes(uuid_out, 16);
1829         /* Set UUID version to 4 --- truely random generation */
1830         uuid_out[6] = (uuid_out[6] & 0x0F) | 0x40;
1831         /* Set the UUID variant to DCE */
1832         uuid_out[8] = (uuid_out[8] & 0x3F) | 0x80;
1833 }
1834
1835 EXPORT_SYMBOL(generate_random_uuid);
1836
1837 /********************************************************************
1838  *
1839  * Sysctl interface
1840  *
1841  ********************************************************************/
1842
1843 #ifdef CONFIG_SYSCTL
1844
1845 #include <linux/sysctl.h>
1846
1847 static int sysctl_poolsize;
1848 static int min_read_thresh, max_read_thresh;
1849 static int min_write_thresh, max_write_thresh;
1850 static char sysctl_bootid[16];
1851
1852 /*
1853  * This function handles a request from the user to change the pool size 
1854  * of the primary entropy store.
1855  */
1856 static int change_poolsize(int poolsize)
1857 {
1858         struct entropy_store    *new_store, *old_store;
1859         int                     ret;
1860         
1861         if ((ret = create_entropy_store(poolsize, random_state->name,
1862                                         &new_store)))
1863                 return ret;
1864
1865         add_entropy_words(new_store, random_state->pool,
1866                           random_state->poolinfo.poolwords);
1867         credit_entropy_store(new_store, random_state->entropy_count);
1868
1869         sysctl_init_random(new_store);
1870         old_store = random_state;
1871         random_state = batch_work.data = new_store;
1872         free_entropy_store(old_store);
1873         return 0;
1874 }
1875
1876 static int proc_do_poolsize(ctl_table *table, int write, struct file *filp,
1877                             void __user *buffer, size_t *lenp, loff_t *ppos)
1878 {
1879         int     ret;
1880
1881         sysctl_poolsize = random_state->poolinfo.POOLBYTES;
1882
1883         ret = proc_dointvec(table, write, filp, buffer, lenp, ppos);
1884         if (ret || !write ||
1885             (sysctl_poolsize == random_state->poolinfo.POOLBYTES))
1886                 return ret;
1887
1888         return change_poolsize(sysctl_poolsize);
1889 }
1890
1891 static int poolsize_strategy(ctl_table *table, int __user *name, int nlen,
1892                              void __user *oldval, size_t __user *oldlenp,
1893                              void __user *newval, size_t newlen, void **context)
1894 {
1895         int     len;
1896         
1897         sysctl_poolsize = random_state->poolinfo.POOLBYTES;
1898
1899         /*
1900          * We only handle the write case, since the read case gets
1901          * handled by the default handler (and we don't care if the
1902          * write case happens twice; it's harmless).
1903          */
1904         if (newval && newlen) {
1905                 len = newlen;
1906                 if (len > table->maxlen)
1907                         len = table->maxlen;
1908                 if (copy_from_user(table->data, newval, len))
1909                         return -EFAULT;
1910         }
1911
1912         if (sysctl_poolsize != random_state->poolinfo.POOLBYTES)
1913                 return change_poolsize(sysctl_poolsize);
1914
1915         return 0;
1916 }
1917
1918 /*
1919  * These functions is used to return both the bootid UUID, and random
1920  * UUID.  The difference is in whether table->data is NULL; if it is,
1921  * then a new UUID is generated and returned to the user.
1922  * 
1923  * If the user accesses this via the proc interface, it will be returned
1924  * as an ASCII string in the standard UUID format.  If accesses via the 
1925  * sysctl system call, it is returned as 16 bytes of binary data.
1926  */
1927 static int proc_do_uuid(ctl_table *table, int write, struct file *filp,
1928                         void __user *buffer, size_t *lenp, loff_t *ppos)
1929 {
1930         ctl_table       fake_table;
1931         unsigned char   buf[64], tmp_uuid[16], *uuid;
1932
1933         uuid = table->data;
1934         if (!uuid) {
1935                 uuid = tmp_uuid;
1936                 uuid[8] = 0;
1937         }
1938         if (uuid[8] == 0)
1939                 generate_random_uuid(uuid);
1940
1941         sprintf(buf, "%02x%02x%02x%02x-%02x%02x-%02x%02x-%02x%02x-"
1942                 "%02x%02x%02x%02x%02x%02x",
1943                 uuid[0],  uuid[1],  uuid[2],  uuid[3],
1944                 uuid[4],  uuid[5],  uuid[6],  uuid[7],
1945                 uuid[8],  uuid[9],  uuid[10], uuid[11],
1946                 uuid[12], uuid[13], uuid[14], uuid[15]);
1947         fake_table.data = buf;
1948         fake_table.maxlen = sizeof(buf);
1949
1950         return proc_dostring(&fake_table, write, filp, buffer, lenp, ppos);
1951 }
1952
1953 static int uuid_strategy(ctl_table *table, int __user *name, int nlen,
1954                          void __user *oldval, size_t __user *oldlenp,
1955                          void __user *newval, size_t newlen, void **context)
1956 {
1957         unsigned char   tmp_uuid[16], *uuid;
1958         unsigned int    len;
1959
1960         if (!oldval || !oldlenp)
1961                 return 1;
1962
1963         uuid = table->data;
1964         if (!uuid) {
1965                 uuid = tmp_uuid;
1966                 uuid[8] = 0;
1967         }
1968         if (uuid[8] == 0)
1969                 generate_random_uuid(uuid);
1970
1971         if (get_user(len, oldlenp))
1972                 return -EFAULT;
1973         if (len) {
1974                 if (len > 16)
1975                         len = 16;
1976                 if (copy_to_user(oldval, uuid, len) ||
1977                     put_user(len, oldlenp))
1978                         return -EFAULT;
1979         }
1980         return 1;
1981 }
1982
1983 ctl_table random_table[] = {
1984         {
1985                 .ctl_name       = RANDOM_POOLSIZE,
1986                 .procname       = "poolsize",
1987                 .data           = &sysctl_poolsize,
1988                 .maxlen         = sizeof(int),
1989                 .mode           = 0644,
1990                 .proc_handler   = &proc_do_poolsize,
1991                 .strategy       = &poolsize_strategy,
1992         },
1993         {
1994                 .ctl_name       = RANDOM_ENTROPY_COUNT,
1995                 .procname       = "entropy_avail",
1996                 .maxlen         = sizeof(int),
1997                 .mode           = 0444,
1998                 .proc_handler   = &proc_dointvec,
1999         },
2000         {
2001                 .ctl_name       = RANDOM_READ_THRESH,
2002                 .procname       = "read_wakeup_threshold",
2003                 .data           = &random_read_wakeup_thresh,
2004                 .maxlen         = sizeof(int),
2005                 .mode           = 0644,
2006                 .proc_handler   = &proc_dointvec_minmax,
2007                 .strategy       = &sysctl_intvec,
2008                 .extra1         = &min_read_thresh,
2009                 .extra2         = &max_read_thresh,
2010         },
2011         {
2012                 .ctl_name       = RANDOM_WRITE_THRESH,
2013                 .procname       = "write_wakeup_threshold",
2014                 .data           = &random_write_wakeup_thresh,
2015                 .maxlen         = sizeof(int),
2016                 .mode           = 0644,
2017                 .proc_handler   = &proc_dointvec_minmax,
2018                 .strategy       = &sysctl_intvec,
2019                 .extra1         = &min_write_thresh,
2020                 .extra2         = &max_write_thresh,
2021         },
2022         {
2023                 .ctl_name       = RANDOM_BOOT_ID,
2024                 .procname       = "boot_id",
2025                 .data           = &sysctl_bootid,
2026                 .maxlen         = 16,
2027                 .mode           = 0444,
2028                 .proc_handler   = &proc_do_uuid,
2029                 .strategy       = &uuid_strategy,
2030         },
2031         {
2032                 .ctl_name       = RANDOM_UUID,
2033                 .procname       = "uuid",
2034                 .maxlen         = 16,
2035                 .mode           = 0444,
2036                 .proc_handler   = &proc_do_uuid,
2037                 .strategy       = &uuid_strategy,
2038         },
2039         { .ctl_name = 0 }
2040 };
2041
2042 static void sysctl_init_random(struct entropy_store *random_state)
2043 {
2044         min_read_thresh = 8;
2045         min_write_thresh = 0;
2046         max_read_thresh = max_write_thresh = random_state->poolinfo.POOLBITS;
2047         random_table[1].data = &random_state->entropy_count;
2048 }
2049 #endif  /* CONFIG_SYSCTL */
2050
2051 /********************************************************************
2052  *
2053  * Random funtions for networking
2054  *
2055  ********************************************************************/
2056
2057 /*
2058  * TCP initial sequence number picking.  This uses the random number
2059  * generator to pick an initial secret value.  This value is hashed
2060  * along with the TCP endpoint information to provide a unique
2061  * starting point for each pair of TCP endpoints.  This defeats
2062  * attacks which rely on guessing the initial TCP sequence number.
2063  * This algorithm was suggested by Steve Bellovin.
2064  *
2065  * Using a very strong hash was taking an appreciable amount of the total
2066  * TCP connection establishment time, so this is a weaker hash,
2067  * compensated for by changing the secret periodically.
2068  */
2069
2070 /* F, G and H are basic MD4 functions: selection, majority, parity */
2071 #define F(x, y, z) ((z) ^ ((x) & ((y) ^ (z))))
2072 #define G(x, y, z) (((x) & (y)) + (((x) ^ (y)) & (z)))
2073 #define H(x, y, z) ((x) ^ (y) ^ (z))
2074
2075 /*
2076  * The generic round function.  The application is so specific that
2077  * we don't bother protecting all the arguments with parens, as is generally
2078  * good macro practice, in favor of extra legibility.
2079  * Rotation is separate from addition to prevent recomputation
2080  */
2081 #define ROUND(f, a, b, c, d, x, s)      \
2082         (a += f(b, c, d) + x, a = (a << s) | (a >> (32-s)))
2083 #define K1 0
2084 #define K2 013240474631UL
2085 #define K3 015666365641UL
2086
2087 /*
2088  * Basic cut-down MD4 transform.  Returns only 32 bits of result.
2089  */
2090 static __u32 halfMD4Transform (__u32 const buf[4], __u32 const in[8])
2091 {
2092         __u32   a = buf[0], b = buf[1], c = buf[2], d = buf[3];
2093
2094         /* Round 1 */
2095         ROUND(F, a, b, c, d, in[0] + K1,  3);
2096         ROUND(F, d, a, b, c, in[1] + K1,  7);
2097         ROUND(F, c, d, a, b, in[2] + K1, 11);
2098         ROUND(F, b, c, d, a, in[3] + K1, 19);
2099         ROUND(F, a, b, c, d, in[4] + K1,  3);
2100         ROUND(F, d, a, b, c, in[5] + K1,  7);
2101         ROUND(F, c, d, a, b, in[6] + K1, 11);
2102         ROUND(F, b, c, d, a, in[7] + K1, 19);
2103
2104         /* Round 2 */
2105         ROUND(G, a, b, c, d, in[1] + K2,  3);
2106         ROUND(G, d, a, b, c, in[3] + K2,  5);
2107         ROUND(G, c, d, a, b, in[5] + K2,  9);
2108         ROUND(G, b, c, d, a, in[7] + K2, 13);
2109         ROUND(G, a, b, c, d, in[0] + K2,  3);
2110         ROUND(G, d, a, b, c, in[2] + K2,  5);
2111         ROUND(G, c, d, a, b, in[4] + K2,  9);
2112         ROUND(G, b, c, d, a, in[6] + K2, 13);
2113
2114         /* Round 3 */
2115         ROUND(H, a, b, c, d, in[3] + K3,  3);
2116         ROUND(H, d, a, b, c, in[7] + K3,  9);
2117         ROUND(H, c, d, a, b, in[2] + K3, 11);
2118         ROUND(H, b, c, d, a, in[6] + K3, 15);
2119         ROUND(H, a, b, c, d, in[1] + K3,  3);
2120         ROUND(H, d, a, b, c, in[5] + K3,  9);
2121         ROUND(H, c, d, a, b, in[0] + K3, 11);
2122         ROUND(H, b, c, d, a, in[4] + K3, 15);
2123
2124         return buf[1] + b;      /* "most hashed" word */
2125         /* Alternative: return sum of all words? */
2126 }
2127
2128 #if defined(CONFIG_IPV6) || defined(CONFIG_IPV6_MODULE)
2129
2130 static __u32 twothirdsMD4Transform (__u32 const buf[4], __u32 const in[12])
2131 {
2132         __u32   a = buf[0], b = buf[1], c = buf[2], d = buf[3];
2133
2134         /* Round 1 */
2135         ROUND(F, a, b, c, d, in[ 0] + K1,  3);
2136         ROUND(F, d, a, b, c, in[ 1] + K1,  7);
2137         ROUND(F, c, d, a, b, in[ 2] + K1, 11);
2138         ROUND(F, b, c, d, a, in[ 3] + K1, 19);
2139         ROUND(F, a, b, c, d, in[ 4] + K1,  3);
2140         ROUND(F, d, a, b, c, in[ 5] + K1,  7);
2141         ROUND(F, c, d, a, b, in[ 6] + K1, 11);
2142         ROUND(F, b, c, d, a, in[ 7] + K1, 19);
2143         ROUND(F, a, b, c, d, in[ 8] + K1,  3);
2144         ROUND(F, d, a, b, c, in[ 9] + K1,  7);
2145         ROUND(F, c, d, a, b, in[10] + K1, 11);
2146         ROUND(F, b, c, d, a, in[11] + K1, 19);
2147
2148         /* Round 2 */
2149         ROUND(G, a, b, c, d, in[ 1] + K2,  3);
2150         ROUND(G, d, a, b, c, in[ 3] + K2,  5);
2151         ROUND(G, c, d, a, b, in[ 5] + K2,  9);
2152         ROUND(G, b, c, d, a, in[ 7] + K2, 13);
2153         ROUND(G, a, b, c, d, in[ 9] + K2,  3);
2154         ROUND(G, d, a, b, c, in[11] + K2,  5);
2155         ROUND(G, c, d, a, b, in[ 0] + K2,  9);
2156         ROUND(G, b, c, d, a, in[ 2] + K2, 13);
2157         ROUND(G, a, b, c, d, in[ 4] + K2,  3);
2158         ROUND(G, d, a, b, c, in[ 6] + K2,  5);
2159         ROUND(G, c, d, a, b, in[ 8] + K2,  9);
2160         ROUND(G, b, c, d, a, in[10] + K2, 13);
2161
2162         /* Round 3 */
2163         ROUND(H, a, b, c, d, in[ 3] + K3,  3);
2164         ROUND(H, d, a, b, c, in[ 7] + K3,  9);
2165         ROUND(H, c, d, a, b, in[11] + K3, 11);
2166         ROUND(H, b, c, d, a, in[ 2] + K3, 15);
2167         ROUND(H, a, b, c, d, in[ 6] + K3,  3);
2168         ROUND(H, d, a, b, c, in[10] + K3,  9);
2169         ROUND(H, c, d, a, b, in[ 1] + K3, 11);
2170         ROUND(H, b, c, d, a, in[ 5] + K3, 15);
2171         ROUND(H, a, b, c, d, in[ 9] + K3,  3);
2172         ROUND(H, d, a, b, c, in[ 0] + K3,  9);
2173         ROUND(H, c, d, a, b, in[ 4] + K3, 11);
2174         ROUND(H, b, c, d, a, in[ 8] + K3, 15);
2175
2176         return buf[1] + b;      /* "most hashed" word */
2177         /* Alternative: return sum of all words? */
2178 }
2179 #endif
2180
2181 #undef ROUND
2182 #undef F
2183 #undef G
2184 #undef H
2185 #undef K1
2186 #undef K2
2187 #undef K3
2188
2189 /* This should not be decreased so low that ISNs wrap too fast. */
2190 #define REKEY_INTERVAL  (300*HZ)
2191 /*
2192  * Bit layout of the tcp sequence numbers (before adding current time):
2193  * bit 24-31: increased after every key exchange
2194  * bit 0-23: hash(source,dest)
2195  *
2196  * The implementation is similar to the algorithm described
2197  * in the Appendix of RFC 1185, except that
2198  * - it uses a 1 MHz clock instead of a 250 kHz clock
2199  * - it performs a rekey every 5 minutes, which is equivalent
2200  *      to a (source,dest) tulple dependent forward jump of the
2201  *      clock by 0..2^(HASH_BITS+1)
2202  *
2203  * Thus the average ISN wraparound time is 68 minutes instead of
2204  * 4.55 hours.
2205  *
2206  * SMP cleanup and lock avoidance with poor man's RCU.
2207  *                      Manfred Spraul <manfred@colorfullife.com>
2208  *              
2209  */
2210 #define COUNT_BITS      8
2211 #define COUNT_MASK      ( (1<<COUNT_BITS)-1)
2212 #define HASH_BITS       24
2213 #define HASH_MASK       ( (1<<HASH_BITS)-1 )
2214
2215 static struct keydata {
2216         __u32   count;          // already shifted to the final position
2217         __u32   secret[12];
2218 } ____cacheline_aligned ip_keydata[2];
2219
2220 static unsigned int ip_cnt;
2221
2222 static void rekey_seq_generator(void *private_);
2223
2224 static DECLARE_WORK(rekey_work, rekey_seq_generator, NULL);
2225
2226 /*
2227  * Lock avoidance:
2228  * The ISN generation runs lockless - it's just a hash over random data.
2229  * State changes happen every 5 minutes when the random key is replaced.
2230  * Synchronization is performed by having two copies of the hash function
2231  * state and rekey_seq_generator always updates the inactive copy.
2232  * The copy is then activated by updating ip_cnt.
2233  * The implementation breaks down if someone blocks the thread
2234  * that processes SYN requests for more than 5 minutes. Should never
2235  * happen, and even if that happens only a not perfectly compliant
2236  * ISN is generated, nothing fatal.
2237  */
2238 static void rekey_seq_generator(void *private_)
2239 {
2240         struct keydata *keyptr = &ip_keydata[1^(ip_cnt&1)];
2241
2242         get_random_bytes(keyptr->secret, sizeof(keyptr->secret));
2243         keyptr->count = (ip_cnt&COUNT_MASK)<<HASH_BITS;
2244         smp_wmb();
2245         ip_cnt++;
2246         schedule_delayed_work(&rekey_work, REKEY_INTERVAL);
2247 }
2248
2249 static inline struct keydata *get_keyptr(void)
2250 {
2251         struct keydata *keyptr = &ip_keydata[ip_cnt&1];
2252
2253         smp_rmb();
2254
2255         return keyptr;
2256 }
2257
2258 static __init int seqgen_init(void)
2259 {
2260         rekey_seq_generator(NULL);
2261         return 0;
2262 }
2263 late_initcall(seqgen_init);
2264
2265 #if defined(CONFIG_IPV6) || defined(CONFIG_IPV6_MODULE)
2266 __u32 secure_tcpv6_sequence_number(__u32 *saddr, __u32 *daddr,
2267                                    __u16 sport, __u16 dport)
2268 {
2269         struct timeval  tv;
2270         __u32           seq;
2271         __u32           hash[12];
2272         struct keydata *keyptr = get_keyptr();
2273
2274         /* The procedure is the same as for IPv4, but addresses are longer.
2275          * Thus we must use twothirdsMD4Transform.
2276          */
2277
2278
2279         memcpy(hash, saddr, 16);
2280         hash[4]=(sport << 16) + dport;
2281         memcpy(&hash[5],keyptr->secret,sizeof(__u32)*7);
2282
2283         seq = twothirdsMD4Transform(daddr, hash) & HASH_MASK;
2284         seq += keyptr->count;
2285
2286         do_gettimeofday(&tv);
2287         seq += tv.tv_usec + tv.tv_sec*1000000;
2288
2289         return seq;
2290 }
2291 EXPORT_SYMBOL(secure_tcpv6_sequence_number);
2292 #endif
2293
2294 __u32 secure_tcp_sequence_number(__u32 saddr, __u32 daddr,
2295                                  __u16 sport, __u16 dport)
2296 {
2297         struct timeval  tv;
2298         __u32           seq;
2299         __u32   hash[4];
2300         struct keydata *keyptr = get_keyptr();
2301
2302         /*
2303          *  Pick a unique starting offset for each TCP connection endpoints
2304          *  (saddr, daddr, sport, dport).
2305          *  Note that the words are placed into the starting vector, which is 
2306          *  then mixed with a partial MD4 over random data.
2307          */
2308         hash[0]=saddr;
2309         hash[1]=daddr;
2310         hash[2]=(sport << 16) + dport;
2311         hash[3]=keyptr->secret[11];
2312
2313         seq = halfMD4Transform(hash, keyptr->secret) & HASH_MASK;
2314         seq += keyptr->count;
2315         /*
2316          *      As close as possible to RFC 793, which
2317          *      suggests using a 250 kHz clock.
2318          *      Further reading shows this assumes 2 Mb/s networks.
2319          *      For 10 Mb/s Ethernet, a 1 MHz clock is appropriate.
2320          *      That's funny, Linux has one built in!  Use it!
2321          *      (Networks are faster now - should this be increased?)
2322          */
2323         do_gettimeofday(&tv);
2324         seq += tv.tv_usec + tv.tv_sec*1000000;
2325 #if 0
2326         printk("init_seq(%lx, %lx, %d, %d) = %d\n",
2327                saddr, daddr, sport, dport, seq);
2328 #endif
2329         return seq;
2330 }
2331
2332 EXPORT_SYMBOL(secure_tcp_sequence_number);
2333
2334 /*  The code below is shamelessly stolen from secure_tcp_sequence_number().
2335  *  All blames to Andrey V. Savochkin <saw@msu.ru>.
2336  */
2337 __u32 secure_ip_id(__u32 daddr)
2338 {
2339         struct keydata *keyptr;
2340         __u32 hash[4];
2341
2342         keyptr = get_keyptr();
2343
2344         /*
2345          *  Pick a unique starting offset for each IP destination.
2346          *  The dest ip address is placed in the starting vector,
2347          *  which is then hashed with random data.
2348          */
2349         hash[0] = daddr;
2350         hash[1] = keyptr->secret[9];
2351         hash[2] = keyptr->secret[10];
2352         hash[3] = keyptr->secret[11];
2353
2354         return halfMD4Transform(hash, keyptr->secret);
2355 }
2356
2357 #ifdef CONFIG_SYN_COOKIES
2358 /*
2359  * Secure SYN cookie computation. This is the algorithm worked out by
2360  * Dan Bernstein and Eric Schenk.
2361  *
2362  * For linux I implement the 1 minute counter by looking at the jiffies clock.
2363  * The count is passed in as a parameter, so this code doesn't much care.
2364  */
2365
2366 #define COOKIEBITS 24   /* Upper bits store count */
2367 #define COOKIEMASK (((__u32)1 << COOKIEBITS) - 1)
2368
2369 static int      syncookie_init;
2370 static __u32    syncookie_secret[2][16-3+HASH_BUFFER_SIZE];
2371
2372 __u32 secure_tcp_syn_cookie(__u32 saddr, __u32 daddr, __u16 sport,
2373                 __u16 dport, __u32 sseq, __u32 count, __u32 data)
2374 {
2375         __u32   tmp[16 + HASH_BUFFER_SIZE + HASH_EXTRA_SIZE];
2376         __u32   seq;
2377
2378         /*
2379          * Pick two random secrets the first time we need a cookie.
2380          */
2381         if (syncookie_init == 0) {
2382                 get_random_bytes(syncookie_secret, sizeof(syncookie_secret));
2383                 syncookie_init = 1;
2384         }
2385
2386         /*
2387          * Compute the secure sequence number.
2388          * The output should be:
2389          *   HASH(sec1,saddr,sport,daddr,dport,sec1) + sseq + (count * 2^24)
2390          *      + (HASH(sec2,saddr,sport,daddr,dport,count,sec2) % 2^24).
2391          * Where sseq is their sequence number and count increases every
2392          * minute by 1.
2393          * As an extra hack, we add a small "data" value that encodes the
2394          * MSS into the second hash value.
2395          */
2396
2397         memcpy(tmp+3, syncookie_secret[0], sizeof(syncookie_secret[0]));
2398         tmp[0]=saddr;
2399         tmp[1]=daddr;
2400         tmp[2]=(sport << 16) + dport;
2401         HASH_TRANSFORM(tmp+16, tmp);
2402         seq = tmp[17] + sseq + (count << COOKIEBITS);
2403
2404         memcpy(tmp+3, syncookie_secret[1], sizeof(syncookie_secret[1]));
2405         tmp[0]=saddr;
2406         tmp[1]=daddr;
2407         tmp[2]=(sport << 16) + dport;
2408         tmp[3] = count; /* minute counter */
2409         HASH_TRANSFORM(tmp+16, tmp);
2410
2411         /* Add in the second hash and the data */
2412         return seq + ((tmp[17] + data) & COOKIEMASK);
2413 }
2414
2415 /*
2416  * This retrieves the small "data" value from the syncookie.
2417  * If the syncookie is bad, the data returned will be out of
2418  * range.  This must be checked by the caller.
2419  *
2420  * The count value used to generate the cookie must be within
2421  * "maxdiff" if the current (passed-in) "count".  The return value
2422  * is (__u32)-1 if this test fails.
2423  */
2424 __u32 check_tcp_syn_cookie(__u32 cookie, __u32 saddr, __u32 daddr, __u16 sport,
2425                 __u16 dport, __u32 sseq, __u32 count, __u32 maxdiff)
2426 {
2427         __u32   tmp[16 + HASH_BUFFER_SIZE + HASH_EXTRA_SIZE];
2428         __u32   diff;
2429
2430         if (syncookie_init == 0)
2431                 return (__u32)-1;       /* Well, duh! */
2432
2433         /* Strip away the layers from the cookie */
2434         memcpy(tmp+3, syncookie_secret[0], sizeof(syncookie_secret[0]));
2435         tmp[0]=saddr;
2436         tmp[1]=daddr;
2437         tmp[2]=(sport << 16) + dport;
2438         HASH_TRANSFORM(tmp+16, tmp);
2439         cookie -= tmp[17] + sseq;
2440         /* Cookie is now reduced to (count * 2^24) ^ (hash % 2^24) */
2441
2442         diff = (count - (cookie >> COOKIEBITS)) & ((__u32)-1 >> COOKIEBITS);
2443         if (diff >= maxdiff)
2444                 return (__u32)-1;
2445
2446         memcpy(tmp+3, syncookie_secret[1], sizeof(syncookie_secret[1]));
2447         tmp[0] = saddr;
2448         tmp[1] = daddr;
2449         tmp[2] = (sport << 16) + dport;
2450         tmp[3] = count - diff;  /* minute counter */
2451         HASH_TRANSFORM(tmp+16, tmp);
2452
2453         return (cookie - tmp[17]) & COOKIEMASK; /* Leaving the data behind */
2454 }
2455 #endif