ftp://ftp.kernel.org/pub/linux/kernel/v2.6/linux-2.6.6.tar.bz2
[linux-2.6.git] / include / linux / raid / md_k.h
1 /*
2    md_k.h : kernel internal structure of the Linux MD driver
3           Copyright (C) 1996-98 Ingo Molnar, Gadi Oxman
4           
5    This program is free software; you can redistribute it and/or modify
6    it under the terms of the GNU General Public License as published by
7    the Free Software Foundation; either version 2, or (at your option)
8    any later version.
9    
10    You should have received a copy of the GNU General Public License
11    (for example /usr/src/linux/COPYING); if not, write to the Free
12    Software Foundation, Inc., 675 Mass Ave, Cambridge, MA 02139, USA.  
13 */
14
15 #ifndef _MD_K_H
16 #define _MD_K_H
17
18 #define MD_RESERVED       0UL
19 #define LINEAR            1UL
20 #define RAID0             2UL
21 #define RAID1             3UL
22 #define RAID5             4UL
23 #define TRANSLUCENT       5UL
24 #define HSM               6UL
25 #define MULTIPATH         7UL
26 #define RAID6             8UL
27 #define MAX_PERSONALITY   9UL
28
29 #define LEVEL_MULTIPATH         (-4)
30 #define LEVEL_LINEAR            (-1)
31
32 #define MaxSector (~(sector_t)0)
33 #define MD_THREAD_NAME_MAX 14
34
35 static inline int pers_to_level (int pers)
36 {
37         switch (pers) {
38                 case MULTIPATH:         return LEVEL_MULTIPATH;
39                 case HSM:               return -3;
40                 case TRANSLUCENT:       return -2;
41                 case LINEAR:            return LEVEL_LINEAR;
42                 case RAID0:             return 0;
43                 case RAID1:             return 1;
44                 case RAID5:             return 5;
45                 case RAID6:             return 6;
46         }
47         BUG();
48         return MD_RESERVED;
49 }
50
51 static inline int level_to_pers (int level)
52 {
53         switch (level) {
54                 case LEVEL_MULTIPATH: return MULTIPATH;
55                 case -3: return HSM;
56                 case -2: return TRANSLUCENT;
57                 case LEVEL_LINEAR: return LINEAR;
58                 case 0: return RAID0;
59                 case 1: return RAID1;
60                 case 4:
61                 case 5: return RAID5;
62                 case 6: return RAID6;
63         }
64         return MD_RESERVED;
65 }
66
67 typedef struct mddev_s mddev_t;
68 typedef struct mdk_rdev_s mdk_rdev_t;
69
70 #define MAX_MD_DEVS  256        /* Max number of md dev */
71
72 /*
73  * options passed in raidrun:
74  */
75
76 #define MAX_CHUNK_SIZE (4096*1024)
77
78 /*
79  * default readahead
80  */
81
82 static inline int disk_faulty(mdp_disk_t * d)
83 {
84         return d->state & (1 << MD_DISK_FAULTY);
85 }
86
87 static inline int disk_active(mdp_disk_t * d)
88 {
89         return d->state & (1 << MD_DISK_ACTIVE);
90 }
91
92 static inline int disk_sync(mdp_disk_t * d)
93 {
94         return d->state & (1 << MD_DISK_SYNC);
95 }
96
97 static inline int disk_spare(mdp_disk_t * d)
98 {
99         return !disk_sync(d) && !disk_active(d) && !disk_faulty(d);
100 }
101
102 static inline int disk_removed(mdp_disk_t * d)
103 {
104         return d->state & (1 << MD_DISK_REMOVED);
105 }
106
107 static inline void mark_disk_faulty(mdp_disk_t * d)
108 {
109         d->state |= (1 << MD_DISK_FAULTY);
110 }
111
112 static inline void mark_disk_active(mdp_disk_t * d)
113 {
114         d->state |= (1 << MD_DISK_ACTIVE);
115 }
116
117 static inline void mark_disk_sync(mdp_disk_t * d)
118 {
119         d->state |= (1 << MD_DISK_SYNC);
120 }
121
122 static inline void mark_disk_spare(mdp_disk_t * d)
123 {
124         d->state = 0;
125 }
126
127 static inline void mark_disk_removed(mdp_disk_t * d)
128 {
129         d->state = (1 << MD_DISK_FAULTY) | (1 << MD_DISK_REMOVED);
130 }
131
132 static inline void mark_disk_inactive(mdp_disk_t * d)
133 {
134         d->state &= ~(1 << MD_DISK_ACTIVE);
135 }
136
137 static inline void mark_disk_nonsync(mdp_disk_t * d)
138 {
139         d->state &= ~(1 << MD_DISK_SYNC);
140 }
141
142 /*
143  * MD's 'extended' device
144  */
145 struct mdk_rdev_s
146 {
147         struct list_head same_set;      /* RAID devices within the same set */
148
149         sector_t size;                  /* Device size (in blocks) */
150         mddev_t *mddev;                 /* RAID array if running */
151         unsigned long last_events;      /* IO event timestamp */
152
153         struct block_device *bdev;      /* block device handle */
154
155         struct page     *sb_page;
156         int             sb_loaded;
157         sector_t        data_offset;    /* start of data in array */
158         sector_t        sb_offset;
159         int             preferred_minor;        /* autorun support */
160
161         /* A device can be in one of three states based on two flags:
162          * Not working:   faulty==1 in_sync==0
163          * Fully working: faulty==0 in_sync==1
164          * Working, but not
165          * in sync with array
166          *                faulty==0 in_sync==0
167          *
168          * It can never have faulty==1, in_sync==1
169          * This reduces the burden of testing multiple flags in many cases
170          */
171         int faulty;                     /* if faulty do not issue IO requests */
172         int in_sync;                    /* device is a full member of the array */
173
174         int desc_nr;                    /* descriptor index in the superblock */
175         int raid_disk;                  /* role of device in array */
176
177         atomic_t        nr_pending;     /* number of pending requests.
178                                          * only maintained for arrays that
179                                          * support hot removal
180                                          */
181 };
182
183 typedef struct mdk_personality_s mdk_personality_t;
184
185 struct mddev_s
186 {
187         void                            *private;
188         mdk_personality_t               *pers;
189         dev_t                           unit;
190         int                             md_minor;
191         struct list_head                disks;
192         int                             sb_dirty;
193         int                             ro;
194
195         struct gendisk                  *gendisk;
196
197         /* Superblock information */
198         int                             major_version,
199                                         minor_version,
200                                         patch_version;
201         int                             persistent;
202         int                             chunk_size;
203         time_t                          ctime, utime;
204         int                             level, layout;
205         int                             raid_disks;
206         int                             max_disks;
207         sector_t                        size; /* used size of component devices */
208         sector_t                        array_size; /* exported array size */
209         __u64                           events;
210
211         char                            uuid[16];
212
213         struct mdk_thread_s             *thread;        /* management thread */
214         struct mdk_thread_s             *sync_thread;   /* doing resync or reconstruct */
215         sector_t                        curr_resync;    /* blocks scheduled */
216         unsigned long                   resync_mark;    /* a recent timestamp */
217         sector_t                        resync_mark_cnt;/* blocks written at resync_mark */
218
219         /* recovery/resync flags 
220          * NEEDED:   we might need to start a resync/recover
221          * RUNNING:  a thread is running, or about to be started
222          * SYNC:     actually doing a resync, not a recovery
223          * ERR:      and IO error was detected - abort the resync/recovery
224          * INTR:     someone requested a (clean) early abort.
225          * DONE:     thread is done and is waiting to be reaped
226          */
227 #define MD_RECOVERY_RUNNING     0
228 #define MD_RECOVERY_SYNC        1
229 #define MD_RECOVERY_ERR         2
230 #define MD_RECOVERY_INTR        3
231 #define MD_RECOVERY_DONE        4
232 #define MD_RECOVERY_NEEDED      5
233         unsigned long                   recovery;
234
235         int                             in_sync;        /* know to not need resync */
236         struct semaphore                reconfig_sem;
237         atomic_t                        active;
238
239         int                             changed;        /* true if we might need to reread partition info */
240         int                             degraded;       /* whether md should consider
241                                                          * adding a spare
242                                                          */
243
244         atomic_t                        recovery_active; /* blocks scheduled, but not written */
245         wait_queue_head_t               recovery_wait;
246         sector_t                        recovery_cp;
247         unsigned int                    safemode;       /* if set, update "clean" superblock
248                                                          * when no writes pending.
249                                                          */ 
250         unsigned int                    safemode_delay;
251         struct timer_list               safemode_timer;
252         atomic_t                        writes_pending; 
253         request_queue_t                 *queue; /* for plugging ... */
254
255         struct list_head                all_mddevs;
256 };
257
258 struct mdk_personality_s
259 {
260         char *name;
261         struct module *owner;
262         int (*make_request)(request_queue_t *q, struct bio *bio);
263         int (*run)(mddev_t *mddev);
264         int (*stop)(mddev_t *mddev);
265         void (*status)(struct seq_file *seq, mddev_t *mddev);
266         /* error_handler must set ->faulty and clear ->in_sync
267          * if appropriate, and should abort recovery if needed 
268          */
269         void (*error_handler)(mddev_t *mddev, mdk_rdev_t *rdev);
270         int (*hot_add_disk) (mddev_t *mddev, mdk_rdev_t *rdev);
271         int (*hot_remove_disk) (mddev_t *mddev, int number);
272         int (*spare_active) (mddev_t *mddev);
273         int (*sync_request)(mddev_t *mddev, sector_t sector_nr, int go_faster);
274 };
275
276
277 static inline char * mdname (mddev_t * mddev)
278 {
279         return mddev->gendisk ? mddev->gendisk->disk_name : "mdX";
280 }
281
282 extern mdk_rdev_t * find_rdev_nr(mddev_t *mddev, int nr);
283
284 /*
285  * iterates through some rdev ringlist. It's safe to remove the
286  * current 'rdev'. Dont touch 'tmp' though.
287  */
288 #define ITERATE_RDEV_GENERIC(head,rdev,tmp)                             \
289                                                                         \
290         for ((tmp) = (head).next;                                       \
291                 (rdev) = (list_entry((tmp), mdk_rdev_t, same_set)),     \
292                         (tmp) = (tmp)->next, (tmp)->prev != &(head)     \
293                 ; )
294 /*
295  * iterates through the 'same array disks' ringlist
296  */
297 #define ITERATE_RDEV(mddev,rdev,tmp)                                    \
298         ITERATE_RDEV_GENERIC((mddev)->disks,rdev,tmp)
299
300 /*
301  * Iterates through 'pending RAID disks'
302  */
303 #define ITERATE_RDEV_PENDING(rdev,tmp)                                  \
304         ITERATE_RDEV_GENERIC(pending_raid_disks,rdev,tmp)
305
306 typedef struct mdk_thread_s {
307         void                    (*run) (mddev_t *mddev);
308         mddev_t                 *mddev;
309         wait_queue_head_t       wqueue;
310         unsigned long           flags;
311         struct completion       *event;
312         struct task_struct      *tsk;
313         const char              *name;
314 } mdk_thread_t;
315
316 #define THREAD_WAKEUP  0
317
318 #define __wait_event_lock_irq(wq, condition, lock, cmd)                 \
319 do {                                                                    \
320         wait_queue_t __wait;                                            \
321         init_waitqueue_entry(&__wait, current);                         \
322                                                                         \
323         add_wait_queue(&wq, &__wait);                                   \
324         for (;;) {                                                      \
325                 set_current_state(TASK_UNINTERRUPTIBLE);                \
326                 if (condition)                                          \
327                         break;                                          \
328                 spin_unlock_irq(&lock);                                 \
329                 cmd;                                                    \
330                 schedule();                                             \
331                 spin_lock_irq(&lock);                                   \
332         }                                                               \
333         current->state = TASK_RUNNING;                                  \
334         remove_wait_queue(&wq, &__wait);                                \
335 } while (0)
336
337 #define wait_event_lock_irq(wq, condition, lock, cmd)                   \
338 do {                                                                    \
339         if (condition)                                                  \
340                 break;                                                  \
341         __wait_event_lock_irq(wq, condition, lock, cmd);                \
342 } while (0)
343
344 #endif
345