This commit was manufactured by cvs2svn to create tag
[linux-2.6.git] / fs / lockd / clntlock.c
1 /*
2  * linux/fs/lockd/clntlock.c
3  *
4  * Lock handling for the client side NLM implementation
5  *
6  * Copyright (C) 1996, Olaf Kirch <okir@monad.swb.de>
7  */
8
9 #include <linux/module.h>
10 #include <linux/types.h>
11 #include <linux/time.h>
12 #include <linux/nfs_fs.h>
13 #include <linux/sunrpc/clnt.h>
14 #include <linux/sunrpc/svc.h>
15 #include <linux/lockd/lockd.h>
16 #include <linux/smp_lock.h>
17
18 #define NLMDBG_FACILITY         NLMDBG_CLIENT
19
20 /*
21  * Local function prototypes
22  */
23 static int                      reclaimer(void *ptr);
24
25 /*
26  * The following functions handle blocking and granting from the
27  * client perspective.
28  */
29
30 /*
31  * This is the representation of a blocked client lock.
32  */
33 struct nlm_wait {
34         struct nlm_wait *       b_next;         /* linked list */
35         wait_queue_head_t       b_wait;         /* where to wait on */
36         struct nlm_host *       b_host;
37         struct file_lock *      b_lock;         /* local file lock */
38         unsigned short          b_reclaim;      /* got to reclaim lock */
39         u32                     b_status;       /* grant callback status */
40 };
41
42 static struct nlm_wait *        nlm_blocked;
43
44 /*
45  * Block on a lock
46  */
47 int
48 nlmclnt_block(struct nlm_host *host, struct file_lock *fl, u32 *statp)
49 {
50         struct nlm_wait block, **head;
51         int             err;
52         u32             pstate;
53
54         block.b_host   = host;
55         block.b_lock   = fl;
56         init_waitqueue_head(&block.b_wait);
57         block.b_status = NLM_LCK_BLOCKED;
58         block.b_next   = nlm_blocked;
59         nlm_blocked    = &block;
60
61         /* Remember pseudo nsm state */
62         pstate = host->h_state;
63
64         /* Go to sleep waiting for GRANT callback. Some servers seem
65          * to lose callbacks, however, so we're going to poll from
66          * time to time just to make sure.
67          *
68          * For now, the retry frequency is pretty high; normally 
69          * a 1 minute timeout would do. See the comment before
70          * nlmclnt_lock for an explanation.
71          */
72         sleep_on_timeout(&block.b_wait, 30*HZ);
73         #warning race
74
75         for (head = &nlm_blocked; *head; head = &(*head)->b_next) {
76                 if (*head == &block) {
77                         *head = block.b_next;
78                         break;
79                 }
80         }
81
82         if (!signalled()) {
83                 *statp = block.b_status;
84                 return 0;
85         }
86
87         /* Okay, we were interrupted. Cancel the pending request
88          * unless the server has rebooted.
89          */
90         if (pstate == host->h_state && (err = nlmclnt_cancel(host, fl)) < 0)
91                 printk(KERN_NOTICE
92                         "lockd: CANCEL call failed (errno %d)\n", -err);
93
94         return -ERESTARTSYS;
95 }
96
97 /*
98  * The server lockd has called us back to tell us the lock was granted
99  */
100 u32
101 nlmclnt_grant(struct nlm_lock *lock)
102 {
103         struct nlm_wait *block;
104
105         /*
106          * Look up blocked request based on arguments. 
107          * Warning: must not use cookie to match it!
108          */
109         for (block = nlm_blocked; block; block = block->b_next) {
110                 if (nlm_compare_locks(block->b_lock, &lock->fl))
111                         break;
112         }
113
114         /* Ooops, no blocked request found. */
115         if (block == NULL)
116                 return nlm_lck_denied;
117
118         /* Alright, we found the lock. Set the return status and
119          * wake up the caller.
120          */
121         block->b_status = NLM_LCK_GRANTED;
122         wake_up(&block->b_wait);
123
124         return nlm_granted;
125 }
126
127 /*
128  * The following procedures deal with the recovery of locks after a
129  * server crash.
130  */
131
132 /*
133  * Mark the locks for reclaiming.
134  * FIXME: In 2.5 we don't want to iterate through any global file_lock_list.
135  *        Maintain NLM lock reclaiming lists in the nlm_host instead.
136  */
137 static
138 void nlmclnt_mark_reclaim(struct nlm_host *host)
139 {
140         struct file_lock *fl;
141         struct inode *inode;
142         struct list_head *tmp;
143
144         list_for_each(tmp, &file_lock_list) {
145                 fl = list_entry(tmp, struct file_lock, fl_link);
146
147                 inode = fl->fl_file->f_dentry->d_inode;
148                 if (inode->i_sb->s_magic != NFS_SUPER_MAGIC)
149                         continue;
150                 if (fl->fl_u.nfs_fl.host != host)
151                         continue;
152                 if (!(fl->fl_u.nfs_fl.flags & NFS_LCK_GRANTED))
153                         continue;
154                 fl->fl_u.nfs_fl.flags |= NFS_LCK_RECLAIM;
155         }
156 }
157
158 /*
159  * Someone has sent us an SM_NOTIFY. Ensure we bind to the new port number,
160  * that we mark locks for reclaiming, and that we bump the pseudo NSM state.
161  */
162 static inline
163 void nlmclnt_prepare_reclaim(struct nlm_host *host, u32 newstate)
164 {
165         host->h_monitored = 0;
166         host->h_nsmstate = newstate;
167         host->h_state++;
168         host->h_nextrebind = 0;
169         nlm_rebind_host(host);
170         nlmclnt_mark_reclaim(host);
171         dprintk("NLM: reclaiming locks for host %s", host->h_name);
172 }
173
174 /*
175  * Reclaim all locks on server host. We do this by spawning a separate
176  * reclaimer thread.
177  */
178 void
179 nlmclnt_recovery(struct nlm_host *host, u32 newstate)
180 {
181         if (host->h_reclaiming++) {
182                 if (host->h_nsmstate == newstate)
183                         return;
184                 nlmclnt_prepare_reclaim(host, newstate);
185         } else {
186                 nlmclnt_prepare_reclaim(host, newstate);
187                 nlm_get_host(host);
188                 __module_get(THIS_MODULE);
189                 if (kernel_thread(reclaimer, host, CLONE_KERNEL) < 0)
190                         module_put(THIS_MODULE);
191         }
192 }
193
194 static int
195 reclaimer(void *ptr)
196 {
197         struct nlm_host   *host = (struct nlm_host *) ptr;
198         struct nlm_wait   *block;
199         struct list_head *tmp;
200         struct file_lock *fl;
201         struct inode *inode;
202
203         daemonize("%s-reclaim", host->h_name);
204         allow_signal(SIGKILL);
205
206         /* This one ensures that our parent doesn't terminate while the
207          * reclaim is in progress */
208         lock_kernel();
209         lockd_up();
210
211         /* First, reclaim all locks that have been marked. */
212 restart:
213         list_for_each(tmp, &file_lock_list) {
214                 fl = list_entry(tmp, struct file_lock, fl_link);
215
216                 inode = fl->fl_file->f_dentry->d_inode;
217                 if (inode->i_sb->s_magic != NFS_SUPER_MAGIC)
218                         continue;
219                 if (fl->fl_u.nfs_fl.host != host)
220                         continue;
221                 if (!(fl->fl_u.nfs_fl.flags & NFS_LCK_RECLAIM))
222                         continue;
223
224                 fl->fl_u.nfs_fl.flags &= ~NFS_LCK_RECLAIM;
225                 nlmclnt_reclaim(host, fl);
226                 if (signalled())
227                         break;
228                 goto restart;
229         }
230
231         host->h_reclaiming = 0;
232
233         /* Now, wake up all processes that sleep on a blocked lock */
234         for (block = nlm_blocked; block; block = block->b_next) {
235                 if (block->b_host == host) {
236                         block->b_status = NLM_LCK_DENIED_GRACE_PERIOD;
237                         wake_up(&block->b_wait);
238                 }
239         }
240
241         /* Release host handle after use */
242         nlm_release_host(host);
243         lockd_down();
244         unlock_kernel();
245         module_put_and_exit(0);
246 }