vserver 2.0 rc7
[linux-2.6.git] / fs / aio.c
index 9980002..7afa222 100644 (file)
--- a/fs/aio.c
+++ b/fs/aio.c
@@ -1,6 +1,6 @@
 /*
  *     An async IO implementation for Linux
- *     Written by Benjamin LaHaise <bcrl@redhat.com>
+ *     Written by Benjamin LaHaise <bcrl@kvack.org>
  *
  *     Implements an efficient asynchronous io interface.
  *
@@ -40,9 +40,6 @@
 #define dprintk(x...)  do { ; } while (0)
 #endif
 
-long aio_run = 0; /* for testing only */
-long aio_wakeups = 0; /* for testing only */
-
 /*------ sysctl variables----*/
 atomic_t aio_nr = ATOMIC_INIT(0);      /* current system wide number of aio requests */
 unsigned aio_max_nr = 0x10000; /* system wide maximum number of aio requests */
@@ -58,7 +55,7 @@ static void aio_fput_routine(void *);
 static DECLARE_WORK(fput_work, aio_fput_routine, NULL);
 
 static DEFINE_SPINLOCK(fput_lock);
-LIST_HEAD(fput_head);
+static LIST_HEAD(fput_head);
 
 static void aio_kick_handler(void *);
 
@@ -290,7 +287,7 @@ static void aio_cancel_all(struct kioctx *ctx)
        spin_unlock_irq(&ctx->ctx_lock);
 }
 
-void wait_for_all_aios(struct kioctx *ctx)
+static void wait_for_all_aios(struct kioctx *ctx)
 {
        struct task_struct *tsk = current;
        DECLARE_WAITQUEUE(wait, tsk);
@@ -405,7 +402,6 @@ static struct kiocb fastcall *__aio_get_req(struct kioctx *ctx)
        req->ki_ctx = ctx;
        req->ki_cancel = NULL;
        req->ki_retry = NULL;
-       req->ki_obj.user = NULL;
        req->ki_dtor = NULL;
        req->private = NULL;
        INIT_LIST_HEAD(&req->ki_run_list);
@@ -451,11 +447,6 @@ static inline void really_put_req(struct kioctx *ctx, struct kiocb *req)
 {
        if (req->ki_dtor)
                req->ki_dtor(req);
-       req->ki_ctx = NULL;
-       req->ki_filp = NULL;
-       req->ki_obj.user = NULL;
-       req->ki_dtor = NULL;
-       req->private = NULL;
        kmem_cache_free(kiocb_cachep, req);
        ctx->reqs_active--;
 
@@ -592,7 +583,7 @@ static void use_mm(struct mm_struct *mm)
  * Comments: Called with ctx->ctx_lock held. This nests
  * task_lock instead ctx_lock.
  */
-void unuse_mm(struct mm_struct *mm)
+static void unuse_mm(struct mm_struct *mm)
 {
        struct task_struct *tsk = current;
 
@@ -623,7 +614,6 @@ static inline int __queue_kicked_iocb(struct kiocb *iocb)
        if (list_empty(&iocb->ki_run_list)) {
                list_add_tail(&iocb->ki_run_list,
                        &ctx->run_list);
-               iocb->ki_queued++;
                return 1;
        }
        return 0;
@@ -664,10 +654,8 @@ static ssize_t aio_run_iocb(struct kiocb *iocb)
        }
 
        if (!(iocb->ki_retried & 0xff)) {
-               pr_debug("%ld retry: %d of %d (kick %ld, Q %ld run %ld, wake %ld)\n",
-                       iocb->ki_retried,
-                       iocb->ki_nbytes - iocb->ki_left, iocb->ki_nbytes,
-                       iocb->ki_kicked, iocb->ki_queued, aio_run, aio_wakeups);
+               pr_debug("%ld retry: %d of %d\n", iocb->ki_retried,
+                       iocb->ki_nbytes - iocb->ki_left, iocb->ki_nbytes);
        }
 
        if (!(retry = iocb->ki_retry)) {
@@ -774,7 +762,6 @@ out:
 static int __aio_run_iocbs(struct kioctx *ctx)
 {
        struct kiocb *iocb;
-       int count = 0;
        LIST_HEAD(run_list);
 
        list_splice_init(&ctx->run_list, &run_list);
@@ -789,9 +776,7 @@ static int __aio_run_iocbs(struct kioctx *ctx)
                aio_run_iocb(iocb);
                if (__aio_put_req(ctx, iocb))  /* drop extra ref */
                        put_ioctx(ctx);
-               count++;
        }
-       aio_run++;
        if (!list_empty(&ctx->run_list))
                return 1;
        return 0;
@@ -879,7 +864,7 @@ static void aio_kick_handler(void *data)
  * and if required activate the aio work queue to process
  * it
  */
-void queue_kicked_iocb(struct kiocb *iocb)
+static void queue_kicked_iocb(struct kiocb *iocb)
 {
        struct kioctx   *ctx = iocb->ki_ctx;
        unsigned long flags;
@@ -890,10 +875,8 @@ void queue_kicked_iocb(struct kiocb *iocb)
        spin_lock_irqsave(&ctx->ctx_lock, flags);
        run = __queue_kicked_iocb(iocb);
        spin_unlock_irqrestore(&ctx->ctx_lock, flags);
-       if (run) {
+       if (run)
                aio_queue_work(ctx);
-               aio_wakeups++;
-       }
 }
 
 /*
@@ -913,7 +896,6 @@ void fastcall kick_iocb(struct kiocb *iocb)
                return;
        }
 
-       iocb->ki_kicked++;
        /* If its already kicked we shouldn't queue it again */
        if (!kiocbTryKick(iocb)) {
                queue_kicked_iocb(iocb);
@@ -984,7 +966,8 @@ int fastcall aio_complete(struct kiocb *iocb, long res, long res2)
 
        tail = info->tail;
        event = aio_ring_event(info, tail, KM_IRQ0);
-       tail = (tail + 1) % info->nr;
+       if (++tail >= info->nr)
+               tail = 0;
 
        event->obj = (u64)(unsigned long)iocb->ki_obj.user;
        event->data = iocb->ki_user_data;
@@ -1008,10 +991,8 @@ int fastcall aio_complete(struct kiocb *iocb, long res, long res2)
 
        pr_debug("added to ring %p at [%lu]\n", iocb, tail);
 
-       pr_debug("%ld retries: %d of %d (kicked %ld, Q %ld run %ld wake %ld)\n",
-               iocb->ki_retried,
-               iocb->ki_nbytes - iocb->ki_left, iocb->ki_nbytes,
-               iocb->ki_kicked, iocb->ki_queued, aio_run, aio_wakeups);
+       pr_debug("%ld retries: %d of %d\n", iocb->ki_retried,
+               iocb->ki_nbytes - iocb->ki_left, iocb->ki_nbytes);
 put_rq:
        /* everything turned out well, dispose of the aiocb. */
        ret = __aio_put_req(ctx, iocb);
@@ -1119,7 +1100,6 @@ static int read_events(struct kioctx *ctx,
        int                     i = 0;
        struct io_event         ent;
        struct aio_timeout      to;
-       int                     event_loop = 0; /* testing only */
        int                     retry = 0;
 
        /* needed to zero any padding within an entry (there shouldn't be 
@@ -1186,7 +1166,6 @@ retry:
                        if (to.timed_out)       /* Only check after read evt */
                                break;
                        schedule();
-                       event_loop++;
                        if (signal_pending(tsk)) {
                                ret = -EINTR;
                                break;
@@ -1214,9 +1193,6 @@ retry:
        if (timeout)
                clear_timeout(&to);
 out:
-       pr_debug("event loop executed %d times\n", event_loop);
-       pr_debug("aio_run %ld\n", aio_run);
-       pr_debug("aio_wakeups %ld\n", aio_wakeups);
        return i ? i : ret;
 }
 
@@ -1401,7 +1377,7 @@ static ssize_t aio_fsync(struct kiocb *iocb)
  *     Performs the initial checks and aio retry method
  *     setup for the kiocb at the time of io submission.
  */
-ssize_t aio_setup_iocb(struct kiocb *kiocb)
+static ssize_t aio_setup_iocb(struct kiocb *kiocb)
 {
        struct file *file = kiocb->ki_filp;
        ssize_t ret = 0;
@@ -1470,7 +1446,8 @@ ssize_t aio_setup_iocb(struct kiocb *kiocb)
  * because this callback isn't used for wait queues which
  * are nested inside ioctx lock (i.e. ctx->wait)
  */
-int aio_wake_function(wait_queue_t *wait, unsigned mode, int sync, void *key)
+static int aio_wake_function(wait_queue_t *wait, unsigned mode,
+                            int sync, void *key)
 {
        struct kiocb *iocb = container_of(wait, struct kiocb, ki_wait);
 
@@ -1514,8 +1491,7 @@ int fastcall io_submit_one(struct kioctx *ctx, struct iocb __user *user_iocb,
        }
 
        req->ki_filp = file;
-       iocb->aio_key = req->ki_key;
-       ret = put_user(iocb->aio_key, &user_iocb->aio_key);
+       ret = put_user(req->ki_key, &user_iocb->aio_key);
        if (unlikely(ret)) {
                dprintk("EFAULT: aio_key\n");
                goto out_put_req;
@@ -1530,13 +1506,7 @@ int fastcall io_submit_one(struct kioctx *ctx, struct iocb __user *user_iocb,
        req->ki_opcode = iocb->aio_lio_opcode;
        init_waitqueue_func_entry(&req->ki_wait, aio_wake_function);
        INIT_LIST_HEAD(&req->ki_wait.task_list);
-       req->ki_run_list.next = req->ki_run_list.prev = NULL;
-       req->ki_retry = NULL;
        req->ki_retried = 0;
-       req->ki_kicked = 0;
-       req->ki_queued = 0;
-       aio_run = 0;
-       aio_wakeups = 0;
 
        ret = aio_setup_iocb(req);
 
@@ -1544,10 +1514,14 @@ int fastcall io_submit_one(struct kioctx *ctx, struct iocb __user *user_iocb,
                goto out_put_req;
 
        spin_lock_irq(&ctx->ctx_lock);
-       list_add_tail(&req->ki_run_list, &ctx->run_list);
-       /* drain the run list */
-       while (__aio_run_iocbs(ctx))
-               ;
+       if (likely(list_empty(&ctx->run_list))) {
+               aio_run_iocb(req);
+       } else {
+               list_add_tail(&req->ki_run_list, &ctx->run_list);
+               /* drain the run list */
+               while (__aio_run_iocbs(ctx))
+                       ;
+       }
        spin_unlock_irq(&ctx->ctx_lock);
        aio_put_req(req);       /* drop extra ref to req */
        return 0;
@@ -1620,7 +1594,8 @@ asmlinkage long sys_io_submit(aio_context_t ctx_id, long nr,
  *     Finds a given iocb for cancellation.
  *     MUST be called with ctx->ctx_lock held.
  */
-struct kiocb *lookup_kiocb(struct kioctx *ctx, struct iocb __user *iocb, u32 key)
+static struct kiocb *lookup_kiocb(struct kioctx *ctx, struct iocb __user *iocb,
+                                 u32 key)
 {
        struct list_head *pos;
        /* TODO: use a hash or array, this sucks. */