fedora core 6 1.2949 + vserver 2.2.0
[linux-2.6.git] / drivers / s390 / cio / cio.c
index cbb86fa..ae1bf23 100644 (file)
@@ -2,8 +2,7 @@
  *  drivers/s390/cio/cio.c
  *   S/390 common I/O routines -- low level i/o calls
  *
- *    Copyright (C) 1999-2002 IBM Deutschland Entwicklung GmbH,
- *                           IBM Corporation
+ *    Copyright (C) IBM Corp. 1999,2006
  *    Author(s): Ingo Adlung (adlung@de.ibm.com)
  *              Cornelia Huck (cornelia.huck@de.ibm.com)
  *              Arnd Bergmann (arndb@de.ibm.com)
  */
 
 #include <linux/module.h>
-#include <linux/config.h>
 #include <linux/init.h>
 #include <linux/slab.h>
 #include <linux/device.h>
 #include <linux/kernel_stat.h>
 #include <linux/interrupt.h>
-
 #include <asm/cio.h>
 #include <asm/delay.h>
 #include <asm/irq.h>
-
+#include <asm/irq_regs.h>
+#include <asm/setup.h>
+#include <asm/reset.h>
 #include "airq.h"
 #include "cio.h"
 #include "css.h"
@@ -29,6 +28,7 @@
 #include "ioasm.h"
 #include "blacklist.h"
 #include "cio_debug.h"
+#include "../s390mach.h"
 
 debug_info_t *cio_debug_msg_id;
 debug_info_t *cio_debug_trace_id;
@@ -67,7 +67,7 @@ cio_debug_init (void)
                goto out_unregister;
        debug_register_view (cio_debug_msg_id, &debug_sprintf_view);
        debug_set_level (cio_debug_msg_id, 2);
-       cio_debug_trace_id = debug_register ("cio_trace", 16, 4, 8);
+       cio_debug_trace_id = debug_register ("cio_trace", 16, 4, 16);
        if (!cio_debug_trace_id)
                goto out_unregister;
        debug_register_view (cio_debug_trace_id, &debug_hex_ascii_view);
@@ -142,13 +142,13 @@ cio_tpi(void)
                return 1;
        local_bh_disable();
        irq_enter ();
-       spin_lock(&sch->lock);
+       spin_lock(sch->lock);
        memcpy (&sch->schib.scsw, &irb->scsw, sizeof (struct scsw));
        if (sch->driver && sch->driver->irq)
                sch->driver->irq(&sch->dev);
-       spin_unlock(&sch->lock);
+       spin_unlock(sch->lock);
        irq_exit ();
-       __local_bh_enable();
+       _local_bh_enable();
        return 1;
 }
 
@@ -193,7 +193,7 @@ cio_start_key (struct subchannel *sch,      /* subchannel structure */
        sch->orb.pfch = sch->options.prefetch == 0;
        sch->orb.spnd = sch->options.suspend;
        sch->orb.ssic = sch->options.suspend && sch->options.inter;
-       sch->orb.lpm = (lpm != 0) ? (lpm & sch->opm) : sch->lpm;
+       sch->orb.lpm = (lpm != 0) ? lpm : sch->lpm;
 #ifdef CONFIG_64BIT
        /*
         * for 64 bit we always support 64 bit IDAWs with 4k page size only
@@ -414,6 +414,8 @@ cio_enable_subchannel (struct subchannel *sch, unsigned int isc)
        CIO_TRACE_EVENT (2, "ensch");
        CIO_TRACE_EVENT (2, sch->dev.bus_id);
 
+       if (sch_is_pseudo_sch(sch))
+               return -EINVAL;
        ccode = stsch (sch->schid, &sch->schib);
        if (ccode)
                return -ENODEV;
@@ -461,6 +463,8 @@ cio_disable_subchannel (struct subchannel *sch)
        CIO_TRACE_EVENT (2, "dissch");
        CIO_TRACE_EVENT (2, sch->dev.bus_id);
 
+       if (sch_is_pseudo_sch(sch))
+               return 0;
        ccode = stsch (sch->schid, &sch->schib);
        if (ccode == 3)         /* Not operational. */
                return -ENODEV;
@@ -495,6 +499,15 @@ cio_disable_subchannel (struct subchannel *sch)
        return ret;
 }
 
+int cio_create_sch_lock(struct subchannel *sch)
+{
+       sch->lock = kmalloc(sizeof(spinlock_t), GFP_KERNEL);
+       if (!sch->lock)
+               return -ENOMEM;
+       spin_lock_init(sch->lock);
+       return 0;
+}
+
 /*
  * cio_validate_subchannel()
  *
@@ -512,6 +525,7 @@ cio_validate_subchannel (struct subchannel *sch, struct subchannel_id schid)
 {
        char dbf_txt[15];
        int ccode;
+       int err;
 
        sprintf (dbf_txt, "valsch%x", schid.sch_no);
        CIO_TRACE_EVENT (4, dbf_txt);
@@ -519,8 +533,15 @@ cio_validate_subchannel (struct subchannel *sch, struct subchannel_id schid)
        /* Nuke all fields. */
        memset(sch, 0, sizeof(struct subchannel));
 
-       spin_lock_init(&sch->lock);
-
+       sch->schid = schid;
+       if (cio_is_console(schid)) {
+               sch->lock = cio_get_console_lock();
+       } else {
+               err = cio_create_sch_lock(sch);
+               if (err)
+                       goto out;
+       }
+       mutex_init(&sch->reg_mutex);
        /* Set a name for the subchannel */
        snprintf (sch->dev.bus_id, BUS_ID_SIZE, "0.%x.%04x", schid.ssid,
                  schid.sch_no);
@@ -532,10 +553,10 @@ cio_validate_subchannel (struct subchannel *sch, struct subchannel_id schid)
         *  is not valid.
         */
        ccode = stsch_err (schid, &sch->schib);
-       if (ccode)
-               return (ccode == 3) ? -ENXIO : ccode;
-
-       sch->schid = schid;
+       if (ccode) {
+               err = (ccode == 3) ? -ENXIO : ccode;
+               goto out;
+       }
        /* Copy subchannel type from path management control word. */
        sch->st = sch->schib.pmcw.st;
 
@@ -548,14 +569,16 @@ cio_validate_subchannel (struct subchannel *sch, struct subchannel_id schid)
                          "non-I/O subchannel type %04X\n",
                          sch->schid.ssid, sch->schid.sch_no, sch->st);
                /* We stop here for non-io subchannels. */
-               return sch->st;
+               err = sch->st;
+               goto out;
        }
 
        /* Initialization for io subchannels. */
-       if (!sch->schib.pmcw.dnv)
+       if (!sch->schib.pmcw.dnv) {
                /* io subchannel but device number is invalid. */
-               return -ENODEV;
-
+               err = -ENODEV;
+               goto out;
+       }
        /* Devno is valid. */
        if (is_blacklisted (sch->schid.ssid, sch->schib.pmcw.dev)) {
                /*
@@ -565,15 +588,13 @@ cio_validate_subchannel (struct subchannel *sch, struct subchannel_id schid)
                CIO_MSG_EVENT(0, "Blacklisted device detected "
                              "at devno %04X, subchannel set %x\n",
                              sch->schib.pmcw.dev, sch->schid.ssid);
-               return -ENODEV;
+               err = -ENODEV;
+               goto out;
        }
        sch->opm = 0xff;
        if (!cio_is_console(sch->schid))
                chsc_validate_chpids(sch);
-       sch->lpm = sch->schib.pmcw.pim &
-               sch->schib.pmcw.pam &
-               sch->schib.pmcw.pom &
-               sch->opm;
+       sch->lpm = sch->schib.pmcw.pam & sch->opm;
 
        CIO_DEBUG(KERN_INFO, 0,
                  "Detected device %04x on subchannel 0.%x.%04X"
@@ -596,6 +617,11 @@ cio_validate_subchannel (struct subchannel *sch, struct subchannel_id schid)
        if ((sch->lpm & (sch->lpm - 1)) != 0)
                sch->schib.pmcw.mp = 1; /* multipath mode */
        return 0;
+out:
+       if (!cio_is_console(schid))
+               kfree(sch->lock);
+       sch->lock = NULL;
+       return err;
 }
 
 /*
@@ -610,15 +636,17 @@ do_IRQ (struct pt_regs *regs)
        struct tpi_info *tpi_info;
        struct subchannel *sch;
        struct irb *irb;
+       struct pt_regs *old_regs;
 
-       irq_enter ();
+       old_regs = set_irq_regs(regs);
+       irq_enter();
        asm volatile ("mc 0,0");
        if (S390_lowcore.int_clock >= S390_lowcore.jiffy_timer)
                /**
                 * Make sure that the i/o interrupt did not "overtake"
                 * the last HZ timer interrupt.
                 */
-               account_ticks(regs);
+               account_ticks();
        /*
         * Get interrupt information from lowcore
         */
@@ -636,7 +664,7 @@ do_IRQ (struct pt_regs *regs)
                }
                sch = (struct subchannel *)(unsigned long)tpi_info->intparm;
                if (sch)
-                       spin_lock(&sch->lock);
+                       spin_lock(sch->lock);
                /* Store interrupt response block to lowcore. */
                if (tsch (tpi_info->schid, irb) == 0 && sch) {
                        /* Keep subchannel information word up to date. */
@@ -647,7 +675,7 @@ do_IRQ (struct pt_regs *regs)
                                sch->driver->irq(&sch->dev);
                }
                if (sch)
-                       spin_unlock(&sch->lock);
+                       spin_unlock(sch->lock);
                /*
                 * Are more interrupts pending?
                 * If so, the tpi instruction will update the lowcore
@@ -656,7 +684,8 @@ do_IRQ (struct pt_regs *regs)
                 * out of the sie which costs more cycles than it saves.
                 */
        } while (!MACHINE_IS_VM && tpi (NULL) != 0);
-       irq_exit ();
+       irq_exit();
+       set_irq_regs(old_regs);
 }
 
 #ifdef CONFIG_CCW_CONSOLE
@@ -685,10 +714,10 @@ wait_cons_dev (void)
        __ctl_load (cr6, 6, 6);
 
        do {
-               spin_unlock(&console_subchannel.lock);
+               spin_unlock(console_subchannel.lock);
                if (!cio_tpi())
                        cpu_relax();
-               spin_lock(&console_subchannel.lock);
+               spin_lock(console_subchannel.lock);
        } while (console_subchannel.schib.scsw.actl != 0);
        /*
         * restore previous isc value
@@ -798,7 +827,7 @@ struct subchannel *
 cio_get_console_subchannel(void)
 {
        if (!console_subchannel_in_use)
-               return 0;
+               return NULL;
        return &console_subchannel;
 }
 
@@ -841,13 +870,36 @@ __clear_subchannel_easy(struct subchannel_id schid)
        return -EBUSY;
 }
 
-extern void do_reipl(unsigned long devno);
-static int
-__shutdown_subchannel_easy(struct subchannel_id schid, void *data)
+static int pgm_check_occured;
+
+static void cio_reset_pgm_check_handler(void)
+{
+       pgm_check_occured = 1;
+}
+
+static int stsch_reset(struct subchannel_id schid, volatile struct schib *addr)
+{
+       int rc;
+
+       pgm_check_occured = 0;
+       s390_reset_pgm_handler = cio_reset_pgm_check_handler;
+       rc = stsch(schid, addr);
+       s390_reset_pgm_handler = NULL;
+
+       /* The program check handler could have changed pgm_check_occured */
+       barrier();
+
+       if (pgm_check_occured)
+               return -EIO;
+       else
+               return rc;
+}
+
+static int __shutdown_subchannel_easy(struct subchannel_id schid, void *data)
 {
        struct schib schib;
 
-       if (stsch_err(schid, &schib))
+       if (stsch_reset(schid, &schib))
                return -ENXIO;
        if (!schib.pmcw.ena)
                return 0;
@@ -864,17 +916,155 @@ __shutdown_subchannel_easy(struct subchannel_id schid, void *data)
        return 0;
 }
 
-void
-clear_all_subchannels(void)
+static atomic_t chpid_reset_count;
+
+static void s390_reset_chpids_mcck_handler(void)
+{
+       struct crw crw;
+       struct mci *mci;
+
+       /* Check for pending channel report word. */
+       mci = (struct mci *)&S390_lowcore.mcck_interruption_code;
+       if (!mci->cp)
+               return;
+       /* Process channel report words. */
+       while (stcrw(&crw) == 0) {
+               /* Check for responses to RCHP. */
+               if (crw.slct && crw.rsc == CRW_RSC_CPATH)
+                       atomic_dec(&chpid_reset_count);
+       }
+}
+
+#define RCHP_TIMEOUT (30 * USEC_PER_SEC)
+static void css_reset(void)
+{
+       int i, ret;
+       unsigned long long timeout;
+
+       /* Reset subchannels. */
+       for_each_subchannel(__shutdown_subchannel_easy,  NULL);
+       /* Reset channel paths. */
+       s390_reset_mcck_handler = s390_reset_chpids_mcck_handler;
+       /* Enable channel report machine checks. */
+       __ctl_set_bit(14, 28);
+       /* Temporarily reenable machine checks. */
+       local_mcck_enable();
+       for (i = 0; i <= __MAX_CHPID; i++) {
+               ret = rchp(i);
+               if ((ret == 0) || (ret == 2))
+                       /*
+                        * rchp either succeeded, or another rchp is already
+                        * in progress. In either case, we'll get a crw.
+                        */
+                       atomic_inc(&chpid_reset_count);
+       }
+       /* Wait for machine check for all channel paths. */
+       timeout = get_clock() + (RCHP_TIMEOUT << 12);
+       while (atomic_read(&chpid_reset_count) != 0) {
+               if (get_clock() > timeout)
+                       break;
+               cpu_relax();
+       }
+       /* Disable machine checks again. */
+       local_mcck_disable();
+       /* Disable channel report machine checks. */
+       __ctl_clear_bit(14, 28);
+       s390_reset_mcck_handler = NULL;
+}
+
+static struct reset_call css_reset_call = {
+       .fn = css_reset,
+};
+
+static int __init init_css_reset_call(void)
+{
+       atomic_set(&chpid_reset_count, 0);
+       register_reset_call(&css_reset_call);
+       return 0;
+}
+
+arch_initcall(init_css_reset_call);
+
+struct sch_match_id {
+       struct subchannel_id schid;
+       struct ccw_dev_id devid;
+       int rc;
+};
+
+static int __reipl_subchannel_match(struct subchannel_id schid, void *data)
+{
+       struct schib schib;
+       struct sch_match_id *match_id = data;
+
+       if (stsch_reset(schid, &schib))
+               return -ENXIO;
+       if (schib.pmcw.dnv &&
+           (schib.pmcw.dev == match_id->devid.devno) &&
+           (schid.ssid == match_id->devid.ssid)) {
+               match_id->schid = schid;
+               match_id->rc = 0;
+               return 1;
+       }
+       return 0;
+}
+
+static int reipl_find_schid(struct ccw_dev_id *devid,
+                           struct subchannel_id *schid)
 {
-       local_irq_disable();
-       for_each_subchannel(__shutdown_subchannel_easy, NULL);
+       struct sch_match_id match_id;
+
+       match_id.devid = *devid;
+       match_id.rc = -ENODEV;
+       for_each_subchannel(__reipl_subchannel_match, &match_id);
+       if (match_id.rc == 0)
+               *schid = match_id.schid;
+       return match_id.rc;
 }
 
+extern void do_reipl_asm(__u32 schid);
+
 /* Make sure all subchannels are quiet before we re-ipl an lpar. */
-void
-reipl(unsigned long devno)
+void reipl_ccw_dev(struct ccw_dev_id *devid)
 {
-       clear_all_subchannels();
-       do_reipl(devno);
+       struct subchannel_id schid;
+
+       s390_reset_system();
+       if (reipl_find_schid(devid, &schid) != 0)
+               panic("IPL Device not found\n");
+       do_reipl_asm(*((__u32*)&schid));
+}
+
+extern struct schib ipl_schib;
+
+/*
+ * ipl_save_parameters gets called very early. It is not allowed to access
+ * anything in the bss section at all. The bss section is not cleared yet,
+ * but may contain some ipl parameters written by the firmware.
+ * These parameters (if present) are copied to 0x2000.
+ * To avoid corruption of the ipl parameters, all variables used by this
+ * function must reside on the stack or in the data section.
+ */
+void ipl_save_parameters(void)
+{
+       struct subchannel_id schid;
+       unsigned int *ipl_ptr;
+       void *src, *dst;
+
+       schid = *(struct subchannel_id *)__LC_SUBCHANNEL_ID;
+       if (!schid.one)
+               return;
+       if (stsch(schid, &ipl_schib))
+               return;
+       if (!ipl_schib.pmcw.dnv)
+               return;
+       ipl_devno = ipl_schib.pmcw.dev;
+       ipl_flags |= IPL_DEVNO_VALID;
+       if (!ipl_schib.pmcw.qf)
+               return;
+       ipl_flags |= IPL_PARMBLOCK_VALID;
+       ipl_ptr = (unsigned int *)__LC_IPL_PARMBLOCK_PTR;
+       src = (void *)(unsigned long)*ipl_ptr;
+       dst = (void *)IPL_PARMBLOCK_ORIGIN;
+       memmove(dst, src, PAGE_SIZE);
+       *ipl_ptr = IPL_PARMBLOCK_ORIGIN;
 }