Remove unnecessary code, use const where appropriate
[util-vserver.git] / lib / planetlab.c
index 4d85fb9..40ed5a7 100644 (file)
@@ -31,33 +31,49 @@ POSSIBILITY OF SUCH DAMAGE.
 
 */
 
+#ifdef HAVE_CONFIG_H
+#  include <config.h>
+#endif
+#include <stdio.h>
+#include <stdlib.h>
+#include <string.h>
 #include <errno.h>
 #include <stdint.h>
-#include <stdio.h>
+#include <stdarg.h>
 #include <unistd.h>
+#include <ctype.h>
 #include <sys/resource.h>
+#include <fcntl.h>
 
-#include "config.h"
-#include "planetlab.h"
-#include "sched_cmd.h"
-#include "virtual.h"
 #include "vserver.h"
+#include "planetlab.h"
 
 static int
-create_context(xid_t ctx, uint32_t flags, uint64_t bcaps)
+create_context(xid_t ctx, uint64_t bcaps)
 {
   struct vc_ctx_caps  vc_caps;
+  struct vc_net_flags  vc_nf;
+
+  /* Create network context */
+  if (vc_net_create(ctx) == VC_NOCTX) {
+    if (errno == EEXIST)
+      goto process;
+    return -1;
+  }
 
+  /* Make the network context persistent */
+  vc_nf.mask = vc_nf.flagword = VC_NXF_PERSISTENT;
+  if (vc_set_nflags(ctx, &vc_nf))
+    return -1;
+
+process:
   /*
    * Create context info - this sets the STATE_SETUP and STATE_INIT flags.
-   * Don't ever clear the STATE_INIT flag, that makes us the init task.
-   *
-   * XXX - the kernel code allows initial flags to be passed as an arg.
    */
   if (vc_ctx_create(ctx) == VC_NOCTX)
     return -1;
 
-  /* set capabilities - these don't take effect until SETUP flag is unset */
+  /* Set capabilities - these don't take effect until SETUP flag is unset */
   vc_caps.bcaps = bcaps;
   vc_caps.bmask = ~0ULL;  /* currently unused */
   vc_caps.ccaps = 0;      /* don't want any of these */
@@ -65,8 +81,10 @@ create_context(xid_t ctx, uint32_t flags, uint64_t bcaps)
   if (vc_set_ccaps(ctx, &vc_caps))
     return -1;
 
-  /* set default scheduling parameters */
-  pl_setsched(ctx, 1, 0);
+  if (pl_setsched(ctx, 1, 0) < 0) {
+    PERROR("pl_setsched(%u)", ctx);
+    exit(1);
+  }
 
   return 0;
 }
@@ -77,8 +95,10 @@ pl_setup_done(xid_t ctx)
   struct vc_ctx_flags  vc_flags;
 
   /* unset SETUP flag - this allows other processes to migrate */
-  vc_flags.mask = VC_VXF_STATE_SETUP;
-  vc_flags.flagword = 0;
+  /* set the PERSISTENT flag - so the context doesn't vanish */
+  /* Don't clear the STATE_INIT flag, as that would make us the init task. */
+  vc_flags.mask = VC_VXF_STATE_SETUP|VC_VXF_PERSISTENT;
+  vc_flags.flagword = VC_VXF_PERSISTENT;
   if (vc_set_cflags(ctx, &vc_flags))
     return -1;
 
@@ -88,9 +108,12 @@ pl_setup_done(xid_t ctx)
 #define RETRY_LIMIT  10
 
 int
-pl_chcontext(xid_t ctx, uint32_t flags, uint64_t bcaps)
+pl_chcontext(xid_t ctx, uint64_t bcaps, const struct sliver_resources *slr)
 {
   int  retry_count = 0;
+  int  net_migrated = 0;
+
+  pl_set_ulimits(slr);
 
   for (;;)
     {
@@ -102,7 +125,7 @@ pl_chcontext(xid_t ctx, uint32_t flags, uint64_t bcaps)
            return -1;
 
          /* context doesn't exist - create it */
-         if (create_context(ctx, flags, bcaps))
+         if (create_context(ctx, bcaps))
            {
              if (errno == EEXIST)
                /* another process beat us in a race */
@@ -132,8 +155,12 @@ pl_chcontext(xid_t ctx, uint32_t flags, uint64_t bcaps)
 
       /* context has been setup */
     migrate:
-      if (!vc_ctx_migrate(ctx))
-       break;  /* done */
+      if (net_migrated || !vc_net_migrate(ctx))
+       {
+         if (!vc_ctx_migrate(ctx, 0))
+           break;  /* done */
+         net_migrated = 1;
+       }
 
       /* context disappeared - retry */
     }
@@ -158,28 +185,178 @@ pl_setsched(xid_t ctx, uint32_t cpu_share, uint32_t cpu_sched_flags)
   uint32_t  new_flags;
 
   vc_sched.set_mask = (VC_VXSM_FILL_RATE | VC_VXSM_INTERVAL | VC_VXSM_TOKENS |
-                      VC_VXSM_TOKENS_MIN | VC_VXSM_TOKENS_MAX);
-  vc_sched.fill_rate = cpu_share;  /* tokens accumulated per interval */
-  vc_sched.interval = 1000;  /* milliseconds */
+                      VC_VXSM_TOKENS_MIN | VC_VXSM_TOKENS_MAX | VC_VXSM_MSEC |
+                      VC_VXSM_FILL_RATE2 | VC_VXSM_INTERVAL2 | VC_VXSM_FORCE |
+                      VC_VXSM_IDLE_TIME);
+  vc_sched.fill_rate = 0;
+  vc_sched.fill_rate2 = cpu_share;  /* tokens accumulated per interval */
+  vc_sched.interval = vc_sched.interval2 = 1000;  /* milliseconds */
   vc_sched.tokens = 100;     /* initial allocation of tokens */
   vc_sched.tokens_min = 50;  /* need this many tokens to run */
   vc_sched.tokens_max = 100;  /* max accumulated number of tokens */
 
+  if (cpu_share == (uint32_t)VC_LIM_KEEP)
+    vc_sched.set_mask &= ~(VC_VXSM_FILL_RATE|VC_VXSM_FILL_RATE2);
+
+  /* guaranteed CPU corresponds to SCHED_SHARE flag being cleared */
+  if (cpu_sched_flags & VS_SCHED_CPU_GUARANTEED) {
+    new_flags = 0;
+    vc_sched.fill_rate = vc_sched.fill_rate2;
+  }
+  else
+    new_flags = VC_VXF_SCHED_SHARE;
+
   VC_SYSCALL(vc_set_sched(ctx, &vc_sched));
 
-  /* get current flag values */
-  VC_SYSCALL(vc_get_cflags(ctx, &vc_flags));
+  vc_flags.mask = VC_VXF_SCHED_FLAGS;
+  vc_flags.flagword = new_flags | VC_VXF_SCHED_HARD;
+  VC_SYSCALL(vc_set_cflags(ctx, &vc_flags));
 
-  /* guaranteed CPU corresponds to SCHED_SHARE flag being cleared */
-  new_flags = (cpu_sched_flags & VS_SCHED_CPU_GUARANTEED
-              ? 0
-              : VC_VXF_SCHED_SHARE);
-  if ((vc_flags.flagword & VC_VXF_SCHED_SHARE) != new_flags)
-    {
-      vc_flags.mask = VC_VXF_SCHED_FLAGS;
-      vc_flags.flagword = new_flags | VC_VXF_SCHED_HARD;
-      VC_SYSCALL(vc_set_cflags(ctx, &vc_flags));
+  return 0;
+}
+
+struct pl_resources {
+       char *name;
+       unsigned long long *limit;
+};
+
+#define WHITESPACE(buffer,index,len)     \
+  while(isspace((int)buffer[index])) \
+       if (index < len) index++; else goto out;
+
+#define VSERVERCONF "/etc/vservers/"
+void
+pl_get_limits(const char *context, struct sliver_resources *slr)
+{
+  FILE *fb;
+  int cwd;
+  size_t len = strlen(VSERVERCONF) + strlen(context) + NULLBYTE_SIZE;
+  char *conf = (char *)malloc(len + strlen("rlimits/openfd.hard"));
+  struct pl_resources *r;
+  struct pl_resources sliver_list[] = {
+    {"sched/fill-rate2", &slr->vs_cpu},
+
+    {"rlimits/nproc.hard", &slr->vs_nproc.hard},
+    {"rlimits/nproc.soft", &slr->vs_nproc.soft},
+    {"rlimits/nproc.min", &slr->vs_nproc.min},
+  
+    {"rlimits/rss.hard", &slr->vs_rss.hard},
+    {"rlimits/rss.soft", &slr->vs_rss.soft},
+    {"rlimits/rss.min", &slr->vs_rss.min},
+  
+    {"rlimits/as.hard", &slr->vs_as.hard},
+    {"rlimits/as.soft", &slr->vs_as.soft},
+    {"rlimits/as.min", &slr->vs_as.min},
+  
+    {"rlimits/openfd.hard", &slr->vs_openfd.hard},
+    {"rlimits/openfd.soft", &slr->vs_openfd.soft},
+    {"rlimits/openfd.min", &slr->vs_openfd.min},
+
+    {0,0}
+  };
+
+  sprintf(conf, "%s%s", VSERVERCONF, context);
+
+  slr->vs_rss.hard = VC_LIM_KEEP;
+  slr->vs_rss.soft = VC_LIM_KEEP;
+  slr->vs_rss.min = VC_LIM_KEEP;
+
+  slr->vs_as.hard = VC_LIM_KEEP;
+  slr->vs_as.soft = VC_LIM_KEEP;
+  slr->vs_as.min = VC_LIM_KEEP;
+
+  slr->vs_nproc.hard = VC_LIM_KEEP;
+  slr->vs_nproc.soft = VC_LIM_KEEP;
+  slr->vs_nproc.min = VC_LIM_KEEP;
+
+  slr->vs_openfd.hard = VC_LIM_KEEP;
+  slr->vs_openfd.soft = VC_LIM_KEEP;
+  slr->vs_openfd.min = VC_LIM_KEEP;
+
+  cwd = open(".", O_RDONLY);
+  if (cwd == -1) {
+    perror("cannot get a handle on .");
+    goto out;
+  }
+  if (chdir(conf) == -1) {
+    fprintf(stderr, "cannot chdir to ");
+    perror(conf);
+    goto out_fd;
+  }
+
+  for (r = &sliver_list[0]; r->name; r++) {
+    char buf[1000];
+    fb = fopen(r->name, "r");
+    if (fb == NULL)
+      continue;
+    if (fgets(buf, sizeof(buf), fb) != NULL && isdigit(*buf))
+      *r->limit = atoi(buf);
+    fclose(fb);
+  }
+
+  fchdir(cwd);
+out_fd:
+  close(cwd);
+out:
+  free(conf);
+}
+
+int
+adjust_lim(const struct vc_rlimit *vcr, struct rlimit *lim)
+{
+  int adjusted = 0;
+  if (vcr->min != VC_LIM_KEEP) {
+    if (vcr->min > lim->rlim_cur) {
+      lim->rlim_cur = vcr->min;
+      adjusted = 1;
     }
+    if (vcr->min > lim->rlim_max) {
+      lim->rlim_max = vcr->min;
+      adjusted = 1;
+    }
+  }
 
-  return 0;
+  if (vcr->soft != VC_LIM_KEEP) {
+    switch (vcr->min != VC_LIM_KEEP) {
+    case 1:
+      if (vcr->soft < vcr->min)
+       break;
+    case 0:
+       lim->rlim_cur = vcr->soft;
+       adjusted = 1;
+    }
+  }
+
+  if (vcr->hard != VC_LIM_KEEP) {
+    switch (vcr->min != VC_LIM_KEEP) {
+    case 1:
+      if (vcr->hard < vcr->min)
+       break;
+    case 0:
+       lim->rlim_cur = vcr->hard;
+       adjusted = 1;
+    }
+  }
+  return adjusted;
+}
+
+static inline void
+set_one_ulimit(int resource, const struct vc_rlimit *limit)
+{
+  struct rlimit lim;
+  getrlimit(resource, &lim);
+  adjust_lim(limit, &lim);
+  setrlimit(resource, &lim);
+}
+
+void
+pl_set_ulimits(const struct sliver_resources *slr)
+{
+  if (!slr)
+    return;
+
+  set_one_ulimit(RLIMIT_RSS, &slr->vs_rss);
+  set_one_ulimit(RLIMIT_AS, &slr->vs_as);
+  set_one_ulimit(RLIMIT_NPROC, &slr->vs_nproc);
+  set_one_ulimit(RLIMIT_NOFILE, &slr->vs_openfd);
 }