fix coresched locating cgroup and reduce verbosity
[nodemanager.git] / sliver_lxc.py
1 #
2
3 """LXC slivers"""
4
5 import subprocess
6 import sys
7 import time
8 import os, os.path
9 import grp
10 from pwd import getpwnam
11 from string import Template
12
13 # vsys probably should not be a plugin
14 # the thing is, the right way to handle stuff would be that
15 # if slivers get created by doing a,b,c
16 # then they should be deleted by doing c,b,a
17 # the current ordering model for vsys plugins completely fails to capture that
18 from plugins.vsys import removeSliverFromVsys, startService as vsysStartService
19
20 import libvirt
21
22 import logger
23 import plnode.bwlimit as bwlimit
24 from initscript import Initscript
25 from account import Account
26 from sliver_libvirt import Sliver_Libvirt
27
28 BTRFS_TIMEOUT = 15*60
29
30 class Sliver_LXC(Sliver_Libvirt, Initscript):
31     """This class wraps LXC commands"""
32
33     SHELL = '/usr/sbin/vsh'
34     TYPE = 'sliver.LXC'
35     # Need to add a tag at myplc to actually use this account
36     # type = 'sliver.LXC'
37
38     REF_IMG_BASE_DIR = '/vservers/.lvref'
39     CON_BASE_DIR     = '/vservers'
40
41     def __init__(self, rec):
42         name=rec['name']
43         Sliver_Libvirt.__init__(self,rec)
44         Initscript.__init__(self,name)
45
46     def configure(self, rec):
47         logger.log('========== sliver_lxc.configure {}'.format(self.name))
48         Sliver_Libvirt.configure(self, rec)
49
50         # in case we update nodemanager..
51         self.install_and_enable_vinit()
52         # do the configure part from Initscript
53         Initscript.configure(self, rec)
54
55     # remember configure() always gets called *before* start()
56     # in particular the slice initscript
57     # is expected to be in place already at this point
58     def start(self, delay=0):
59         logger.log('==================== sliver_lxc.start {}'.format(self.name))
60         if 'enabled' in self.rspec and self.rspec['enabled'] <= 0:
61             logger.log('sliver_lxc: not starting %s, is not enabled'%self.name)
62             return
63         # the generic /etc/init.d/vinit script is permanently refreshed, and enabled
64         self.install_and_enable_vinit()
65         # expose .ssh for omf_friendly slivers
66         if 'tags' in self.rspec and 'omf_control' in self.rspec['tags']:
67             Account.mount_ssh_dir(self.name)
68         Sliver_Libvirt.start(self, delay)
69         # if a change has occured in the slice initscript, reflect this in /etc/init.d/vinit.slice
70         self.refresh_slice_vinit()
71
72     def rerun_slice_vinit(self):
73         """This is called at startup, and whenever the initscript code changes"""
74         logger.log("sliver_lxc.rerun_slice_vinit {}".format(self.name))
75         plain = "virsh -c lxc:/// lxc-enter-namespace --noseclabel -- {} /usr/bin/systemctl --system daemon-reload"\
76             .format(self.name)
77         command = plain.split()
78         logger.log_call(command, timeout=3)
79         plain = "virsh -c lxc:/// lxc-enter-namespace --noseclabel -- {} /usr/bin/systemctl restart vinit.service"\
80             .format(self.name)
81         command = plain.split()
82         logger.log_call(command, timeout=3)
83                 
84         
85     @staticmethod
86     def create(name, rec=None):
87         '''
88         Create dirs, copy fs image, lxc_create
89         '''
90         logger.verbose('sliver_lxc: %s create' % name)
91         conn = Sliver_Libvirt.getConnection(Sliver_LXC.TYPE)
92
93         vref = rec['vref']
94         if vref is None:
95             vref = "lxc-f18-x86_64"
96             logger.log("sliver_libvirt: %s: WARNING - no vref attached, using hard-wired default %s" % (name,vref))
97
98         # compute guest arch from vref
99         # essentially we want x86_64 (default) or i686 here for libvirt
100         try:
101             (x, y, arch) = vref.split('-')
102             arch = "x86_64" if arch.find("64")>=0 else "i686"
103         except:
104             arch = 'x86_64'
105
106         # Get the type of image from vref myplc tags specified as:
107         # pldistro = lxc
108         # fcdistro = squeeze
109         # arch x86_64
110
111         arch = 'x86_64'
112         tags = rec['rspec']['tags']
113         if 'arch' in tags:
114             arch = tags['arch']
115             if arch == 'i386':
116                 arch = 'i686'
117
118
119
120
121         refImgDir    = os.path.join(Sliver_LXC.REF_IMG_BASE_DIR, vref)
122         containerDir = os.path.join(Sliver_LXC.CON_BASE_DIR, name)
123
124         # check the template exists -- there's probably a better way..
125         if not os.path.isdir(refImgDir):
126             logger.log('sliver_lxc: %s: ERROR Could not create sliver - reference image %s not found' % (name,vref))
127             logger.log('sliver_lxc: %s: ERROR Expected reference image in %s'%(name,refImgDir))
128             return
129
130 # this hopefully should be fixed now
131 #        # in fedora20 we have some difficulty in properly cleaning up /vservers/<slicename>
132 #        # also note that running e.g. btrfs subvolume create /vservers/.lvref/image /vservers/foo
133 #        # behaves differently, whether /vservers/foo exists or not:
134 #        # if /vservers/foo does not exist, it creates /vservers/foo
135 #        # but if it does exist, then       it creates /vservers/foo/image !!
136 #        # so we need to check the expected container rootfs does not exist yet
137 #        # this hopefully could be removed in a future release
138 #        if os.path.exists (containerDir):
139 #            logger.log("sliver_lxc: %s: WARNING cleaning up pre-existing %s"%(name,containerDir))
140 #            command = ['btrfs', 'subvolume', 'delete', containerDir]
141 #            logger.log_call(command, BTRFS_TIMEOUT)
142 #            # re-check
143 #            if os.path.exists (containerDir):
144 #                logger.log('sliver_lxc: %s: ERROR Could not create sliver - could not clean up empty %s'%(name,containerDir))
145 #                return
146
147         # Snapshot the reference image fs
148         # this assumes the reference image is in its own subvolume
149         command = ['btrfs', 'subvolume', 'snapshot', refImgDir, containerDir]
150         if not logger.log_call(command, timeout=BTRFS_TIMEOUT):
151             logger.log('sliver_lxc: ERROR Could not create BTRFS snapshot at', containerDir)
152             return
153         command = ['chmod', '755', containerDir]
154         logger.log_call(command)
155
156         # TODO: set quotas...
157
158         # Set hostname. A valid hostname cannot have '_'
159         #with open(os.path.join(containerDir, 'etc/hostname'), 'w') as f:
160         #    print >>f, name.replace('_', '-')
161
162         # Add slices group if not already present
163         try:
164             group = grp.getgrnam('slices')
165         except:
166             command = ['/usr/sbin/groupadd', 'slices']
167             logger.log_call(command)
168
169         # Add unix account (TYPE is specified in the subclass)
170         command = ['/usr/sbin/useradd', '-g', 'slices', '-s', Sliver_LXC.SHELL, name, '-p', '*']
171         logger.log_call(command)
172         command = ['mkdir', '/home/%s/.ssh'%name]
173         logger.log_call(command)
174
175         # Create PK pair keys to connect from the host to the guest without
176         # password... maybe remove the need for authentication inside the
177         # guest?
178         command = ['su', '-s', '/bin/bash', '-c', 'ssh-keygen -t rsa -N "" -f /home/%s/.ssh/id_rsa'%(name)]
179         logger.log_call(command)
180
181         command = ['chown', '-R', '%s.slices'%name, '/home/%s/.ssh'%name]
182         logger.log_call(command)
183
184         command = ['mkdir', '%s/root/.ssh'%containerDir]
185         logger.log_call(command)
186
187         command = ['cp', '/home/%s/.ssh/id_rsa.pub'%name, '%s/root/.ssh/authorized_keys'%containerDir]
188         logger.log_call(command)
189
190         logger.log("creating /etc/slicename file in %s" % os.path.join(containerDir,'etc/slicename'))
191         try:
192             file(os.path.join(containerDir,'etc/slicename'), 'w').write(name)
193         except:
194             logger.log_exc("exception while creating /etc/slicename")
195
196         try:
197             file(os.path.join(containerDir,'etc/slicefamily'), 'w').write(vref)
198         except:
199             logger.log_exc("exception while creating /etc/slicefamily")
200
201         uid = None
202         try:
203             uid = getpwnam(name).pw_uid
204         except KeyError:
205             # keyerror will happen if user id was not created successfully
206             logger.log_exc("exception while getting user id")
207
208         if uid is not None:
209             logger.log("uid is %d" % uid)
210             command = ['mkdir', '%s/home/%s' % (containerDir, name)]
211             logger.log_call(command)
212             command = ['chown', name, '%s/home/%s' % (containerDir, name)]
213             logger.log_call(command)
214             etcpasswd = os.path.join(containerDir, 'etc/passwd')
215             etcgroup = os.path.join(containerDir, 'etc/group')
216             if os.path.exists(etcpasswd):
217                 # create all accounts with gid=1001 - i.e. 'slices' like it is in the root context
218                 slices_gid=1001
219                 logger.log("adding user %(name)s id %(uid)d gid %(slices_gid)d to %(etcpasswd)s" % (locals()))
220                 try:
221                     file(etcpasswd,'a').write("%(name)s:x:%(uid)d:%(slices_gid)d::/home/%(name)s:/bin/bash\n" % locals())
222                 except:
223                     logger.log_exc("exception while updating %s"%etcpasswd)
224                 logger.log("adding group slices with gid %(slices_gid)d to %(etcgroup)s"%locals())
225                 try:
226                     file(etcgroup,'a').write("slices:x:%(slices_gid)d\n"%locals())
227                 except:
228                     logger.log_exc("exception while updating %s"%etcgroup)
229             sudoers = os.path.join(containerDir, 'etc/sudoers')
230             if os.path.exists(sudoers):
231                 try:
232                     file(sudoers,'a').write("%s ALL=(ALL) NOPASSWD: ALL\n" % name)
233                 except:
234                     logger.log_exc("exception while updating /etc/sudoers")
235
236         # customizations for the user environment - root or slice uid
237         # we save the whole business in /etc/planetlab.profile
238         # and source this file for both root and the slice uid's .profile
239         # prompt for slice owner, + LD_PRELOAD for transparently wrap bind
240         pl_profile=os.path.join(containerDir,"etc/planetlab.profile")
241         ld_preload_text="""# by default, we define this setting so that calls to bind(2),
242 # when invoked on 0.0.0.0, get transparently redirected to the public interface of this node
243 # see https://svn.planet-lab.org/wiki/LxcPortForwarding"""
244         usrmove_path_text="""# VM's before Features/UsrMove need /bin and /sbin in their PATH"""
245         usrmove_path_code="""
246 pathmunge () {
247         if ! echo $PATH | /bin/egrep -q "(^|:)$1($|:)" ; then
248            if [ "$2" = "after" ] ; then
249               PATH=$PATH:$1
250            else
251               PATH=$1:$PATH
252            fi
253         fi
254 }
255 pathmunge /bin after
256 pathmunge /sbin after
257 unset pathmunge
258 """
259         with open(pl_profile,'w') as f:
260             f.write("export PS1='%s@\H \$ '\n"%(name))
261             f.write("%s\n"%ld_preload_text)
262             f.write("export LD_PRELOAD=/etc/planetlab/lib/bind_public.so\n")
263             f.write("%s\n"%usrmove_path_text)
264             f.write("%s\n"%usrmove_path_code)
265
266         # make sure this file is sourced from both root's and slice's .profile
267         enforced_line = "[ -f /etc/planetlab.profile ] && source /etc/planetlab.profile\n"
268         for path in [ 'root/.profile', 'home/%s/.profile'%name ]:
269             from_root=os.path.join(containerDir,path)
270             # if dir is not yet existing let's forget it for now
271             if not os.path.isdir(os.path.dirname(from_root)): continue
272             found=False
273             try:
274                 contents=file(from_root).readlines()
275                 for content in contents:
276                     if content==enforced_line: found=True
277             except IOError: pass
278             if not found:
279                 with open(from_root,"a") as user_profile:
280                     user_profile.write(enforced_line)
281                 # in case we create the slice's .profile when writing
282                 if from_root.find("/home")>=0:
283                     command=['chown','%s:slices'%name,from_root]
284                     logger.log_call(command)
285
286         # Lookup for xid and create template after the user is created so we
287         # can get the correct xid based on the name of the slice
288         xid = bwlimit.get_xid(name)
289
290         # Template for libvirt sliver configuration
291         template_filename_sliceimage = os.path.join(Sliver_LXC.REF_IMG_BASE_DIR,'lxc_template.xml')
292         if os.path.isfile (template_filename_sliceimage):
293             logger.log("WARNING: using compat template %s"%template_filename_sliceimage)
294             template_filename=template_filename_sliceimage
295         else:
296             logger.log("Cannot find XML template %s"%template_filename_sliceimage)
297             return
298
299         interfaces = Sliver_Libvirt.get_interfaces_xml(rec)
300
301         try:
302             with open(template_filename) as f:
303                 template = Template(f.read())
304                 xml  = template.substitute(name=name, xid=xid, interfaces=interfaces, arch=arch)
305         except IOError:
306             logger.log('Failed to parse or use XML template file %s'%template_filename)
307             return
308
309         # Lookup for the sliver before actually
310         # defining it, just in case it was already defined.
311         try:
312             dom = conn.lookupByName(name)
313         except:
314             dom = conn.defineXML(xml)
315         logger.verbose('lxc_create: %s -> %s'%(name, Sliver_Libvirt.dom_details(dom)))
316
317
318     @staticmethod
319     def destroy(name):
320         # umount .ssh directory - only if mounted
321         Account.umount_ssh_dir(name)
322         logger.verbose ('sliver_lxc: %s destroy'%(name))
323         conn = Sliver_Libvirt.getConnection(Sliver_LXC.TYPE)
324
325         containerDir = Sliver_LXC.CON_BASE_DIR + '/%s'%(name)
326
327         try:
328             # Destroy libvirt domain
329             dom = conn.lookupByName(name)
330         except:
331             logger.verbose('sliver_lxc.destroy: Domain %s does not exist!' % name)
332             return
333
334         # Slivers with vsys running will fail the subvolume delete
335         # removeSliverFromVsys return True if it stops vsys, telling us to start it again later
336         vsys_stopped = removeSliverFromVsys (name)
337
338         try:
339             logger.log("sliver_lxc.destroy: destroying domain %s"%name)
340             dom.destroy()
341         except:
342             logger.verbose('sliver_lxc.destroy: Domain %s not running... continuing.' % name)
343
344         try:
345             logger.log("sliver_lxc.destroy: undefining domain %s"%name)
346             dom.undefine()
347         except:
348             logger.verbose('sliver_lxc.destroy: Domain %s is not defined... continuing.' % name)
349
350         # Remove user after destroy domain to force logout
351         command = ['/usr/sbin/userdel', '-f', '-r', name]
352         logger.log_call(command)
353
354         # Remove rootfs of destroyed domain
355         command = ['/usr/bin/rm', '-rf', containerDir]
356         logger.log_call(command, timeout=BTRFS_TIMEOUT)
357
358         # ???
359         logger.log("-TMP-ls-l %s"%name)
360         command = ['ls', '-lR', containerDir]
361         logger.log_call(command)
362         logger.log("-TMP-vsys-status")
363         command = ['/usr/bin/systemctl', 'status', 'vsys']
364         logger.log_call(command)
365         # ???
366
367         # Remove rootfs of destroyed domain
368         command = ['btrfs', 'subvolume', 'delete', containerDir]
369         logger.log_call(command, timeout=BTRFS_TIMEOUT)
370
371         # For some reason I am seeing this :
372         #log_call: running command btrfs subvolume delete /vservers/inri_sl1
373         #log_call: ERROR: cannot delete '/vservers/inri_sl1' - Device or resource busy
374         #log_call: Delete subvolume '/vservers/inri_sl1'
375         #log_call:end command (btrfs subvolume delete /vservers/inri_sl1) returned with code 1
376         #
377         # something must have an open handle to a file in there, but I can't find out what it is
378         # the following code aims at gathering data on what is going on in the system at this point in time
379         # note that some time later (typically when the sliver gets re-created) the same
380         # attempt at deleting the subvolume does work
381         # also lsof never shows anything relevant; this is painful..
382
383         if not os.path.exists(containerDir):
384             logger.log('sliver_lxc.destroy: %s cleanly destroyed.'%name)
385         else:
386             # we're in /
387             #logger.log("-TMP-cwd %s : %s"%(name,os.getcwd()))
388             # also lsof never shows anything relevant; this is painful..
389             #logger.log("-TMP-lsof %s"%name)
390             #command=['lsof']
391             #logger.log_call(command)
392             logger.log("-TMP-ls-l %s"%name)
393             command = ['ls', '-lR', containerDir]
394             logger.log_call(command)
395             logger.log("-TMP-lsof")
396             command = ['lsof']
397             logger.log_call(command)
398             if os.path.exists(containerDir):
399                 logger.log('sliver_lxc.destroy: ERROR could not cleanly destroy %s - giving up'%name)
400
401         if vsys_stopped:
402             vsysStartService()