<div dir="ltr"><div>Hi<br><br>I got a problem with Ceph as a backend for ephemeral volumes.</div><div>Creation of the instance completes as supposed, and instance is functional, but when I try to delete it - instance stuck in "Deleting" state forever</div>

<div><br></div><div>Part of nova.conf on compute node:</div><div>...</div><div><div>[libvirt]</div><div>inject_password=false</div><div>inject_key=false</div><div>inject_partition=-2</div><div>images_type=rbd</div><div>images_rbd_pool=volumes</div>

<div>images_rbd_ceph_conf=/etc/ceph/ceph.conf</div><div>rbd_user=cinder</div><div>rbd_secret_uuid=a652fa87-554c-45cf-a28a-8da845ea620f</div></div><div>...</div><div><br></div><div>nova-compute.log shows:</div><div>...</div>

<div>2014-07-11 09:25:44.902 21473 DEBUG nova.openstack.common.processutils [req-509e4cd5-e27a-487e-a6bf-0a4a70c9541c f5d20c800acb46b2a35dd1dc1030bedb a5286f8e7e2440ab9e8fcc120d59b872] Running cmd (subprocess): rbd -p volumes ls --id cinder --conf /etc/ceph/ceph.conf execute /usr/lib/python2.7/dist-packages/nova/openstack/common/processutils.py:154</div>

<div>2014-07-11 09:25:44.967 21473 DEBUG nova.openstack.common.processutils [req-509e4cd5-e27a-487e-a6bf-0a4a70c9541c f5d20c800acb46b2a35dd1dc1030bedb a5286f8e7e2440ab9e8fcc120d59b872] Result was 0 execute /usr/lib/python2.7/dist-packages/nova/openstack/common/processutils.py:187</div>

<div>2014-07-11 09:25:44.969 21473 DEBUG nova.openstack.common.processutils [req-509e4cd5-e27a-487e-a6bf-0a4a70c9541c f5d20c800acb46b2a35dd1dc1030bedb a5286f8e7e2440ab9e8fcc120d59b872]<b> Running cmd (subprocess): sudo nova-rootwrap /etc/nova/rootwrap.conf rbd -p volumes rm a7669b1e-682d-4b62-a41e-ef5245999403_disk --id cinder --conf /etc/ceph/ceph.conf </b>execute /usr/lib/python2.7/dist-packages/nova/openstack/common/processutils.py:154</div>

<div>2014-07-11 09:25:48.614 21473 DEBUG nova.openstack.common.lockutils [req-c2bacd90-e43f-4b36-9e94-b2dc0e573bf5 cba50a22b1074eafb440d5e39f2ed3a9 014373179bd4492e8f4fa4e55d6993a5] Got semaphore "<function _lock_name at 0x7f4ee5357848>" lock /usr/lib/python2.7/dist-packages/nova/openstack/common/lockutils.py:168</div>

<div>2014-07-11 09:25:48.615 21473 DEBUG nova.openstack.common.lockutils [req-c2bacd90-e43f-4b36-9e94-b2dc0e573bf5 cba50a22b1074eafb440d5e39f2ed3a9 014373179bd4492e8f4fa4e55d6993a5] Got semaphore / lock "_pop_event" inner /usr/lib/python2.7/dist-packages/nova/openstack/common/lockutils.py:248</div>

<div>2014-07-11 09:25:48.616 21473 DEBUG nova.openstack.common.lockutils [req-c2bacd90-e43f-4b36-9e94-b2dc0e573bf5 cba50a22b1074eafb440d5e39f2ed3a9 014373179bd4492e8f4fa4e55d6993a5] Semaphore / lock released "_pop_event" inner /usr/lib/python2.7/dist-packages/nova/openstack/common/lockutils.py:252</div>

<div>178</div><div>...</div><div><br></div><div><div># rbd -p volumes ls | grep a76</div><div>a7669b1e-682d-4b62-a41e-ef5245999403_disk</div></div><div><br></div><div>Disk is still here, so I tried re-running rm command manually:</div>

<div># sudo nova-rootwrap /etc/nova/rootwrap.conf rbd -p volumes rm a7669b1e-682d-4b62-a41e-ef5245999403_disk --id cinder --conf /etc/ceph/ceph.conf</div><div>and got:</div><div>rbd: error: image still has watchers<br></div>

<div><br></div><div>But</div><div># rados -p volumes listwatchers rbd_id.a7669b1e-682d-4b62-a41e-ef5245999403_disk</div><div>shows nothing</div><div><br></div><div><br></div><div>Only restart of nova-compute service helps.</div>

<div><br></div><div>Any ideas how to fix this?</div></div>