<div dir="ltr">In [1] it says "<span style="color:rgb(37,37,37);font-family:sans-serif;font-size:14px">Image locking is added and enabled by default. Multiple QEMU processes cannot write to the same image as long as the host supports OFD or posix locking, unless options are specified otherwise." May be need to do something on nova side. </span><div><font color="#252525" face="sans-serif"><span style="font-size:14px"><br></span></font><div>I run this command and get same error. Output is in 

<a href="http://paste.openstack.org/show/754311/">http://paste.openstack.org/show/754311/</a></div></div><div><br></div><div>İf I run qemu-img info instance-0000219b with -U , it doesn't give any errors.</div><div><br></div><div>[1] <a href="https://wiki.qemu.org/ChangeLog/2.10">https://wiki.qemu.org/ChangeLog/2.10</a></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Donny Davis <<a href="mailto:donny@fortnebula.com">donny@fortnebula.com</a>>, 11 Tem 2019 Per, 22:11 tarihinde şunu yazdı:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Well that is interesting. If you look in your libvirt config directory (/etc/libvirt on Centos) you can get a little more info on what is being used for locking. <div><br></div><div>Maybe strace can shed some light on it. Try something like </div><div><br></div><div>strace -ttt -f qemu-img info /var/lib/nova/instances/659b5853-d094-4425-85a9-5bcacf88c84e/disk<br></div><div><br></div><div><br></div><div><br><div><br></div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Jul 11, 2019 at 2:39 PM Gökhan IŞIK <<a href="mailto:skylightcoder@gmail.com" target="_blank">skylightcoder@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">I run virsh list --all command and output is below:<div><br><div>root@compute06:~# virsh list --all<br> Id    Name                           State<br>----------------------------------------------------<br> -     instance-000012f9              shut off<br> -     instance-000013b6              shut off<br> -     instance-000016fb              shut off<br> -     instance-0000190a              shut off<br> -     instance-00001a8a              shut off<br> -     instance-00001e05              shut off<br> -     instance-0000202a              shut off<br> -     instance-00002135              shut off<br> -     instance-00002141              shut off<br> -     instance-000021b6              shut off<br> -     instance-000021ec              shut off<br> -     instance-000023db              shut off<br> -     instance-00002ad7              shut off<br></div><div><br></div><div>And also when I try start instances with virsh , output is below:</div><div><br></div><div>root@compute06:~# virsh start instance-0000219b<br>error: Failed to start domain

instance-000012f9  <br>error: internal error: process exited while connecting to monitor:  2019-07-11T18:36:34.229534Z qemu-system-x86_64: -chardev pty,id=charserial0,logfile=/dev/fdset/2,logappend=on: char device redirected to /dev/pts/3 (label charserial0)<br>2019-07-11T18:36:34.243395Z qemu-system-x86_64: -drive file=/var/lib/nova/instances/659b5853-d094-4425-85a9-5bcacf88c84e/disk,format=qcow2,if=none,id=drive-virtio-disk0,cache=none,discard=ignore: Failed to get "write" lock<br>Is another process using the image?<br></div><div><br></div><div>Thanks,</div><div>Gökhan</div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Donny Davis <<a href="mailto:donny@fortnebula.com" target="_blank">donny@fortnebula.com</a>>, 11 Tem 2019 Per, 21:06 tarihinde şunu yazdı:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Can you ssh to the hypervisor and run virsh list to make sure your instances are in fact down?</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Jul 11, 2019 at 3:02 AM Gökhan IŞIK <<a href="mailto:skylightcoder@gmail.com" target="_blank">skylightcoder@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Can anyone help me please ? I can no't rescue my instances yet :(</div><div><br></div><div><div>Thanks,</div><div>Gökhan</div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Gökhan IŞIK <<a href="mailto:skylightcoder@gmail.com" target="_blank">skylightcoder@gmail.com</a>>, 9 Tem 2019 Sal, 15:46 tarihinde şunu yazdı:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Hi folks,</div><div> Because of power outage, Most of our compute 
nodes  unexpectedly shut  down and now I can not start our instances.  Error message is "Failed to get "write" lock another process using the image?".
Instances Power status is No State.  Full error log is <a href="http://paste.openstack.org/show/754107/" rel="nofollow" target="_blank">http://paste.openstack.org/show/754107/</a>.
 My environment is OpenStack Pike on Ubuntu 16.04 LTS servers and Instances are on a nfs shared 
storage. Nova version is 16.1.6.dev2. qemu version is 2.10.1. libvirt version is 3.6.0. I saw a commit [1], but it doesn't solve this problem.</div><div>There are important instances
 on my environment. How can I rescue my instances? What would you suggest
 ?</div><div><br></div><div>Thanks,</div><div>Gökhan</div><div><br></div><div>[1] <a href="https://review.opendev.org/#/c/509774/" target="_blank">https://review.opendev.org/#/c/509774/</a></div></div>
</blockquote></div>
</blockquote></div>
</blockquote></div>
</blockquote></div>
</blockquote></div>