<div dir="ltr">N<div style="font-family:'courier new',monospace;display:inline" class="gmail_default">o harm will come to existing VMs if I set "use_cow_images=False" and restart nova-api correct?  Just all new VMs will be created with a raw disk backend?</div>
<div><div style="font-family:'courier new',monospace;display:inline" class="gmail_default"><br></div></div><div><div style="font-family:'courier new',monospace;display:inline" class="gmail_default"><br></div>
</div><div><div style="font-family:'courier new',monospace;display:inline" class="gmail_default">Thanks,</div></div><div><div style="font-family:'courier new',monospace;display:inline" class="gmail_default">
Sam</div></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Mar 4, 2013 at 2:54 PM, Pádraig Brady <span dir="ltr"><<a href="mailto:P@draigbrady.com" target="_blank">P@draigbrady.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5">On 03/04/2013 07:19 PM, Samuel Winchenbach wrote:<br>
> Hi All,<br>
><br>
> I have a cluster of three nodes set up.  Live migration is accomplished via an NFS mount over 10GigE shared by all three nodes.<br>
><br>
> I have noticed that when a VM is brand new I am getting close to 60MB/s disk write when using "dd if=/dev/zero of=file bs=1M count=1k conv=fdatasync". after doing this 10s of times the perfomance of the disk seems to drop  to around 4 - 12 MB/s.<br>

><br>
> I have also noticed that doing a live-migration causes a similar effect immediately.<br>
><br>
> Here is the virsh xml output of one of my VMs:  <a href="https://gist.github.com/swinchen/397fbe3bb74305064944" target="_blank">https://gist.github.com/swinchen/397fbe3bb74305064944</a><br>
><br>
> I have read several "tuning" guides and most of the suggestions seems to be configured already (cache='none', virtio for network, disk and memballoon).<br>
><br>
> Do you think qcow2 is causing my issue and if so is there a way to boot an instance and override the disk format?<br>
<br>
</div></div>qcow may possibly be the issue.<br>
<br>
You could use raw disk images by setting the<br>
use_cow_images=False nova config option.<br>
The tradeoff there is slower instance start and<br>
increased (but more guaranteed) disk usage.<br>
<br>
Alternatively you could try to fallocate the disk<br>
image before running the perf test like:<br>
  # get virt_size<br>
  qemu-img info /var/lib/nova/instances/instance-0000002f/disk<br>
  fallocate -n -l $virt_size /var/lib/nova/instances/instance-0000002f/disk<br>
<br>
There is also the possibility of adjusting nova<br>
to use preallocation=metadata on the qcow images<br>
(forfeiting CoW in the process), as discussed in "future work" at:<br>
<a href="https://blueprints.launchpad.net/nova/+spec/preallocated-images" target="_blank">https://blueprints.launchpad.net/nova/+spec/preallocated-images</a><br>
<br>
thanks,<br>
Pádraig.<br>
</blockquote></div><br></div>