<div dir="ltr"><div><div><div><div>I use open-solaris (open-indiana) & ZFS pools for my OpenStack instance storage via NFS. This setup provides high performance NFS for many reasons, one of which is RAM & SSD read/write caching. It also provides sound data integrity/backup with ZFS snap-shots. <br>
<br></div>My OpenStack instance pools are accessible only by the controller/compute nodes.<br><br>I change the instances storage location to the NFS mount point in /etc/nova/nova.conf<br>instances_path=</your/mount/point><br>
<br></div>You can also mount your share to the default instance storage location (/var/lib/nova/instances) as Joe mentioned.<br><br></div>I force NFS version 3 (vers=3) as one of the mount parameters in the NFS mount declaration in /etc/fstab because NFS version 4 has some known bugs related to permissions & NFS client permission changes. When a VM is created the nova user initially drops the disk, kernel, and ramdisk files, then changes the ownership to libvirt. This chown process does not occur properly using NFS version 4.<br>
<br></div>I have been experimenting with NFS version 4 by changing the Nobody-User and Nobody-Group mapping from nobody & nogroup to root & root. It has worked well so far, but does raise security concerns. I won't use this work around in production until I can confirm/verify/eliminate any unintended security vulnerabilities.  <br>
<div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Apr 18, 2013 at 12:20 PM, Joe Topjian <span dir="ltr"><<a href="mailto:joe.topjian@cybera.ca" target="_blank">joe.topjian@cybera.ca</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Mitch,<div><br></div><div>To use NFS for instance storage, just mount an NFS export under /var/lib/nova/instances. This is the default directory where instances are stored. As long as nova has write access to the mounted directory, that should be it.</div>

<div><br></div><div>Cinder takes no part in instance storage so there's no actual driver. There is an NFS driver for volumes, though. This is described here:</div><div><a href="http://docs.openstack.org/trunk/openstack-block-storage/admin/content/NFS-driver.html" target="_blank">http://docs.openstack.org/trunk/openstack-block-storage/admin/content/NFS-driver.html</a><br>

</div><div><br></div><div>I hope that clarifies things for you.<br></div><div><br></div><div>Joe</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Apr 18, 2013 at 9:26 AM, Mitch Anderson <span dir="ltr"><<a href="mailto:mitch@metauser.net" target="_blank">mitch@metauser.net</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I'm new to openstack and was wanting to use NFS for my vm storage.  I see mention of the driver but have yet to figure out where services need to be configured for it all to work.<div>

<br></div><div>

Is there any documentation out there for configuring NFS storage in a multi node environment?  Do just the compute nodes need to be able to mount it?  Do I still configure the cinder-api and cinder-scheduler on the controller?</div>



<div><br></div><div>My reference at this point has been this doc: <a href="https://github.com/mseknibilel/OpenStack-Grizzly-Install-Guide/blob/OVS_MultiNode/OpenStack_Grizzly_Install_Guide.rst" target="_blank">https://github.com/mseknibilel/OpenStack-Grizzly-Install-Guide/blob/OVS_MultiNode/OpenStack_Grizzly_Install_Guide.rst</a></div>



<div><br></div><div>But I'm at the point of installing cinder, and its doing everything on the controller with the loop driver.  And my controller doesn't have enough disk space for more than a few VM's... and I'd like to be able to spin up enough to max out my two compute nodes.</div>



<div><br></div><div>Any guides or general information would be much appreciated.</div><span><font color="#888888"><div><br></div><div>-Mitch</div></font></span></div>
<br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><span class="HOEnZb"><font color="#888888"><br><br clear="all"><div><br></div>-- <br>Joe Topjian<div>Systems Administrator</div><div>Cybera Inc.</div><div><br></div><div><a href="http://www.cybera.ca" target="_blank">www.cybera.ca</a></div>

<div><br></div><div><font color="#666666"><span>Cybera</span><span> is a not-for-profit organization that works to spur and support innovation, for the economic benefit of Alberta, through the use of cyberinfrastructure.</span></font></div>


</font></span></div>
<br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><br></div></div>