<div dir="ltr"><br><div class="gmail_quote"><br><div dir="ltr">So it sounds like what we're talking about here is running a Ceph or GlusterFS node alongside the compute node (ie, on the same physical system).  I assume then that VMs access their volumes via NFS or iSCSI from Cinder on the controller node, and in turn, Cinder reads and writes to the cluster FS, which is spread out among the physical data volumes on the compute nodes.  Is this correct?</div>

<div class="gmail_extra"><br><br><div class="gmail_quote"><div class="im">On Fri, Feb 15, 2013 at 2:29 PM, Sébastien Han <span dir="ltr"><<a href="mailto:han.sebastien@gmail.com" target="_blank">han.sebastien@gmail.com</a>></span> wrote:<br>

</div><div><div class="h5"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<div><br><br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

Important: Mount the CephFS filesystem on the client machine, not the cluster machine.</blockquote>

<div><br></div></div><div>It's just like NFS, if you mount an NFS export on the NFS server, you get kernel locks.</div><div><br></div><div>Unfortunately even if love Ceph far more than the other, I won't go with CephFS, at least not know. But if are in a hurry and looking for a DFS then GlusterFS seems to be a good candidate. NFS works pretty well too.</div>



<div><br></div><div>Cheers.</div></div><div class="gmail_extra"><br clear="all"><div><div>--</div>Regards,<div>Sébastien Han.</div></div><div><div>
<br><br><div class="gmail_quote">On Fri, Feb 15, 2013 at 4:49 PM, JuanFra Rodriguez Cardoso <span dir="ltr"><<a href="mailto:juanfra.rodriguez.cardoso@gmail.com" target="_blank">juanfra.rodriguez.cardoso@gmail.com</a>></span> wrote:<br>



<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>Another one:</div><div><br></div><div> - MooseFS (<a href="http://docs.openstack.org/trunk/openstack-compute/admin/content/installing-moosefs-as-backend.html" target="_blank">http://docs.openstack.org/trunk/openstack-compute/admin/content/installing-moosefs-as-backend.html</a>)</div>




 - GlusterFS<div> - Ceph</div><div> - Lustre<br><div><br></div><div>Regards,</div><div><div>JuanFra</div>
<br><br><div class="gmail_quote">2013/2/15 Samuel Winchenbach <span dir="ltr"><<a href="mailto:swinchen@gmail.com" target="_blank">swinchen@gmail.com</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div><div>
<div dir="ltr"><font face="courier new, monospace">Hi All,<br><br>Can anyone give me a recommendation for a good shared-storage cluster filesystem?   I am running kvm-libvirt and would like to enable live migration.<br><br>






I have a number of hosts (up to 16) each with 2xTB drives.  These hosts are also my compute/network/controller nodes.  <br><br>The three I am considering are:<br><br></font><div><font face="courier new, monospace">GlusterFS - I have the most experience with this, and it seems the easiest.<br>






<br></font><div><font face="courier new, monospace">CephFS/RADOS - Interesting because glance supports the rbd backend.  Slightly worried because of this though "Important:<div>





 </div>Mount the CephFS filesystem on the client machine, not the cluster machine."<div> </div>(I wish it said why...)  and "CephFS is not quite as stable as the block device and the object storage gateway."<div>





</div></font></div><div><span style="font-family:'courier new',monospace"></span></div><div><span style="font-family:'courier new',monospace"><div>




Lustre - A little hesitant now that Oracle is involved with it.</div></span><br></div></div><div><span style="font-family:'courier new',monospace"><div>




<br></div></span></div><div><div>If anyone has any advice, or can point out another that I should consider it would be greatly appreciated.</div><div>




<br></div><div>Thanks!</div><div><br></div><div>




Sam</div><br></div></div>
<br></div></div>_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net" target="_blank">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
<br></blockquote></div><br></div></div>
<br>_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net" target="_blank">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
<br></blockquote></div><br></div></div></div>
<br>_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net" target="_blank">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
<br></blockquote></div></div></div><span class="HOEnZb"><font color="#888888"><br><br clear="all"><div><br></div>-- <br>\*..+.-<br>--Greg Chavez<br>+//..;};
</font></span></div>
</div><br><br clear="all"><div><br></div>-- <br>\*..+.-<br>--Greg Chavez<br>+//..;};
</div>