<div dir="ltr"><div><div><div>Hello Michael,<br><br></div>have a look at Openstack Manila and CephFS<br><br></div>Cheers<br><br></div>Saverio<br><br></div><div class="gmail_extra"><br><div class="gmail_quote">2016-06-21 11:42 GMT+02:00 Michael Stang <span dir="ltr"><<a href="mailto:michael.stang@dhbw-mannheim.de" target="_blank">michael.stang@dhbw-mannheim.de</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><u></u>

    
<div><div>I think I have asked my question not correctly, it is not for the cinder backend, I meant the shared storage for the instances which is shared by the compute nodes. Or can cinder also be used for this? Sorry if I ask stupid questions, OpenStack is still new for me ;-)</div>
<div> </div>
<div>Regards,</div>
<div>Michael</div>
<div> </div>
<blockquote type="cite" style="margin-left:0px;padding-left:10px;border-left:solid 1px blue">Matt Jarvis <<a href="mailto:matt.jarvis@datacentred.co.uk" target="_blank">matt.jarvis@datacentred.co.uk</a>> hat am 21. Juni 2016 um 10:21 geschrieben:<div><div class="h5"><br><br>
<div dir="ltr">If you look at the user survey ( <a href="https://www.openstack.org/user-survey/survey-2016-q1/landing" target="_blank">https://www.openstack.org/user-survey/survey-2016-q1/landing</a> ) you can see what the current landscape looks like in terms of deployments. Ceph is by far the most commonly used storage backend for Cinder. </div>
<div class="gmail_extra"><br>
<div class="gmail_quote">On 21 June 2016 at 08:27, Michael Stang <span><<a href="mailto:michael.stang@dhbw-mannheim.de" target="_blank">michael.stang@dhbw-mannheim.de</a>></span> wrote:<br>
<blockquote style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span style="text-decoration:underline"></span>
<div>
<div>Hi,</div>
<div> </div>
<div>I wonder what is the recommendation for a shared storage for the compute nodes? At the moment we are using an iSCSI device which is served to all compute nodes with multipath, the filesystem is OCFS2. But this makes it a little unflexible in my opinion, because you have to decide how many compute nodes you will have in the future.</div>
<div> </div>
<div>So is there any suggestion which kind of shared storage to use for the compute nodes and what filesystem?</div>
<div> </div>
<div>Thanky,</div>
<div>Michael</div>
<div> </div>
</div>
<br>_______________________________________________<br> OpenStack-operators mailing list<br> <a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br> </blockquote>
</div>
</div>
<br> <span style="color:#222222;font-family:arial,sans-serif;background-color:#ffffff">DataCentred Limited registered in England and Wales no. 05611763</span></div></div></blockquote>
<div><br> </div><span class="">
Viele Grüße<br><br>Michael Stang<br>Laboringenieur, Dipl. Inf. (FH)<br><br>Duale Hochschule Baden-Württemberg Mannheim<br>Baden-Wuerttemberg Cooperative State University Mannheim<br>ZeMath Zentrum für mathematisch-naturwissenschaftliches Basiswissen<br>Fachbereich Informatik, Fakultät Technik<br>Coblitzallee 1-9<br>68163 Mannheim<br><br>Tel.: <a href="tel:%2B49%20%280%29621%204105%20-%201367" value="+4962141051367" target="_blank">+49 (0)621 4105 - 1367</a><br><a href="mailto:michael.stang@dhbw-mannheim.de" target="_blank">michael.stang@dhbw-mannheim.de</a><br><a href="http://www.dhbw-mannheim.de" target="_blank">http://www.dhbw-mannheim.de</a><br><br><br><br><img src="http://www.dhbw-mannheim.de/fileadmin/media/mail/signatur/dhbw_logo_mail.jpg" border="0"><br><br></span></div>
 <br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><br></div>