<div dir="ltr">When you say RBD via iSCSI for compute nodes are you talking about something like this:  <a href="http://www.hastexo.com/resources/hints-and-kinks/turning-ceph-rbd-images-san-storage-devices">http://www.hastexo.com/resources/hints-and-kinks/turning-ceph-rbd-images-san-storage-devices</a><div>

<br></div><div>which is an interesting thought.</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Aug 19, 2013 at 3:50 AM, Nick Maslov <span dir="ltr"><<a href="mailto:azpekt@gmail.com" target="_blank">azpekt@gmail.com</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Mitch<br>
<br>
We are using RBD, via iSCSI for compute nodes (they are booting from it as part of iPXE/DHCP process), then we are using Ceph as backend for both images and VM`s.<br>
<br>
Simple and it works.<br>
<br>
Cheers,<br>
NM<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
On 08/17, Mitch Anderson wrote:<br>
> aHi all,<br>
><br>
> I've been looking around for example architectures for types of sytems and<br>
> numbers for an HA setup of Openstack Grizzly (Probably won't go live until<br>
> after havana is released).<br>
><br>
> I've done a Simple Non-HA setup with Mirantis' Fuel.  Which has worked out<br>
> well.  And they're documented Production HA setup is with 3 Controllers and<br>
> N compute nodes...<br>
><br>
> If I were to use Ceph for storage I would need a minimum of atleast 3<br>
> nodes.  I was looking to make my compute nodes have minimal disk space so<br>
> only my Controllers would have storage (for Glance, DB's, etc..) and the<br>
> Ceph storage nodes would have the rest.  Is this solution preferred?  Or,<br>
> do I run Ceph on the compute nodes?  If so, what size nodes should they be<br>
> then?  I'd like to run 40-60 VM's per compute node of varying sizes and<br>
> needs.<br>
><br>
> Any pointers would be much appreciated!<br>
><br>
> -Mitch Anderson<br>
<br>
</div></div><div class="HOEnZb"><div class="h5">> _______________________________________________<br>
> OpenStack-operators mailing list<br>
> <a href="mailto:OpenStack-operators@lists.openstack.org">OpenStack-operators@lists.openstack.org</a><br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br>
</div></div></blockquote></div><br></div>