<div dir="ltr">Cool - thank you very much!<div><br></div><div>One more question: are you doing any HA for the Glace database?</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Mar 18, 2013 at 9:43 PM, Narayan Desai <span dir="ltr"><<a href="mailto:narayan.desai@gmail.com" target="_blank">narayan.desai@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">We're currently running two systems (in the middle of a migration). In both, we just have the basic brick level replication, using 2 way replication in one case, and 4 way in the other. We're running a relatively small image archive; about 1TB. <div>

<br></div><div>Because the machine has a decent network (QDR infinband using IPOIB), we don't actually need multiple glance servers for scalability reasons, we just have the services HA'd with pacemaker. </div>
<div><br></div><div>Generally speaking, our workload tends to be relatively synchronized; at periods of high use, you might have a single user firing up a hundred instances. That leaves us network bound, but the infiniband tends to stand up to that load pretty well.</div>

<div> -nld</div></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><br><div class="gmail_quote">On Mon, Mar 18, 2013 at 8:55 PM, Joe Topjian <span dir="ltr"><<a href="mailto:joe.topjian@cybera.ca" target="_blank">joe.topjian@cybera.ca</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi Narayan,<div><br></div><div>If you don't mind, I'd love to know some details about your implementation:</div>

<div><br></div><div>What type of replication are you using? </div><div>How large is your Glance image repository and how many Glance servers are you using?</div>
<div>Are you load balancing between Glance servers? And if so, what method? (DNS rr?)</div><div>How much activity does your Glance service see?</div><div><br></div><div>Thanks,</div><div>Joe</div>
<div><br></div></div><div class="gmail_extra"><div><div><br><br><div class="gmail_quote">On Mon, Mar 18, 2013 at 8:35 PM, Narayan Desai <span dir="ltr"><<a href="mailto:narayan.desai@gmail.com" target="_blank">narayan.desai@gmail.com</a>></span> wrote:<br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">We've happily been using glusterfs with N way replication for the last year for this, with no problems. <div>


 -nld</div></div><div class="gmail_extra"><br><br><div class="gmail_quote"><div><div>On Mon, Mar 18, 2013 at 5:12 PM, Ahmad Ahmadi <span dir="ltr"><<a href="mailto:ahmadidamha@yahoo.com" target="_blank">ahmadidamha@yahoo.com</a>></span> wrote:<br>



</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div><div style="font-size:12pt;font-family:times new roman,new york,times,serif">Hi,<br>
<br>How can I have multiple glance nodes in a way that, when I 
create an image from the controler, it would be coppied to all of the 
glance nodes?<br>Now, when I define multiple glance endpoints in the controler (keystone), the images would only go to the first glance node.<br><br>I also want to avoid putting the name of all glance nodes in the nova nodes.<br>



<br>Thank you,<br>Ad<br><div><div><img>  </div></div></div></div><br></div></div><div>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></div></blockquote></div><br></div>
<br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div></div></div><span><font color="#888888">-- <br>Joe Topjian<div>Systems Administrator</div><div>Cybera Inc.</div><div><br></div><div><a href="http://www.cybera.ca" target="_blank">www.cybera.ca</a></div>


<div><br></div><div><font color="#666666"><span>Cybera</span><span> is a not-for-profit organization that works to spur and support innovation, for the economic benefit of Alberta, through the use of cyberinfrastructure.</span></font></div>



</font></span></div>
<br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><br></div>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br>Joe Topjian<div>Systems Administrator</div><div>Cybera Inc.</div><div><br></div><div><a href="http://www.cybera.ca" target="_blank">www.cybera.ca</a></div>
<div><br></div><div><font color="#666666"><span>Cybera</span><span> is a not-for-profit organization that works to spur and support innovation, for the economic benefit of Alberta, through the use of cyberinfrastructure.</span></font></div>

</div>