<p>Were pretty intrested too in large scale performance benchmarks. anyone? </p>
<p>regards</p>
<div class="gmail_quote">On Jul 24, 2012 10:22 PM, "Anne Gentle" <<a href="mailto:anne@openstack.org">anne@openstack.org</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I don't know if it will confirm or correlate with your findings, but<br>
do take a look at this blog post with benchmarks in one of the last<br>
sections:<br>
<br>
<a href="http://www.sebastien-han.fr/blog/2012/06/10/introducing-ceph-to-openstack/" target="_blank">http://www.sebastien-han.fr/blog/2012/06/10/introducing-ceph-to-openstack/</a><br>
<br>
I'm trying to determine what parts should go into the OpenStack<br>
documentation, please let me know if the post is useful to you in your<br>
setting and what sections are most valuable.<br>
Thanks,<br>
Anne<br>
<br>
<br>
On Tue, Jul 24, 2012 at 6:08 PM, Josh Durgin <<a href="mailto:josh.durgin@inktank.com">josh.durgin@inktank.com</a>> wrote:<br>
> On 07/23/2012 08:24 PM, Jonathan Proulx wrote:<br>
>><br>
>> Hi All,<br>
>><br>
>> I've been looking at Ceph as a storage back end.  I'm running a<br>
>> research cluster and while people need to use it and want it 24x7 I<br>
>> don't need as many nines as a commercial customer facing service does<br>
>> so I think I'm OK with the current maturity level as far as that goes,<br>
>> but I have less of a sense of how far along performance is.<br>
>><br>
>> My OpenStack deployment is 768 cores across 64 physical hosts which<br>
>> I'd like to double in the next 12 months.  What it's used for is<br>
>> widely varying and hard to classify some uses are hundreds of tiny<br>
>> nodes others are looking to monopolize the biggest physical system<br>
>> they can get.  I think most really heavy IO currently goes to our NAS<br>
>> servers rather than through nova-volumes but that could change.<br>
>><br>
>> Anyone using ceph at that scale (or preferably larger)?  Does it keep<br>
>> up if you keep throwing hardware at it?  My proof of concept ceph<br>
>> cluster on crappy salvaged hardware has proved the concept to me but<br>
>> has (unsurprisingly) crappy salvaged performance. Trying to get a<br>
>> sense of what performance expectations I should have given decent<br>
>> hardware before I decide if I should buy decent hardware for it...<br>
>><br>
>> Thanks,<br>
>> -Jon<br>
><br>
><br>
> Hi Jon,<br>
><br>
> You might be interested in Jim Schutt's numbers on better hardware:<br>
><br>
> <a href="http://comments.gmane.org/gmane.comp.file-systems.ceph.devel/7487" target="_blank">http://comments.gmane.org/gmane.comp.file-systems.ceph.devel/7487</a><br>
><br>
> You'll probably get more response on the ceph mailing list though.<br>
><br>
> Josh<br>
><br>
><br>
> _______________________________________________<br>
> Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
> Post to     : <a href="mailto:openstack@lists.launchpad.net">openstack@lists.launchpad.net</a><br>
> Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
> More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
<br>
_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
</blockquote></div>