<p dir="ltr">It simple - use SSD. only. OK. The price difference between 15k SAS and SSD is negative (15k is more costly), and differce between 10k SAS and SSD is small. SSD is pricier than a low end SATA, but I don't want to be near system running instances on SATA array.</p>

<p dir="ltr">So answer simple - SSD. Use 5/6 RAID to save a bit money in exchange for write performance loss, but it still gonna be much faster than spindles.</p>
<div class="gmail_quote">On May 8, 2014 3:24 PM, "Arne Wiebalck" <<a href="mailto:Arne.Wiebalck@cern.ch">Arne.Wiebalck@cern.ch</a>> wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">




<div style="word-wrap:break-word">
Hi all,
<div><br>
</div>
<div>In our cloud we use the non-shared local fs of the compute for instance storage. As our cloud gets more busy, this is now more and more becoming a serious bottleneck.</div>
<div><br>
</div>
<div>We saw that tuning the configuration, such as the IO scheduler, can improve things significantly, but in the end things are of course limited by the h/w used in the</div>
<div>hypervisors (which are RAIDed spinning disks in our case). For now, we don't want to go down the roads of local shared storage (due the additional complexity to</div>
<div>set this up) nor the road of non-local shared storage (to continue to profit from the limited impact of storage failures). So we are considering to add SSDs to our hardware</div>
<div>setup, which can then either be used directly or via a block level caching mechanism (e.g. bcache).</div>
<div><br>
</div>
<div>When discussing the various options to set this up, we wondering how other clouds deal with the problem of compute disk contention in general and the integration</div>
<div>of SSDs in particular. </div>
<div><br>
</div>
<div>So, any suggestions or experiences in this area you'd like to share would be very welcome!</div>
<div><br>
</div>
<div>Thanks!</div>
<div> Arne</div>
<div><br>
</div>
<div>
<div>
<div style="color:rgb(0,0,0);font-family:Helvetica;font-size:medium;font-style:normal;font-variant:normal;font-weight:normal;letter-spacing:normal;line-height:normal;text-align:-webkit-auto;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;word-wrap:break-word">

<div style="color:rgb(0,0,0);font-family:Helvetica;font-size:medium;font-style:normal;font-variant:normal;font-weight:normal;letter-spacing:normal;line-height:normal;text-align:-webkit-auto;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;word-wrap:break-word">

--</div>
<div style="color:rgb(0,0,0);font-family:Helvetica;font-size:medium;font-style:normal;font-variant:normal;font-weight:normal;letter-spacing:normal;line-height:normal;text-align:-webkit-auto;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;word-wrap:break-word">

Arne Wiebalck<br>
CERN IT</div>
</div>
</div>
<br>
</div>
</div>

<br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div>