<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <div class="moz-cite-prefix">100 servers has your running  400GB of
      ram and 2TB of storage per server or 4TB of storage overall.<br>
      <br>
      That would actually be within the range of 2 systems using DBRB
      and SSDs and you would get extremely fast performance.<br>
      <br>
      I would argue that CEPH works best for large data sets and where
      there are LOTS of disks.<br>
      A 2 MON/OSD solution will work and is a place to start building a
      larger system but not as the final target of the system.<br>
      <br>
      That however is just my observations.<br>
      <br>
      On 04/04/2014 02:17 AM, Ian Marshall wrote:<br>
    </div>
    <blockquote
      cite="mid:CA22408C-AC61-43CF-8E7F-6C748F8C9D63@freedom-finance.com"
      type="cite">
      <meta http-equiv="content-type" content="text/html;
        charset=ISO-8859-1">
      <div><span></span></div>
      <div>
        <meta http-equiv="Content-Type" content="text/html;
          charset=ISO-8859-1">
        <meta name="Generator" content="MS Exchange Server version
          6.5.7652.24">
        <title>Ceph as unified storage solution</title>
        <!-- Converted from text/plain format -->
        <p><font size="2">Hi<br>
            <br>
            I am implementing a small Openstack production system across
            two sites. This will initially have 2 controller nodes (also
            acting as network nodes) and 2 compute nodes at each site.
            Network up to hadware load balancers will be 10gbe.<br>
            <br>
            Expectation is we will be running about 80-100 VMs at each
            site (4gb Ram and 20gb volumes). These will boot and run
            from block storage. About 90% of these will run Tomcat
            servers, the others Apache. They will be stateless.<br>
            <br>
            I have been told Ceph solution will not provide the
            necessary performance compared to SAN (EquaLogic) unless
            using SSD drives for journals which is out of budget at
            present. If I was confident to go with Ceph - I would be
            planning 2 storage servers with 10k sas drives and write
            back cache on raid controllers and have each drive as Raid0
            with a partition for journals.<br>
            <br>
            Could anyone provide evidence of using Ceph for this size
            production, as my preference is a ceph based stirage
            solution to privide flexibility in storage - especially as
            long term plan is to replicate across WAN.<br>
            <br>
            Pros and cons between a SAN and Ceph would also be
            appreciated. <br>
            <br>
            Regards<br>
            Ian<br>
          </font>
        </p>
      </div>
      <pre>_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ 

This email and any attachments to it may contain privileged and/or confidential information.  If you are not the intended recipient you must not disclose, distribute, copy, print or rely on any of the information contained.  If you have received this email in error please reply and tell us and then delete it. 

Freedom Finance Ltd will not accept any liability for damage caused by computer viruses emanating from any email or attachment to the email. 

This email is not intended to create legally binding commitments on behalf of Freedom Finance Ltd, nor do its contents reflect the corporate views or policies of Freedom Finance Ltd.

Freedom Finance is a trading style of Freedom Finance Ltd, registered in England and Wales (Company number 06297533) Atlantic House, Atlas Business Park, Simonsway, Manchester, M22 5PR.   Telephone calls may be recorded and/or monitored. Freedom Finance Ltd is Authorised and Regulated by the Financial Conduct Authority.

_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ 

</pre>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Mailing list: <a class="moz-txt-link-freetext" href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a>
Post to     : <a class="moz-txt-link-abbreviated" href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a>
Unsubscribe : <a class="moz-txt-link-freetext" href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a>
</pre>
    </blockquote>
    <br>
    <br>
    <pre class="moz-signature" cols="72">-- 
Alvin Starr                   ||   voice: (905)513-7688
Netvel Inc.                   ||   Cell:  (416)806-0133
<a class="moz-txt-link-abbreviated" href="mailto:alvin@netvel.net">alvin@netvel.net</a>              ||
</pre>
  </body>
</html>