<html v="urn:schemas-microsoft-com:vml" o="urn:schemas-microsoft-com:office:office" w="urn:schemas-microsoft-com:office:word" m="http://schemas.microsoft.com/office/2004/12/omml"><head><meta http-equiv="Content-Type" content="text/html; charset=us-ascii" /><meta name="Generator" content="Microsoft Word 14 (filtered medium)" /><style><!--
/* Font Definitions */
@font-face
 {font-family:"Cambria Math";
 panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
 {font-family:Calibri;
 panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
 {font-family:Tahoma;
 panose-1:2 11 6 4 3 5 4 4 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
 {margin:0in;
 margin-bottom:.0001pt;
 font-size:12.0pt;
 font-family:"Times New Roman","serif";}
a:link, span.MsoHyperlink
 {mso-style-priority:99;
 color:blue;
 text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
 {mso-style-priority:99;
 color:purple;
 text-decoration:underline;}
span.EmailStyle17
 {mso-style-type:personal-reply;
 font-family:"Calibri","sans-serif";
 color:#1F497D;}
.MsoChpDefault
 {mso-style-type:export-only;
 font-family:"Calibri","sans-serif";}
@page WordSection1
 {size:8.5in 11.0in;
 margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
 {page:WordSection1;}
--></style></head><body lang="EN-US" link="blue" vlink="purple"><br><br><div class="gmail_quote">"Don Talton (dotalton)" <dotalton@cisco.com> wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">




<!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->


<div class="WordSection1">
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1F497D">I think an additional question is why run two separate ceph clusters (ceph is already HA), and give yourself that headache? You can accomplish a single distributed
 multi-site cluster with the right crush map setup.<p></p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1F497D"><p> </p></span></p>
<div style="border:none;border-left:solid blue 1.5pt;padding:0in 0in 0in 4.0pt">
<div>
<div style="border:none;border-top:solid #B5C4DF 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal"><b><span style="font-size:10.0pt;font-family:"Tahoma","sans-serif"">From:</span></b><span style="font-size:10.0pt;font-family:"Tahoma","sans-serif""> Darren Birkett [mailto:darren.birkett@gmail.com]
<br />
<b>Sent:</b> Thursday, October 03, 2013 6:48 AM<br />
<b>To:</b> Robert van Leeuwen<br />
<b>Cc:</b> openstack-operators@lists.openstack.org<br />
<b>Subject:</b> Re: [Openstack-operators] Running cinder with two Ceph backends (not possible)?<p></p></span></p>
</div>
</div>
<p class="MsoNormal"></p><p> </p>
<div>
<p class="MsoNormal">On 2 October 2013 09:09, Robert van Leeuwen <<a href="mailto:Robert.vanLeeuwen@spilgames.com" target="_blank">Robert.vanLeeuwen@spilgames.com</a>> wrote:</p><p></p>
<div>
<div>
<blockquote style="border:none;border-left:solid #CCCCCC 1.0pt;padding:0in 0in 0in 6.0pt;margin-left:4.8pt;margin-right:0in">
<p class="MsoNormal">Hi,<br />
<br />
We would like to run 2 separate Ceph clusters for our cloud. (Due to HA and performance reasons)<br />
It is possible to set this up?<br />
I'm trying in our dev environment (currently just one ceph cluster but with 2 volumes)<br />
<br />
With just one backend it works fine but with 2 backends I get the following error:<br />
ERROR [cinder.scheduler.filters.capacity_filter] Free capacity not set: volume node info collection broken<br />
ERROR [cinder.scheduler.manager] Failed to schedule_create_volume: No valid host was found.<br />
<br />
<br />
Cinder config:<br />
enabled_backends=ceph1,ceph2<br />
[ceph1]<br />
volume_driver=cinder.volume.drivers.rbd.RBDDriver<br />
rbd_pool=volumes<br />
rbd_user=volumes<br />
rbd_secret_uuid=xxxxxxxxxxxxxxxx<br />
<br />
[ceph2]<br />
volume_driver=cinder.volume.drivers.rbd.RBDDriver<br />
rbd_pool=volumes2<br />
rbd_user=volumes2<br />
rbd_secret_uuid=yyyyyyyyyyyyyyyy<br />
<br />
<br />
Running it all on SL6.4.<br />
Openstack Grizzly (RDO)<br />
Ceph Dumpling (ceph repo)<br />
<br />
Thx,<br />
Robert van Leeuwen</p><p></p>
</blockquote>
<div>
<p class="MsoNormal"></p><p> </p>
</div>
<div>
<p class="MsoNormal">Hi Robert,</p><p></p>
</div>
<div>
<p class="MsoNormal"></p><p> </p>
</div>
<div>
<p class="MsoNormal">I believe there are 2 separate questions here:</p><p></p>
</div>
<div>
<p class="MsoNormal"></p><p> </p>
</div>
<div>
<p class="MsoNormal">1 - is it possible to use multiple *different* RBD back ends (ie different RBD pools/users) within the same cinder-volume instance?</p><p></p>
</div>
<div>
<p class="MsoNormal"></p><p> </p>
</div>
<div>
<p class="MsoNormal">This capability was broken in Grizzly, but fixed in Havana I believe (<a href="https://review.openstack.org/#/c/28208/">https://review.openstack.org/#/c/28208/</a>).  There was some discussion, I seem to recall, around possibly getting
 around the broken-ness by running multiple cinder-volumes each with a different config, but I don't know if this would work properly with scheduling.  Maybe someone has tried/done this?</p><p></p>
</div>
<div>
<p class="MsoNormal"></p><p> </p>
</div>
<div>
<p class="MsoNormal">2. Is it possible to use 2 entirely different ceph clusters?</p><p></p>
</div>
<div>
<p class="MsoNormal">I think again, by default no since you specify the ceph config file in the cinder.conf (or let it use the default of /etc/ceph/ceph.conf).  If you're able to get multple cinder-volumes going, each with a separate config file, and get around
 the scheduling issues, then I suppose possibly.</p><p></p>
</div>
</div>
<p class="MsoNormal"></p><p> </p>
</div>
<div>
<p class="MsoNormal">Thanks</p><p></p>
</div>
<div>
<p class="MsoNormal">Darren</p><p></p>
</div>
</div>
</div>
</div>


<p style="margin-top: 2.5em; margin-bottom: 1em; border-bottom: 1px solid #000"></p><pre class="k9mail"><hr /><br />OpenStack-operators mailing list<br />OpenStack-operators@lists.openstack.org<br /><a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br /></pre></blockquote></div><br>
--<br>
1AE0 322E B8F7 4717 BDEA BF1D 44BB 1BA7 9F6C 6333</body></html>