<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<meta name="Generator" content="Microsoft Word 14 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:Tahoma;
        panose-1:2 11 6 4 3 5 4 4 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        margin-bottom:.0001pt;
        font-size:12.0pt;
        font-family:"Times New Roman","serif";}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-reply;
        font-family:"Calibri","sans-serif";
        color:#1F497D;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri","sans-serif";}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body lang="EN-US" link="blue" vlink="purple">
<div class="WordSection1">
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1F497D">I think an additional question is why run two separate ceph clusters (ceph is already HA), and give yourself that headache? You can accomplish a single distributed
 multi-site cluster with the right crush map setup.<o:p></o:p></span></p>
<p class="MsoNormal"><span style="font-size:11.0pt;font-family:"Calibri","sans-serif";color:#1F497D"><o:p> </o:p></span></p>
<div style="border:none;border-left:solid blue 1.5pt;padding:0in 0in 0in 4.0pt">
<div>
<div style="border:none;border-top:solid #B5C4DF 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal"><b><span style="font-size:10.0pt;font-family:"Tahoma","sans-serif"">From:</span></b><span style="font-size:10.0pt;font-family:"Tahoma","sans-serif""> Darren Birkett [mailto:darren.birkett@gmail.com]
<br>
<b>Sent:</b> Thursday, October 03, 2013 6:48 AM<br>
<b>To:</b> Robert van Leeuwen<br>
<b>Cc:</b> openstack-operators@lists.openstack.org<br>
<b>Subject:</b> Re: [Openstack-operators] Running cinder with two Ceph backends (not possible)?<o:p></o:p></span></p>
</div>
</div>
<p class="MsoNormal"><o:p> </o:p></p>
<div>
<p class="MsoNormal">On 2 October 2013 09:09, Robert van Leeuwen <<a href="mailto:Robert.vanLeeuwen@spilgames.com" target="_blank">Robert.vanLeeuwen@spilgames.com</a>> wrote:<o:p></o:p></p>
<div>
<div>
<blockquote style="border:none;border-left:solid #CCCCCC 1.0pt;padding:0in 0in 0in 6.0pt;margin-left:4.8pt;margin-right:0in">
<p class="MsoNormal">Hi,<br>
<br>
We would like to run 2 separate Ceph clusters for our cloud. (Due to HA and performance reasons)<br>
It is possible to set this up?<br>
I'm trying in our dev environment (currently just one ceph cluster but with 2 volumes)<br>
<br>
With just one backend it works fine but with 2 backends I get the following error:<br>
ERROR [cinder.scheduler.filters.capacity_filter] Free capacity not set: volume node info collection broken<br>
ERROR [cinder.scheduler.manager] Failed to schedule_create_volume: No valid host was found.<br>
<br>
<br>
Cinder config:<br>
enabled_backends=ceph1,ceph2<br>
[ceph1]<br>
volume_driver=cinder.volume.drivers.rbd.RBDDriver<br>
rbd_pool=volumes<br>
rbd_user=volumes<br>
rbd_secret_uuid=xxxxxxxxxxxxxxxx<br>
<br>
[ceph2]<br>
volume_driver=cinder.volume.drivers.rbd.RBDDriver<br>
rbd_pool=volumes2<br>
rbd_user=volumes2<br>
rbd_secret_uuid=yyyyyyyyyyyyyyyy<br>
<br>
<br>
Running it all on SL6.4.<br>
Openstack Grizzly (RDO)<br>
Ceph Dumpling (ceph repo)<br>
<br>
Thx,<br>
Robert van Leeuwen<o:p></o:p></p>
</blockquote>
<div>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
<div>
<p class="MsoNormal">Hi Robert,<o:p></o:p></p>
</div>
<div>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
<div>
<p class="MsoNormal">I believe there are 2 separate questions here:<o:p></o:p></p>
</div>
<div>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
<div>
<p class="MsoNormal">1 - is it possible to use multiple *different* RBD back ends (ie different RBD pools/users) within the same cinder-volume instance?<o:p></o:p></p>
</div>
<div>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
<div>
<p class="MsoNormal">This capability was broken in Grizzly, but fixed in Havana I believe (<a href="https://review.openstack.org/#/c/28208/">https://review.openstack.org/#/c/28208/</a>).  There was some discussion, I seem to recall, around possibly getting
 around the broken-ness by running multiple cinder-volumes each with a different config, but I don't know if this would work properly with scheduling.  Maybe someone has tried/done this?<o:p></o:p></p>
</div>
<div>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
<div>
<p class="MsoNormal">2. Is it possible to use 2 entirely different ceph clusters?<o:p></o:p></p>
</div>
<div>
<p class="MsoNormal">I think again, by default no since you specify the ceph config file in the cinder.conf (or let it use the default of /etc/ceph/ceph.conf).  If you're able to get multple cinder-volumes going, each with a separate config file, and get around
 the scheduling issues, then I suppose possibly.<o:p></o:p></p>
</div>
</div>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
<div>
<p class="MsoNormal">Thanks<o:p></o:p></p>
</div>
<div>
<p class="MsoNormal">Darren<o:p></o:p></p>
</div>
</div>
</div>
</div>
</body>
</html>