<div dir="ltr">Arne,<div><br></div><div>><span style="font-size:12.7272720336914px">I imagine this has an</span></div><div style="font-size:12.7272720336914px">>impact on things using the services table, such as “cinder-manage” (how</div><div style="font-size:12.7272720336914px">>does your “cinder-manage service list” output look like? :-)</div><div style="font-size:12.7272720336914px">It has indeed. I have 3 cinder-volume services, but only one line output in <span style="font-size:12.7272720336914px"> </span><span style="font-size:12.7272720336914px">“cinder-manage service list”. But it's a minor inconvenience to me.</span></div><div style="font-size:12.7272720336914px"><span style="font-size:12.7272720336914px"><br></span></div><div style="font-size:12.7272720336914px"><span style="font-size:12.7272720336914px">Duncan,</span></div><div style="font-size:12.7272720336914px"><span style="font-size:12.7272720336914px">></span><span style="font-size:12.7272720336914px">There are races, e.g. do snapshot and delete at the same time, backup and delete at the same time, etc. The race windows are pretty tight on ceph but they are there. It is worse on some other >backends</span></div><div style="font-size:12.7272720336914px"><span style="font-size:12.7272720336914px">Okay, never ran into those, yet ! I cross fingers :p</span></div><div style="font-size:12.7272720336914px"><span style="font-size:12.7272720336914px"><br></span></div><div style="font-size:12.7272720336914px"><span style="font-size:12.7272720336914px">Thanks, and sorry if I hijacked this thread a little.</span></div><div style="font-size:12.7272720336914px"><span style="font-size:12.7272720336914px">Jordan</span></div><div class="" style="font-size:12.7272720336914px"><div class="adm"><div id="q_14aca64850248e96_1" class="h4"></div></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Jan 8, 2015 at 5:30 PM, Arne Wiebalck <span dir="ltr"><<a href="mailto:Arne.Wiebalck@cern.ch" target="_blank">Arne.Wiebalck@cern.ch</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">



<div style="word-wrap:break-word">
<div>Hi Jordan,</div>
<div><br>
</div>
<div>As Duncan pointed out there may be issues if you have multiple backends</div>
<div>and indistinguishable nodes (which you could  probably avoid by separating</div>
<div>the hosts per backend and use different “host” flags for each set).</div>
<div><br>
</div>
<div>But also if you have only one backend: the “host" flag will enter the ‘services'</div>
<div>table and render the host column more or less useless. I imagine this has an</div>
<div>impact on things using the services table, such as “cinder-manage” (how</div>
<div>does your “cinder-manage service list” output look like? :-), and it may make it</div>
<div>harder to tell if the individual services are doing OK, or to control them.</div>
<div><br>
</div>
<div>I haven’t run Cinder with identical “host” flags in production, but I imagine</div>
<div>there may be other areas which are not happy about indistinguishable hosts.</div><span class="HOEnZb"><font color="#888888">
<div><br>
</div>
<div>Arne</div></font></span><div><div class="h5">
<div><br>
</div>
<br>
<div>
<blockquote type="cite">
<div>On 08 Jan 2015, at 16:50, Jordan Pittier <<a href="mailto:jordan.pittier@scality.com" target="_blank">jordan.pittier@scality.com</a>> wrote:</div>
<br>
<div>
<div dir="ltr">Hi,
<div>><span style="font-size:12.7272720336914px">Some </span><span style="font-size:12.7272720336914px">people apparently use the ‘host’ option in cinder.conf to make the hosts indistinguishable, but this creates problems in other
 places.</span></div>
<div><span style="font-size:12.7272720336914px">I use shared storage mounted on several cinder-volume nodes, with "host" flag set the same everywhere. Never ran into problems so far. Could you elaborate on "</span><span style="font-size:12.7272720336914px">this
 creates problems in other places" please ?</span></div>
<div><span style="font-size:12.7272720336914px"><br>
</span></div>
<div><span style="font-size:12.7272720336914px">Thanks !</span></div>
<div><span style="font-size:12.7272720336914px">Jordan</span></div>
</div>
<div class="gmail_extra"><br>
<div class="gmail_quote">On Thu, Jan 8, 2015 at 3:40 PM, Arne Wiebalck <span dir="ltr">
<<a href="mailto:Arne.Wiebalck@cern.ch" target="_blank">Arne.Wiebalck@cern.ch</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div style="word-wrap:break-word">
<div>Hmm. Not sure how widespread installations with multiple Ceph backends are where the</div>
<div>Cinder hosts have access to only one of the backends (which is what you assume, right?)</div>
<div>But, yes, if the volume type names are also the same (is that also needed for this to be a</div>
<div>problem?), this will be an issue ...</div>
<div><br>
</div>
<div>So, how about providing the information the scheduler does not have by introducing an</div>
<div>additional tag to identify ‘equivalent’ backends, similar to the way some people already</div>
<div>use the ‘host’ option?</div>
<div><br>
</div>
<div>Thanks!</div>
<span><font color="#888888">
<div> Arne</div>
</font></span>
<div>
<div>
<div><br>
</div>
<div>
<div>
<div><br>
<div>
<blockquote type="cite">
<div>On 08 Jan 2015, at 15:11, Duncan Thomas <<a href="mailto:duncan.thomas@gmail.com" target="_blank">duncan.thomas@gmail.com</a>> wrote:</div>
<br>
<div>
<div dir="ltr">The problem is that the scheduler doesn't currently have enough info to know which backends are 'equivalent' and which aren't. e.g. If you have 2 ceph clusters as cinder backends, they are indistinguishable from each other.<br>
</div>
<div class="gmail_extra"><br>
<div class="gmail_quote">On 8 January 2015 at 12:14, Arne Wiebalck <span dir="ltr">
<<a href="mailto:Arne.Wiebalck@cern.ch" target="_blank">Arne.Wiebalck@cern.ch</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hi,<br>
<br>
The fact that volume requests (in particular deletions) are coupled with certain Cinder hosts is not ideal from an operational perspective:<br>
if the node has meanwhile disappeared, e.g. retired, the deletion gets stuck and can only be unblocked by changing the database. Some<br>
people apparently use the ‘host’ option in cinder.conf to make the hosts indistinguishable, but this creates problems in other places.<br>
<br>
>From what I see, even for backends that would support it (such as Ceph), Cinder currently does not provide means to ensure that any of<br>
the hosts capable of performing a volume operation would be assigned the request in case the original/desired one is no more available,<br>
right?<br>
<br>
If that is correct, how about changing the scheduling of delete operation to use the same logic as create operations, that is pick any of the<br>
available hosts, rather than the one which created a volume in the first place (for backends where that is possible, of course)?<br>
<br>
Thanks!<br>
 Arne<br>
<br>
—<br>
<span><font color="#888888">Arne Wiebalck<br>
CERN IT<br>
_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org" target="_blank">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</font></span></blockquote>
</div>
<br>
<br clear="all">
<br>
-- <br>
<div>Duncan Thomas</div>
</div>
_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org" target="_blank">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div>
</blockquote>
</div>
<br>
</div>
</div>
</div>
</div>
</div>
</div>
<br>
_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org" target="_blank">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
<br>
</blockquote>
</div>
<br>
</div>
_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org" target="_blank">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div>
</blockquote>
</div>
<br>
</div></div></div>

<br>_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
<br></blockquote></div><br></div>