<div dir="ltr"><br><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Nov 13, 2013 at 11:11 AM, Sean Dague <span dir="ltr"><<a href="mailto:sean@dague.net" target="_blank">sean@dague.net</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">On 11/13/2013 02:06 PM, Joe Gordon wrote:<br>
><br>
><br>
><br>
> On Wed, Nov 13, 2013 at 8:18 PM, Sean Dague <<a href="mailto:sean@dague.net">sean@dague.net</a><br>
</div><div><div class="h5">> <mailto:<a href="mailto:sean@dague.net">sean@dague.net</a>>> wrote:<br>
><br>
>     On 11/12/2013 10:25 PM, Robert Collins wrote:<br>
>     > We shouldn't really be changing the config of the cloud we're testing<br>
>     > - that stops us being run against actual prod clouds.<br>
>     ><br>
>     > Instead we should have some set of profiles we test against - and then<br>
>     > run different jobs for different profiles, avoiding the problem<br>
>     > entirely.<br>
><br>
>     The issue here is we've got an API that's exposed to the admin to do<br>
>     this, which means for some folks, it would be nice to test this<br>
>     functionality is working. Per our community mantra "If it's not tested,<br>
>     it's assumed broken." -<br>
>     <a href="https://twitter.com/russellbryant/status/396889282155008000" target="_blank">https://twitter.com/russellbryant/status/396889282155008000</a><br>
><br>
>     That being said, in this case in particular, we should probably be more<br>
>     careful about disabling our only nova-compute during the tests, because,<br>
>     you know, that might be bad. Today the calls happen so quickly, I think<br>
>     we've just avoided the race entirely (the enable_disable test has been<br>
>     in the gate since H2). I've honestly never seen a race that we can track<br>
>     down to this in the gate.<br>
><br>
>     For now, I'd agree that enable_disable should probably be removed from a<br>
>     normal tempest run. I think we've started to find that we have a class<br>
>     of APIs that impact our runtime in a dramatic enough way, that we need<br>
>     to be really careful about how we tickle them. I'd be interested in<br>
>     ideas about how we do that. Remember we also have locking in our bag of<br>
>     tricks, which is what we need to do around all the aggregate tests, as<br>
>     those are admin tests on global state.<br>
><br>
><br>
> Why not just use the lock in this case?<br>
<br>
</div></div>Well... the only issue is we'd actually have to also lock every compute<br>
call that would get to n-cpu, because the resource we are making go away<br>
is n-cpu. Which is a ton of lock metering for one test.<br></blockquote><div><br></div><div>Good point.</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">


<span class="HOEnZb"><font color="#888888"><br>
        -Sean<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
--<br>
Sean Dague<br>
<a href="http://dague.net" target="_blank">http://dague.net</a><br>
<br>
</div></div><br>_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
<br></blockquote></div><br></div></div>