Hi Paul,<br><br>Thanks for the follow up ;-)<br><br>I've been sitting on this problem for a couple of hours now. Here's what I determinded:<br><br>Changing flags in /usr/lib/python2.7/dist-packages/nova/flags.py regarding sqlalchemy did not help:<br>
<br>
DEFINE_integer('sql_pool_timeout', 30,<br>               'seconds to wait for connection from pool before erroring')<br>DEFINE_integer('sql_min_pool_size', 30,<br>               'minimum number of SQL connections to pool')<br>

DEFINE_integer('sql_max_pool_size', 30,<br>               'maximum number of SQL connections to pool')<br><br><br>So I ended up with what you suggested - I wrote a small wrapper around euca2ools, which takes the same arguments and runs required amount of vms one-by-one in a loop:<br>

<br><a href="http://paste.openstack.org/show/4312/" target="_blank">http://paste.openstack.org/show/4312/</a><br><br>Here's how you launch it (exactly as euca-run-instances):<br><br>./local-run-instances.py -n10 -k <key> ami-XXXXXXXX<br>
<br>Cheers,<br><br><br><div class="gmail_quote">On 14 January 2012 00:37, Paul Guth <span dir="ltr"><<a href="mailto:gunther@cloudscaling.com" target="_blank">gunther@cloudscaling.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">We've run into the same problem and have filed a bug but haven't fixed it yet:<div><br></div><div><a href="https://bugs.launchpad.net/nova/+bug/907125" target="_blank">https://bugs.launchpad.net/nova/+bug/907125</a></div>

<div><br>
</div><div>For now I'd recommend not using "euca-run-instances -n" or using a smaller number.  Not exactly a fix....  :)</div><div><br></div><div>--paul<br><br><div class="gmail_quote"><div><div>
On Fri, Jan 13, 2012 at 12:57 AM, Linux Datacenter <span dir="ltr"><<a href="mailto:linuxdatacenter@gmail.com" target="_blank">linuxdatacenter@gmail.com</a>></span> wrote:<br>
</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div>Hi,<br><br>When I try to run a large number of instances in single run, like:<br>euca-run-instances -n <some_large_number><br>


<br>where some_large_number is something like 30-50<br><br>I hit some bug which I guess is related with sqlalchemy:<br>
<br>in nova-api.log:<br>nova.api): TRACE: DetachedInstanceError: Parent instance <FixedIp at 0x6d9fdd0> is not bound to a Session; lazy load operation of attribute 'network' cannot proceed<br><br>in nova-network.log:<br>



(nova.rpc): TRACE: TimeoutError: QueuePool limit of size 10 overflow 10 reached, connection timed out, timeout 30<br><br>euca-describe-instances:<br>Unknownerror<br><br>Eventually, when I run euca-describe-instances, some of the instances are stuck in "pending" state and never run.<br>



<br><br>I also tried to use cloud-run-instances,but it ends up with the same error:<br><br>Traceback (most recent call last):<br>  File "/usr/bin/cloud-run-instances", line 654, in <module><br>    main()<br>



  File "/usr/bin/cloud-run-instances", line 466, in main<br>    raise Exception('%s failed' % cmd)<br>Exception: euca-run-instances failed<br><br><br>Anyone has a remedy for this?<span><font color="#888888"><br>


 <br clear="all"><br>
-- <br>checkout my blog on linux clusters:<br>-- <a href="http://linuxdatacenter.blogspot.com" target="_blank">linuxdatacenter.blogspot.com</a> --<br>
</font></span><br></div></div>_______________________________________________<br>
Openstack-operators mailing list<br>
<a href="mailto:Openstack-operators@lists.openstack.org" target="_blank">Openstack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><span><font color="#888888"><br><br clear="all"><div><br></div>-- <br>Paul Guth<div><a href="http://www.cloudscaling.com/" target="_blank">Cloudscaling</a> Technical Operations</div>
<div>skype: pguth66</div><div>phone: <a href="tel:%2B1%20408%20647%205128" value="+14086475128" target="_blank">+1 408 647 5128</a></div>
<div><br></div><br>
</font></span></div>
</blockquote></div><br><br clear="all"><br>-- <br>checkout my blog on linux clusters:<br>-- <a href="http://linuxdatacenter.blogspot.com" target="_blank">linuxdatacenter.blogspot.com</a> --<br>