<div>Albert,<br></div><div><br></div><div>Do this: <a href="https://cloudblog.switch.ch/2017/08/28/starting-1000-instances-on-switchengines/">https://cloudblog.switch.ch/2017/08/28/starting-1000-instances-on-switchengines/</a></div><div><br></div><div>The problem will go away.  I'm of the opinion that daemon mode for rootwrap should be the default since the performance improvement is an order of magnitude, but privsep may obviate that concern once its fully implemented.<br></div><div><br></div><div>Either way, that should solve your problem.<br></div><div><br></div><div class="protonmail_signature_block"><div class="protonmail_signature_block-user"><div>r<br></div><div><br></div><div>Chris Apsey<br></div></div><div class="protonmail_signature_block-proton protonmail_signature_block-empty"><br></div></div><div><br></div><div>‐‐‐‐‐‐‐ Original Message ‐‐‐‐‐‐‐<br></div><div> On Friday, September 27, 2019 12:17 PM, Albert Braden <Albert.Braden@synopsys.com> wrote:<br></div><div> <br></div><blockquote class="protonmail_quote" type="cite"><div><p>When I create 100 VMs in our prod cluster:<br></p><p> <br></p><p>openstack server create --flavor s1.tiny --network it-network --image cirros-0.4.0-x86_64 --min 100 --max 100 alberttest<br></p><p> <br></p><p>Most of them build successfully in about a minute. 5 or 10 will stay in BUILD status for 5 minutes and then fail with “ BuildAbortException: Build of instance <UUID> aborted: Failed to allocate the network(s), not rescheduling.”<br></p><p> <br></p><p>If I build smaller numbers, I see less failures, and no failures if I build one at a time. This does not happen in dev or QA; it appears that we are exhausting a resource in prod. I tried reducing various config values in dev but am not
 able to duplicate the issue. The neutron servers don’t appear to be overloaded during the failure.<br></p><p> <br></p><p>What config variables should I be looking at?<br></p><p> <br></p><p>Here are the relevant log entries from the HV:<br></p><p> <br></p><p>2019-09-26 10:10:43.001 57008 INFO os_vif [req-dea54d9a-3f3e-4d47-b901-a4f41b1947a8 d28c3871f61e4c8c8f8c7600417f7b14 e9621e3b105245ba8660f434ab21016c - default 4fb72165eee4468e8033cdc7d506ddf0] Successfully plugged vif VIFBridge(active=False,address=fa:16:3e:8b:45:07,bridge_name='brq49cbe55d-51',has_traffic_filtering=True,id=18f4e419-b19c-4b62-b6e4-152ec78e72bc,network=Network(49cbe55d-5188-4183-b5ad-e65f9b46f8f2),plugin='linux_bridge',port_profile=<?>,preserve_on_delete=False,vif_name='tap18f4e419-b1')<br></p><p>2019-09-26 10:15:44.029 57008 WARNING nova.virt.libvirt.driver [req-dea54d9a-3f3e-4d47-b901-a4f41b1947a8 d28c3871f61e4c8c8f8c7600417f7b14 e9621e3b105245ba8660f434ab21016c - default 4fb72165eee4468e8033cdc7d506ddf0] [instance: dc58f154-00f9-4c45-8986-94b10821cbc9]
 Timeout waiting for [('network-vif-plugged', u'18f4e419-b19c-4b62-b6e4-152ec78e72bc')] for instance with vm_state building and task_state spawning.: Timeout: 300 seconds<br></p><p> <br></p><p>More logs and data:<br></p><p> <br></p><p>http://paste.openstack.org/show/779524/<br></p><p> <br></p></div></blockquote><div><br></div>