Is that still spitting out a vif plug failure or are your instances spawning but not getting addresses?  I've found that adding in the no-ping option to dnsmasq lowers load significantly, but can be dangerous if you've got potentially conflicting sources of address allocation.  While it doesn't address the below bug report specifically, it may breathe some more CPU cycles into dnsmasq so it can handle other items better.<br><br><br>R<br><br>CA<br><br><br><br>-------- Original Message --------<br>On Oct 2, 2019, 12:41, fsbiz@yahoo.com < fsbiz@yahoo.com> wrote:<blockquote class="protonmail_quote"><br><html xmlns="http://www.w3.org/1999/xhtml" xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office"><head><!--[if gte mso 9]><xml><o:OfficeDocumentSettings><o:AllowPNG/><o:PixelsPerInch>96</o:PixelsPerInch></o:OfficeDocumentSettings></xml><![endif]--></head><body><div class="ydp95e21200yahoo-style-wrap" style="font-family: times new roman, new york, times, serif; font-size: 16px;"><div></div>
        <div dir="ltr" data-setdir="false">Thanks. This definitely helps.</div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">I am running a stable release of Queens.</div><div dir="ltr" data-setdir="false">Even after this change I still see 10-15 failures when I create 100 VMs in our cluster.</div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">I have tracked this down (to a reasonable degree of certainty) to the SIGHUPs caused by DNSMASQ reloads</div><div dir="ltr" data-setdir="false">every time a new MAC entry is added, deleted or updated. </div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">It seems to be related to</div><div dir="ltr" data-setdir="false"><span><a href="https://bugs.launchpad.net/neutron/+bug/1598078" rel="nofollow" target="_blank">https://bugs.launchpad.net/neutron/+bug/1598078</a></span><br></div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">The fix for the above bug was abandoned.  </div><div dir="ltr" data-setdir="false"><span><a href="https://review.opendev.org/#/c/336462/" rel="nofollow" target="_blank" class="enhancr_card_0667079528">Gerrit Code Review</a></span><div><br></div><div id="ydp36573259enhancr_card_0667079528" class="ydp36573259yahoo-link-enhancr-card ydp36573259yahoo-link-enhancr-not-allow-cover ydp36573259ymail-preserve-class ydp36573259ymail-preserve-style" style="max-width:400px;font-family:Helvetica Neue, Segoe UI, Helvetica, Arial, sans-serif" data-url="https://review.opendev.org/#/c/336462/" data-type="YENHANCER" data-size="MEDIUM" contenteditable="false"><a href="https://review.opendev.org/#/c/336462/" style="text-decoration:none !important;color:#000 !important" class="ydp36573259yahoo-enhancr-cardlink" rel="nofollow" target="_blank"><table border="0" class="ydp36573259card-wrapper ydp36573259yahoo-ignore-table" cellpadding="0" cellspacing="0" style="max-width:400px"><tbody><tr><td width="400"><table border="0" class="ydp36573259card ydp36573259yahoo-ignore-table" cellpadding="0" cellspacing="0" width="100%" style="max-width:400px;border-width:1px;border-style:solid;border-color:rgb(224, 228, 233);border-radius:2px"><tbody><tr><td><table border="0" class="ydp36573259card-info ydp36573259yahoo-ignore-table" cellpadding="0" cellspacing="0" style="background:#fff;position:relative;z-index:2;width:100%;max-width:400px;border-radius:0 0 2px 2px;border-top:1px solid rgb(224, 228, 233)"><tbody><tr><td style="background-color:#ffffff;padding:16px 0 16px 12px;vertical-align:top;border-radius:0 0 0 2px"></td><td style="vertical-align:middle;padding:12px 24px 16px 12px;width:99%;font-family:Helvetica Neue, Segoe UI, Helvetica, Arial, sans-serif;border-radius:0 0 2px 0"><h2 class="ydp36573259card-title" style="font-size: 14px; line-height: 19px; margin: 0px 0px 6px; font-family: Helvetica Neue, Segoe UI, Helvetica, Arial, sans-serif; color: rgb(38, 40, 42);">Gerrit Code Review</h2><p class="ydp36573259card-description" style="font-size: 12px; line-height: 16px; margin: 0px; color: rgb(151, 155, 167);"></p></td></tr></tbody></table></td></tr></tbody></table></td></tr></tbody></table></a></div><div><br></div><div><br></div><div dir="ltr" data-setdir="false">Any further fine tuning that can be done? </div><div dir="ltr" data-setdir="false"><br></div><div dir="ltr" data-setdir="false">Thanks,</div><div dir="ltr" data-setdir="false">Fred.</div><div><br></div><br></div><div><br></div>

        </div><div id="ydp3a4527a8yahoo_quoted_0516677938" class="ydp3a4527a8yahoo_quoted">
            <div style="font-family:'Helvetica Neue', Helvetica, Arial, sans-serif;font-size:13px;color:#26282a;">

                <div>
                    On Friday, September 27, 2019, 09:37:51 AM PDT, Chris Apsey <bitskrieg@bitskrieg.net> wrote:
                </div>
                <div><br></div>
                <div><br></div>
                <div><div id="ydp3a4527a8yiv2290141030"><div><div>Albert,<br clear="none"></div><div><br clear="none"></div><div>Do this: <a shape="rect" href="https://cloudblog.switch.ch/2017/08/28/starting-1000-instances-on-switchengines/" rel="nofollow" target="_blank">https://cloudblog.switch.ch/2017/08/28/starting-1000-instances-on-switchengines/</a></div><div><br clear="none"></div><div>The problem will go away.  I'm of the opinion that daemon mode for rootwrap should be the default since the performance improvement is an order of magnitude, but privsep may obviate that concern once its fully implemented.<br clear="none"></div><div><br clear="none"></div><div>Either way, that should solve your problem.<br clear="none"></div><div><br clear="none"></div><div class="ydp3a4527a8yiv2290141030protonmail_signature_block"><div class="ydp3a4527a8yiv2290141030protonmail_signature_block-user"><div>r<br clear="none"></div><div><br clear="none"></div><div>Chris Apsey<br clear="none"></div></div><div class="ydp3a4527a8yiv2290141030protonmail_signature_block-proton ydp3a4527a8yiv2290141030protonmail_signature_block-empty"><br clear="none"></div></div><div><br clear="none"></div><div>‐‐‐‐‐‐‐ Original Message ‐‐‐‐‐‐‐<br clear="none"></div><div class="ydp3a4527a8yiv2290141030yqt1194612915" id="ydp3a4527a8yiv2290141030yqtfd67219"><div> On Friday, September 27, 2019 12:17 PM, Albert Braden <Albert.Braden@synopsys.com> wrote:<br clear="none"></div><div> <br clear="none"></div><blockquote class="ydp3a4527a8yiv2290141030protonmail_quote" type="cite"><div><p>When I create 100 VMs in our prod cluster:<br clear="none"></p><p> <br clear="none"></p><p>openstack server create --flavor s1.tiny --network it-network --image cirros-0.4.0-x86_64 --min 100 --max 100 alberttest<br clear="none"></p><p> <br clear="none"></p><p>Most of them build successfully in about a minute. 5 or 10 will stay in BUILD status for 5 minutes and then fail with “ BuildAbortException: Build of instance <UUID> aborted: Failed to allocate the network(s), not rescheduling.”<br clear="none"></p><p> <br clear="none"></p><p>If I build smaller numbers, I see less failures, and no failures if I build one at a time. This does not happen in dev or QA; it appears that we are exhausting a resource in prod. I tried reducing various config values in dev but am not
 able to duplicate the issue. The neutron servers don’t appear to be overloaded during the failure.<br clear="none"></p><p> <br clear="none"></p><p>What config variables should I be looking at?<br clear="none"></p><p> <br clear="none"></p><p>Here are the relevant log entries from the HV:<br clear="none"></p><p> <br clear="none"></p><p>2019-09-26 10:10:43.001 57008 INFO os_vif [req-dea54d9a-3f3e-4d47-b901-a4f41b1947a8 d28c3871f61e4c8c8f8c7600417f7b14 e9621e3b105245ba8660f434ab21016c - default 4fb72165eee4468e8033cdc7d506ddf0] Successfully plugged vif VIFBridge(active=False,address=fa:16:3e:8b:45:07,bridge_name='brq49cbe55d-51',has_traffic_filtering=True,id=18f4e419-b19c-4b62-b6e4-152ec78e72bc,network=Network(49cbe55d-5188-4183-b5ad-e65f9b46f8f2),plugin='linux_bridge',port_profile=<?>,preserve_on_delete=False,vif_name='tap18f4e419-b1')<br clear="none"></p><p>2019-09-26 10:15:44.029 57008 WARNING nova.virt.libvirt.driver [req-dea54d9a-3f3e-4d47-b901-a4f41b1947a8 d28c3871f61e4c8c8f8c7600417f7b14 e9621e3b105245ba8660f434ab21016c - default 4fb72165eee4468e8033cdc7d506ddf0] [instance: dc58f154-00f9-4c45-8986-94b10821cbc9]
 Timeout waiting for [('network-vif-plugged', u'18f4e419-b19c-4b62-b6e4-152ec78e72bc')] for instance with vm_state building and task_state spawning.: Timeout: 300 seconds<br clear="none"></p><p> <br clear="none"></p><p>More logs and data:<br clear="none"></p><p> <br clear="none"></p><p>http://paste.openstack.org/show/779524/<br clear="none"></p><p> <br clear="none"></p></div></blockquote><div><br clear="none"></div></div></div></div></div>
            </div>
        </div></body></html></div>