<div dir="ltr"><div><br></div><div>Well, it's a try given we discussed for 4 days and it could be a large summary ;)</div><div>You can see all the notes in a read-only etherpad here : <a href="https://etherpad.opendev.org/p/r.e70aa851abf8644c29c8abe4bce32b81">https://etherpad.opendev.org/p/r.e70aa851abf8644c29c8abe4bce32b81</a></div><div><br></div><div>### Cross-project discussions<br></div><div><br></div><div># Cyborg cross-project discussion with Nova</div><div>We agreed on adding a OWNED_BY_NOVA trait for all Resource Providers creating by Nova so Cyborg would provide their own OWNED_BY_CYBORG trait for knowing which inventories are used by either Nova or Cyborg.</div><div>Cyborg contributors need to modify <a href="https://review.opendev.org/c/openstack/nova-specs/+/780452">https://review.opendev.org/c/openstack/nova-specs/+/780452</a></div><div>We also agreed on the fact that <a href="https://blueprints.launchpad.net/nova/+spec/cyborg-suspend-and-resume">https://blueprints.launchpad.net/nova/+spec/cyborg-suspend-and-resume</a> is a specless blueprint.</div><div><br></div><div># Oslo cross-project discussion with Nova</div><div>gmann agreed on providing a new flag for oslopolicy-sample-generator for adding deprecated rules in the generated policy file.</div><div><br></div><div># RBAC popup team discussion with Nova</div><div>Eventually, we found no consensus for this topic as there were some left open questions about system-scope. FWIW, the popup team then discussed on Friday with the TC about this, so please look at the TC etherpad if you want to know more.</div><div>A side impact is about <a href="https://review.opendev.org/c/openstack/nova-specs/+/793011">https://review.opendev.org/c/openstack/nova-specs/+/793011</a> which is now punted until we figure out a good path.<br></div><div><br></div><div># Neutron cross-project discussion with Nova</div><div>Again, about RBAC for external events api interaction, we discussed about the scopes and eventually punted the discussion.</div><div>About specific events related to Neutron backends, ralonso accepted to provide a documentation explaining what backends sends which events, and we accepted to merge <a href="https://review.opendev.org/c/openstack/nova/+/813419">https://review.opendev.org/c/openstack/nova/+/813419</a> as a short-term solution while we would like to get a long-term solution by having Neutron providing the event information by the port binding information.</div><div>About testing move operations, we agreed on continuing to have a ML2/OVS multinode job.</div><div>During another Nova session, we also agreed on changing libvirt to directly unplug (not unbind) ports during VM shutdown.</div><div><br></div><div># Interop cross-project disussion with Nova</div><div>We agreed on reviewing <a href="https://review.opendev.org/c/openinfra/interop/+/811049/3/guidelines/2021.11.json">https://review.opendev.org/c/openinfra/interop/+/811049/3/guidelines/2021.11.json</a></div><div><br></div><div># Cinder cross-project discussion with Nova</div><div>We discussed about <a href="https://blueprints.launchpad.net/nova/+spec/volume-backed-server-rebuild">https://blueprints.launchpad.net/nova/+spec/volume-backed-server-rebuild</a> and we said the workflow should be something like user > nova > cinder > nova. We also  discussed about some upgrade questions for this one, but we eventually agreed on it.</div><div>We also discussed about devstack-plugin-nfs gate issues and how to contact the nova events API for resize.</div><div><br></div><div># Manila integration with libvirt driver</div><div>The first spec looks promising <a href="https://review.opendev.org/c/openstack/nova-specs/+/813180">https://review.opendev.org/c/openstack/nova-specs/+/813180</a></div><div>There were discussions about cloud-init and the Ironic case, but we agree on the smaller scope for the Yoga release that's proposed in the spec.</div><div><br></div><div><br></div><div>### Nova specific topics ###</div><div><br></div><div># Xena retrospective</div><div>We agreed on stopping to have an Asian-friendly meeting timeslot once per month as unfortunately, no contributors went to meetings when we had them.</div><div>We also agreed on modifying the review-priority label for abling contributors to use it too, but we first need to provide a documentation explaining it before we change Gerrit.</div><div><br></div><div># Continuing to use Storyboard for Placement or not ?</div><div>We eventually said we would look at how create a script for moving Storyboard (SB) stories to Launchpad (as either features or bugs) but we still want to continue verifying whether contributors use Storyboard for Placement bugs or feature requests and bauzas accepted to provide visibility on Placement SB stories during the weekly meeting.</div><div>gmann also agreed on asking contributors to move off the #openstack-placement IRC channel to #openstack-nova so we would delete this IRC channel eventually during this cycle.<br></div><div><br></div><div># Yoga release deadlines for Nova</div><div>No real change in deadlines compared to the Xena timeframe. We agreed on having two spec review days, one around mid-Nov (before yoga-1) and one around mid-Dec (before Christmas period) in order to prioritize implementation reviews after Jan 1st even if we can continue to review specs until yoga-2.</div><div><br></div><div></div><div># python version pinning with tox</div><div>We agreed on the fact this is a pain for developers. We then had a consensus on modifying tox to accept multiple python versions automatically with <a href="https://review.opendev.org/c/openstack/nova/+/804292">https://review.opendev.org/c/openstack/nova/+/804292</a> so it would fix the issue.</div><div><br></div><div># Nova DB issues with DB coalation</div><div>We agreed on the fact it's a problem, so we'll document the fact that Nova APIs are case-insensitive at the moment even if Python is case-sensitive, which creates problems. What we propose in order to fix this is to provide a nova-manage db upgrade command that would modify the DB tables to use COLLATE utf8_bin but we also agree we can't ask operators to migrate by one cycle and we accept the fact this command could be there for a while.</div><div><br></div><div># SQLAlchemy 2.0</div><div>The wave is coming and we need contributors to help us change what  we have in our nova DB modules to no longer use the deprecated calls. This looks a low-hanging-fruit and I'll try to find some contributor for this.</div><div><br></div><div># Bumping minimum microversion from v2.1</div><div>No, we said no because $users use it.</div><div><br></div><div># Unified limits</div><div>We agreed on providing a read-only API for knowing the limits but *not* providing proxy APIs for setting limits *as a first attempt*. We prefer operators to come back with usecases and feedback from their use of Unified Limits 1.0 before we start drafting some proxy API to Keystone.</div><div>Also, we agreed on *not* having config-driven quotas.</div><div><br></div><div># Central vncproxy in a multiple-cells environment</div><div>We understand the usecase which is very specific and we accept to create a central vncproxy service that would proxy calls to the cell-related vncproxy service but this is not a pattern we want to follow for every cell-specific nova service.<br></div><div><br></div><div># Move instances between projects.</div><div>Well, we totally get the usecase but we absolutely lack of resources in order to work on this very large effort that would span multiple services.</div><div></div><div><br></div><div># Nova service healthchecks</div><div>We agreed on providing a way for monitoring tools to ping Nova services for healthness thru http or unix socket, from every service that would return a status based on cached data. A spec has to be written.</div><div><br></div><div># Zombie Resource Providers no longer corresponding to Nova resources</div><div>Thanks to the OWNED_BY_NOVA trait we agreed when discussing with the Cyborg team, we could find a way to know the ResourceProviders owned by Nova that are no longer in use and we could consequently delete them, or warn the operator if existing allocations are present.</div><div><br></div><div># NUMA balancing</div><div>This is definitely a bug we will fix by providing a workaround config option that will let operators define the packing or spreading strategy they want for NUMA cell stacking (or not).</div><div><br></div><div># Deprecation of the novaclient shell command</div><div>Yes, now that the SDK is able to negociate, we can deprecate the novaclient CLI. More investigation work has to be done in order to know whether we can also deprecate the novaclient library itself.</div><div><br></div><div># Integration with Off-Path Network Backends</div><div>Lots of technicalities with this very large spec <a href="https://review.opendev.org/c/openstack/nova-specs/+/787458">https://review.opendev.org/c/openstack/nova-specs/+/787458</a>. Long story short, we asked the proposer to add a few more details in the spec about upgrade scenarios, move operations and testing, but we also told that we can't accept this spec until the Neutron one lands as there are some usage from the extended Neutron APIs that are proposed in the Nova spec.</div><div><br></div><div># 'pc' and 'q35' machine types</div><div>We agreed on changing the default machine type to 'q35' but we also agreed on *not* deprecating the 'pc' type. Some documentation has to be written in order to explain the intent of the migration.</div><div><br></div><div># Nova use of privsep</div><div>sean-k-mooney agreed on working on a patch to remove usage of CAP_DAC_OVERRIDE and on another patch to provide the new capabilities for the monolith privsep context</div><div><br></div><div>(a few other topics were discussed but I skipped them from my summary as they're not significant for either operators or other contributors but a very few people - don't get me wrong, I like them but I don't wanna add more verbosity to an already large summary)</div><div><br></div><div><br></div><div>### Nova painpoints</div><div>(taken from <a href="https://etherpad.opendev.org/p/pain-point-elimination">https://etherpad.opendev.org/p/pain-point-elimination</a>)</div><div><br></div><div># Ironic hashring failure recovery</div><div>That's a latent bug but we don't want the Ironic virt driver to modify the host value of every instance. We'd rather prefer some operator action in order to communicate Nova it has to shuffle a few things. More brainstorm has honestly to be done with this as we haven't clearly drafted a designed solution yet.</div><div><br></div><div># Problems with shelve, unshelve and then shelve back</div><div>Well, this is a nasty bug and we need to fix it, agreed. We also have a testing gap we need to close.</div><div><br></div><div># Naming cinder volumes after nova instance name</div><div>We said yes, why not. We also considered that 'delete on terminate' has to change so it does delete the volume when you delete the instance (for a boot-for-volume case)</div><div><br></div><div># Orphaned instances due to underlying network issues</div><div>We agreed on the fact it would be nice to provide a tool for knowing such orphans and we also think it's import for instance force-delete API call to complete successfully in such case.</div><div><br></div><div># reminiscent guests on a recovered compute node while instance records were purged</div><div>Well, we should avoid to purge instance records from the Nova DB if we are still unable to correctly delete the compute bits unless the operator explicitly wants to (in the case of a non-recoverable compute for example). A potential solution can be to add a config flag to *not* archive deleted rows on instances that are running on down computes.</div><div><br></div><div># Nova APIs leaking hypervisor hardware details</div><div>No, we don't want this but we can try to add more traits for giving more visibility on a case-by-case basis</div><div><br></div><div># RabbitMQ replacement</div><div>Well, we're unfortunately lacking resources on this. We recommend the community to investigate on use of a NATS backend for oslo.messaging</div><div><br></div><div># Placement strictness with move operations</div><div>We agree this is a bug that needs to be fixed.</div><div><br></div><div><br></div><div><br></div><div>Okay, if you reach this point, you're very brave. Kudos to you.</div><div>I don't really want to reproduce this exercice often, but I just hope it helps you summarizing a thousand-line large etherpad.</div><div><br></div><div><br></div><div>-Sylvain</div><div><br></div><div><br> </div><div><br></div></div>