<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">2018-05-29 11:01 GMT+02:00 Balázs Gibizer <span dir="ltr"><<a href="mailto:balazs.gibizer@ericsson.com" target="_blank">balazs.gibizer@ericsson.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class=""><br>
<br>
On Tue, May 29, 2018 at 9:38 AM, Sylvain Bauza <<a href="mailto:sbauza@redhat.com" target="_blank">sbauza@redhat.com</a>> wrote:<br>
</span><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">
<br>
<br>
On Tue, May 29, 2018 at 3:08 AM, TETSURO NAKAMURA <<a href="mailto:nakamura.tetsuro@lab.ntt.co.jp" target="_blank">nakamura.tetsuro@lab.ntt.co.j<wbr>p</a>> wrote<br>
<br>
</span><span class=""><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
> In that situation, say for example with VGPU inventories, that would mean<br>
> that the compute node would stop reporting inventories for its root RP, but<br>
> would rather report inventories for at least one single child RP.<br>
> In that model, do we reconcile the allocations that were already made<br>
> against the "root RP" inventory ?<br>
<br>
It would be nice to see Eric and Jay comment on this,<br>
but if I'm not mistaken, when the virt driver stops reporting inventories for its root RP, placement would try to delete that inventory inside and raise InventoryInUse exception if any allocations still exist on that resource.<br>
<br>
```<br>
update_from_provider_tree() (nova/compute/resource_tracker<wbr>.py)<br>
  + _set_inventory_for_provider() (nova/scheduler/client/report.<wbr>py)<br>
      + put() - PUT /resource_providers/<rp_uuid>/<wbr>inventories with new inventories (scheduler/client/report.py)<br>
          + set_inventories() (placement/handler/inventory.p<wbr>y)<br>
              + _set_inventory() (placement/objects/resource_pr<wbr>oveider.py)<br>
                  + _delete_inventory_from_provide<wbr>r() (placement/objects/resource_pr<wbr>oveider.py)<br>
                      -> raise exception.InventoryInUse<br>
```<br>
<br>
So we need some trick something like deleting VGPU allocations before upgrading and set the allocation again for the created new child after upgrading?<br>
<br>
</blockquote>
<br>
I wonder if we should keep the existing inventory in the root RP, and somehow just reserve the left resources (so Placement wouldn't pass that root RP for queries, but would still have allocations). But then, where and how to do this ? By the resource tracker ?<br>
<br>
</span></blockquote>
<br>
AFAIK it is the virt driver that decides to model the VGU resource at a different place in the RP tree so I think it is the responsibility of the same virt driver to move any existing allocation from the old place to the new place during this change.<br>
<br></blockquote><div><br></div><div>No. Allocations are done by the scheduler or by the conductor. Virt drivers only provide inventories.</div><div><br></div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Cheers,<br>
gibi<div class="HOEnZb"><div class="h5"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
-Sylvain<br>
<br>
</blockquote>
<br>
<br>
______________________________<wbr>______________________________<wbr>______________<br>
OpenStack Development Mailing List (not for usage questions)<br>
Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" rel="noreferrer" target="_blank">OpenStack-dev-request@lists.op<wbr>enstack.org?subject:unsubscrib<wbr>e</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi<wbr>-bin/mailman/listinfo/openstac<wbr>k-dev</a><br>
</div></div></blockquote></div><br></div></div>