<div dir="ltr">Thanks a lot, Sean for the clarification :P<div><br></div><div>Regards</div><div>Li Liu</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, Feb 21, 2019 at 10:41 AM Sean Mooney <<a href="mailto:smooney@redhat.com">smooney@redhat.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Thu, 2019-02-21 at 10:21 -0500, Li Liu wrote:<br>
> HI Nova folks,<br>
> <br>
> I am trying to find out how Numa balance/weighs per host is taking care of in Nova.<br>
> <br>
> I know how weighers work in general, but it's weighing between hosts. I am not so clear when it comes to a single host<br>
> with multiple sockets, how does nova weigh them?<br>
the short answer is it doesn't.<br>
<br>
we then to pack numa node 1 before we move on to numa node 2<br>
the actual asignment of numa resouce to the vm is done by the resouce tracker on the compute node.<br>
stephen on cc has done some work around avoidign host with pci device when they are not requested <br>
and im not sur if he extened that to numa nodes as well.<br>
<br>
the specifc code in the libvirt dirver and hardware.py file is rather complicated and hard to extend<br>
so while this has come up in the past we have not really put alot of errort into this topic.<br>
<br>
it is not clear that balancing the vm placement is always corect and this is not something a enduser should<br>
be able to influnce. that means adding a flavor extraspec. this makes modeling numa in placement more complicated<br>
which is another reason we have not really spent much time on this lately.<br>
one example where you dont want to blance blindly is when you have sriov devices, gpus or fpgas on the host.<br>
in this case assuming you have not already seperated the host into a dedicated hostaggrate for host with special deivces<br>
you would want to avoid blancing so that instance that dont request an fpga are first tried to be placed on numa nodes<br>
without an fpga before they areĀ  assingined to a numa node with an fpga.<br>
> <br>
> For instance, a host has 4 sockets, A, B, C, D. When scheduling request comes in asking for 4 cores on 2 sockets(2<br>
> cores per socket), scheduler realized that A+B, A+C, and C+D combination can all fit the request. In this case, how<br>
> does nova make the decision on which combination to choose from?<br>
if i remember the code correctly it will take resoces for the first two numa nodes that can fit the vm.<br>
> <br>
<br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature">Thank you<div><br></div><div>Regards</div><div><br></div><div>Li</div></div>