<div dir="ltr">Hi John,<div><br></div><div>><span style="font-size:12.8px">With ironic I thought everything is "passed through" by default,</span></div><span style="font-size:12.8px">>because there is no virtualization in the way. (I am possibly</span><br style="font-size:12.8px"><span style="font-size:12.8px">>incorrectly assuming no BIOS tricks to turn off or re-assign PCI</span><br style="font-size:12.8px"><span style="font-size:12.8px">>devices dynamically.)</span><div><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">Yes with ironic everything is passed through by default. </span></div><div><span style="font-size:12.8px"><br></span><div><span style="font-size:12.8px">></span><span style="font-size:12.8px">So I am assuming this is purely a scheduling concern. If so, why are</span></div><span style="font-size:12.8px">>the new custom resource classes not good enough? "ironic_blue" could</span><br style="font-size:12.8px"><span style="font-size:12.8px">>mean two GPUs and two 10Gb nics, "ironic_yellow" could mean one GPU</span><br style="font-size:12.8px"><span style="font-size:12.8px">>and one 1Gb nic, etc.</span></div><div><span style="font-size:12.8px">></span><span style="font-size:12.8px">Or is there something else that needs addressing here? Trying to</span><br style="font-size:12.8px"><span style="font-size:12.8px">>describe what you get with each flavor to end users?</span><span style="font-size:12.8px"><br></span><div><span style="font-size:12.8px">Yes this is purely from scheduling perspective. </span></div></div><div><span style="font-size:12.8px">Currently how ironic works is we discover server attributes and populate them into node object. These attributes are then used for further scheduling of the node from nova scheduler using ComputeCapabilities filter. So this is something automated on ironic side, like we do inspection of the node properties/attributes and user need to create the flavor of their choice and the node which meets the user need is scheduled for ironic deploy.</span></div><div><span style="font-size:12.8px">With resource class name in place in ironic, we ask user to do a manual step i.e. create a resource class name based on the hardware attributes and this need to be done on per node basis. For this user need to know the server hardware properties in advance before assigning the resource class name to the node(s) and then assign the resource class name manually to the node. </span></div><div>In a broad way if i say, if we want to support scheduling based on quantity for ironic nodes there is no way we can do it through current resource class structure(actually just a tag) in ironic. A  user may want to schedule ironic nodes on different resources and each resource should be a different resource class (IMO). </div><div><br></div><div>><span style="font-size:12.8px">Are you needing </span><span style="font-size:12.8px">to aggregating similar hardware in a different way to the above</span></div><span style="font-size:12.8px">>resource class approach?</span><div><span style="font-size:12.8px">i guess no but the above resource class approach takes away the automation on the ironic side and the whole purpose of inspection is defeated.</span></div><div><span style="font-size:12.8px"><br></span></div><div><span style="font-size:12.8px">Regards</span></div><div><span style="font-size:12.8px">Nisha<br></span><div><br></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Apr 10, 2017 at 4:29 PM, John Garbutt <span dir="ltr"><<a href="mailto:john@johngarbutt.com" target="_blank">john@johngarbutt.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 10 April 2017 at 11:31,  <<a href="mailto:sfinucan@redhat.com">sfinucan@redhat.com</a>> wrote:<br>
> On Mon, 2017-04-10 at 11:50 +0530, Nisha Agarwal wrote:<br>
>> Hi team,<br>
>><br>
>> Please could you pour in your suggestions on the mail?<br>
>><br>
>> I raised a blueprint in Nova for this <a href="https://blueprints.launchpad.ne" rel="noreferrer" target="_blank">https://blueprints.launchpad.<wbr>ne</a><br>
>> t/nova/+spec/pci-passthorugh-<wbr>for-ironic and two RFEs at ironic side h<br>
>> ttps://<a href="http://bugs.launchpad.net/ironic/+bug/1680780" rel="noreferrer" target="_blank">bugs.launchpad.net/<wbr>ironic/+bug/1680780</a> and <a href="https://bugs.launch" rel="noreferrer" target="_blank">https://bugs.launch</a><br>
>> <a href="http://pad.net/ironic/+bug/1681320" rel="noreferrer" target="_blank">pad.net/ironic/+bug/1681320</a> for the discussion topic.<br>
><br>
> If I understand you correctly, you want to be able to filter ironic<br>
> hosts by available PCI device, correct? Barring any possibility that<br>
> resource providers could do this for you yet, extending the nova ironic<br>
> driver to use the PCI passthrough filter sounds like the way to go.<br>
<br>
</span>With ironic I thought everything is "passed through" by default,<br>
because there is no virtualization in the way. (I am possibly<br>
incorrectly assuming no BIOS tricks to turn off or re-assign PCI<br>
devices dynamically.)<br>
<br>
So I am assuming this is purely a scheduling concern. If so, why are<br>
the new custom resource classes not good enough? "ironic_blue" could<br>
mean two GPUs and two 10Gb nics, "ironic_yellow" could mean one GPU<br>
and one 1Gb nic, etc.<br>
<br>
Or is there something else that needs addressing here? Trying to<br>
describe what you get with each flavor to end users? Are you needing<br>
to aggregating similar hardware in a different way to the above<br>
resource class approach?<br>
<br>
Thanks,<br>
johnthetubaguy<br>
<div class="HOEnZb"><div class="h5"><br>
______________________________<wbr>______________________________<wbr>______________<br>
OpenStack Development Mailing List (not for usage questions)<br>
Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" rel="noreferrer" target="_blank">OpenStack-dev-request@lists.<wbr>openstack.org?subject:<wbr>unsubscribe</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" rel="noreferrer" target="_blank">http://lists.openstack.org/<wbr>cgi-bin/mailman/listinfo/<wbr>openstack-dev</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature">The Secret Of Success is learning how to use pain and pleasure, instead<br>of having pain and pleasure use you. If You do that you are in control<br>of your life. If you don't life controls you.</div>
</div>