<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Thu, Feb 5, 2015 at 9:01 PM, Steve Gordon <span dir="ltr"><<a href="mailto:sgordon@redhat.com" target="_blank">sgordon@redhat.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">----- Original Message -----<br>
> From: "Przemyslaw Czesnowicz" <<a href="mailto:przemyslaw.czesnowicz@intel.com">przemyslaw.czesnowicz@intel.com</a>><br>
> To: "OpenStack Development Mailing List (not for usage questions)" <<a href="mailto:openstack-dev@lists.openstack.org">openstack-dev@lists.openstack.org</a>><br>
><br>
> Hi<br>
><br>
> > 1) If the device is a "normal" PCI device, but is a network card, am I<br>
> > still able to<br>
> > take advantage of the advanced syntax added circa Juno to define the<br>
> > relationship between that card and a given physical network so that the<br>
> > scheduler can place accordingly (and does this still use the ML2 mech<br>
> > drvier for<br>
> > SR-IOV even though it's a "normal" device.<br>
><br>
> Actually libvirt won't allow using "normal" PCI devices for network<br>
> interfaces into VM.<br>
> Following error is thrown by libvirt <a href="http://1.2.9.1" target="_blank">1.2.9.1</a>:<br>
> libvirtError: unsupported configuration: Interface type hostdev is currently<br>
> supported on SR-IOV Virtual Functions only<br>
><br>
> I don't know why libvirt prohibits that. But we should prohibit that on<br>
> Openstack side as well.<br>
<br>
</span>This is true for hostdev"> style configuration, "normal" PCI devices are still valid in Libvirt for passthrough using <hostdev> though. The former having been specifically created for handling passthrough of VFs, the latter being the more generic passthrough functionality and what was used with the original PCI passthrough functionality introduced circa Havana.<br>
<br>
I guess what I'm really asking in this particular question is what is the intersection of these two implementations - if any, as on face value it seems that to passthrough a physical PCI device I must use the older syntax and thus can't have the scheduler be aware of its external network connectivity.<br></blockquote><div>Support for "normal" PCI device passthrough for networking in SR-IOV like way will require new VIF Driver support for hostdev style device guest XML being created and some call invocation to set MAC address and VLAN tag.  </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<span class=""><br>
> > 2) There is no functional reason from a Libvirt/Qemu perspective that I<br>
> > couldn't<br>
> > pass through a PF to a guest, and some users have expressed surprise to me<br>
> > when they have run into this check in the Nova driver. I assume in the<br>
> > initial<br>
> > implementation this was prevented to avoid a whole heap of fun additional<br>
> > logic<br>
> > that is required if this is allowed (e.g. check that no VFs from the PF<br>
> > being<br>
> > requested are already in use, remove all the associated VFs from the pool<br>
> > when<br>
> > assigning the PF, who gets allowed to use PFs versus VFs etc.). Am I<br>
> > correct here<br>
> > or is there another reason that this would be undesirable to allow in<br>
> > future -<br>
> > assuming such checks can also be designed - that I am missing?<br>
> ><br>
> I think that is correct. But even if the additional logic was implemented  it<br>
> wouldn't work because of how libvirt behaves currently.<br>
<br>
</span>Again though, in the code we have a distinction between a physical device (as I was asking about in Q1) and a physical function (as I am asking about in Q2) and similarly whether libvirt allows or not depends on how you configure in the guest XML. Though I wouldn't be surprised on the PF case if it is in fact not allowed in Libvirt (even with <hostdev>) it is again important to consider this distinctly separate from passing through the physical device case which we DO allow currently in the code I'm asking about.<br></blockquote><div>I think what you suggest is not difficult to support, but current (since Juno) PCI device passthrough  for networking is all about SR-IOV PCI device passthrough. As I mentioned, to support  "normal" PCI device will require libvirt VIF Driver adjustment. I think its possible to make this work with existing neutron ML2 SRIOV Mechanism Driver.</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<span class="HOEnZb"><font color="#888888"><br>
-Steve<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
__________________________________________________________________________<br>
OpenStack Development Mailing List (not for usage questions)<br>
Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" target="_blank">OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div></div></blockquote></div><br></div></div>