<div dir="ltr">Jeremy, <div><br></div><div>If you want to use VxLAN networks for the bremetal hosts, you would use ML2 VLAN networks, as Julia described, between the host and switch port. That VLAN will then terminate into a VTAP on the switch port which will carry appropriate tags in the VxLAN overlay. </div><div><br></div><div>Hope this helps</div><div>-Sukhdev</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, May 2, 2019 at 9:28 PM Jeremy Freudberg <<a href="mailto:jeremyfreudberg@gmail.com">jeremyfreudberg@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Thanks Julia; this is helpful.<br>
<br>
Thanks also for reading my mind a bit, as I am thinking of the VXLAN<br>
case... I can't help but notice that in the Ironic CI jobs, multi<br>
tenant networking being used seems to entail VLANs as the tenant<br>
network type (instead of VXLAN). Is it just coincidence / how the gate<br>
just is, or is it hinting something about how VXLAN and bare metal get<br>
along?<br>
<br>
On Wed, May 1, 2019 at 6:38 PM Julia Kreger <<a href="mailto:juliaashleykreger@gmail.com" target="_blank">juliaashleykreger@gmail.com</a>> wrote:<br>
><br>
> Greetings Jeremy,<br>
><br>
> Best Practice wise, I'm not directly aware of any. It is largely going<br>
> to depend upon your Neutron ML2 drivers and network fabric.<br>
><br>
> In essence, you'll need an ML2 driver which supports the vnic type of<br>
> "baremetal", which is able to able to orchestrate the switch port port<br>
> binding configuration in your network fabric. If your using vlan<br>
> networks, in essence you'll end up with a neutron physical network<br>
> which is also a trunk port to the network fabric, and the ML2 driver<br>
> would then appropriately tag the port(s) for the baremetal node to the<br>
> networks required. In the CI gate, we do this in the "multitenant"<br>
> jobs where networking-generic-switch modifies the OVS port<br>
> configurations directly.<br>
><br>
> If specifically vxlan is what your looking to use between VMs and<br>
> baremetal nodes, I'm unsure of how you would actually configure that,<br>
> but in essence the VXLANs would still need to be terminated on the<br>
> switch port via the ML2 driver.<br>
><br>
> In term of Ironic's documentation, If you haven't already seen it, you<br>
> might want to check out ironic's multi-tenancy documentation[1].<br>
><br>
> -Julia<br>
><br>
> [1]: <a href="https://docs.openstack.org/ironic/latest/admin/multitenancy.html" rel="noreferrer" target="_blank">https://docs.openstack.org/ironic/latest/admin/multitenancy.html</a><br>
><br>
> On Wed, May 1, 2019 at 10:53 AM Jeremy Freudberg<br>
> <<a href="mailto:jeremyfreudberg@gmail.com" target="_blank">jeremyfreudberg@gmail.com</a>> wrote:<br>
> ><br>
> > Hi all,<br>
> ><br>
> > I'm wondering if anyone has any best practices for Ironic bare metal<br>
> > nodes and regular VMs living on the same network. I'm sure if involves<br>
> > Ironic's `neutron` multi-tenant network driver, but I'm a bit hazy on<br>
> > the rest of the details (still very much in the early stages of<br>
> > exploring Ironic). Surely it's possible, but I haven't seen mention of<br>
> > this anywhere (except the very old spec from 2015 about introducing<br>
> > ML2 support into Ironic) nor is there a gate job resembling this<br>
> > specific use.<br>
> ><br>
> > Ideas?<br>
> ><br>
> > Thanks,<br>
> > Jeremy<br>
> ><br>
<br>
</blockquote></div>