<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On 13 June 2016 at 22:22, Terry Wilson <span dir="ltr"><<a href="mailto:twilson@redhat.com" target="_blank">twilson@redhat.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex"><span class="">> So basically, as long as we try to plug ports with different MTUs into the same bridge, we are utilizing a bug in Open vSwitch, that may break us any time.<br>
><br>
> I guess our alternatives are:<br>
> - either redesign bridge setup for openvswitch to e.g. maintain a bridge per network;<br>
> - or talk to ovs folks on whether they may support that for us.<br>
><br>
> I understand the former option is too scary. It opens lots of questions, including upgrade impact since it will obviously introduce a dataplane downtime. That would be a huge shift in paradigm, probably too huge to swallow. The latter option may not fly with vswitch folks. Any better ideas?<br>
<br>
</span>I know I've heard from people who'd like to be able to support both<br>
DPDK and non-DPDK workloads on the same node. The current<br>
implementation with a single br-int (and thus datapath) makes that<br>
impossible to pull of with good performance. So there may be other<br>
reasons to consider introducing multiple isolated bridges: MTUs,<br>
datapath_types, etc.<br></blockquote><div><br></div><div>Incidentally this is something that Nova is already capable of handling (ie. wiring VM's in different bridges) thanks to [1], and with some minor additions as being discussed in the context of [2] vlan-aware-vms, we can open up the possibility to this deployment model in a not so distant future.</div><div><br></div><div>[1] <a href="https://blueprints.launchpad.net/nova/+spec/neutron-ovs-bridge-name">https://blueprints.launchpad.net/nova/+spec/neutron-ovs-bridge-name</a></div><div>[2] <a href="http://lists.openstack.org/pipermail/openstack-dev/2016-June/097025.html">http://lists.openstack.org/pipermail/openstack-dev/2016-June/097025.html</a></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204,204,204);padding-left:1ex">
<span class=""><font color="#888888"><br>
Terry<br>
</font></span><div class=""><div class="h5"><br>
On Mon, Jun 13, 2016 at 11:49 AM, Ihar Hrachyshka <<a href="mailto:ihrachys@redhat.com">ihrachys@redhat.com</a>> wrote:<br>
> Hi all,<br>
><br>
> in Mitaka, we introduced a bunch of changes to the way we handle MTU in Neutron/Nova, making sure that the whole instance data path, starting from instance internal interface, thru hybrid bridge, into the br-int; as well as router data path (qr) have proper MTU value set on all participating devices. On hypervisor side, both Nova and Neutron take part in it, setting it with ip-link tool based on what Neutron plugin calculates for us. So far so good.<br>
><br>
> Turns out that for OVS, it does not work as expected in regards to br-int. There was a bug reported lately: <a href="https://launchpad.net/bugs/1590397" rel="noreferrer" target="_blank">https://launchpad.net/bugs/1590397</a><br>
><br>
> Briefly, when we try to set MTU on a device that is plugged into a bridge, and if the bridge already has another port with lower MTU, the bridge itself inherits MTU from that latter port, and Linux kernel (?) does not allow to set MTU on the first device at all, making ip link calls ineffective.<br>
><br>
> AFAIU this behaviour is consistent with Linux bridging rules: you can’t have ports of different MTU plugged into the same bridge.<br>
><br>
> Now, that’s a huge problem for Neutron, because we plug ports that belong to different networks (and that hence may have different MTUs) into the same br-int bridge.<br>
><br>
> So I played with the code locally a bit and spotted that currently, we set MTU for router ports before we move their devices into router namespaces. And once the device is in a namespace, ip-link actually works. So I wrote a fix with a functional test that proves the point: <a href="https://review.openstack.org/#/c/327651/" rel="noreferrer" target="_blank">https://review.openstack.org/#/c/327651/</a> The fix was validated by the reporter of the original bug and seems to fix the issue for him.<br>
><br>
> It’s suspicious that it works from inside a namespace but not when the device is still in the root namespace. So I reached out to Jiri Benc from our local Open vSwitch team, and here is a quote:<br>
><br>
> ===<br>
><br>
> "It's a bug in ovs-vswitchd. It doesn't see the interface that's in<br>
> other netns and thus cannot enforce the correct MTU.<br>
><br>
> We'll hopefully fix it and disallow incorrect MTU setting even across<br>
> namespaces. However, it requires significant effort and rework of ovs<br>
> name space handling.<br>
><br>
> You should not depend on the current buggy behavior. Don't set MTU of<br>
> the internal interfaces higher than the rest of the bridge, it's not<br>
> supported. Hacking this around by moving the interface to a netns is<br>
> exploiting of a bug.<br>
><br>
> We can certainly discuss whether this limitation could be relaxed.<br>
> Honestly, I don't know, it's for a discussion upstream. But as of now,<br>
> it's not supported and you should not do it.”<br>
><br>
> So basically, as long as we try to plug ports with different MTUs into the same bridge, we are utilizing a bug in Open vSwitch, that may break us any time.<br>
><br>
> I guess our alternatives are:<br>
> - either redesign bridge setup for openvswitch to e.g. maintain a bridge per network;<br>
> - or talk to ovs folks on whether they may support that for us.<br>
><br>
> I understand the former option is too scary. It opens lots of questions, including upgrade impact since it will obviously introduce a dataplane downtime. That would be a huge shift in paradigm, probably too huge to swallow. The latter option may not fly with vswitch folks. Any better ideas?<br>
><br>
> It’s also not clear whether we want to proceed with my immediate fix. Advices are welcome.<br>
><br>
> Thanks,<br>
> Ihar<br>
> __________________________________________________________________________<br>
> OpenStack Development Mailing List (not for usage questions)<br>
> Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" rel="noreferrer" target="_blank">OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
<br>
__________________________________________________________________________<br>
OpenStack Development Mailing List (not for usage questions)<br>
Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" rel="noreferrer" target="_blank">OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div></div></blockquote></div><br></div></div>