<div dir="ltr">Hi Joe,<div><br></div><div>Which version of the Linux kernel do you use? Do you need to set multicast on your fabric?</div><div><br></div><div>We worked in Havana to improve the overlay propagation on the fabric and we made a mechanism driver for the ML2 plugin called 'l2-pop' (one bug still persist on H [1]). Did you use it?</div>
<div><br></div><div>In my opinion, the LB agent with VXLAN is very simpler (no flows, kernel integrated, 1 bridge = 1 network, netfilter aware...) and as effective than OVS agent. And I think, it's more stable than OVS.</div>
<div>The only one inconvenient, it needs for the moment, a recent Linux kernel (and iproute2 binaries, obviously). I recommend the release 3.11 (version distributed with Ubuntu LTS 12.04.4 actually) to have all the powerful of the VXLAN module (edge replication for multicast, broadacst and unknown unicast). Some distributions backport that module on older kernel (like RedHat, it seems to me).</div>
<div><br></div><div>Another improvement, a local ARP responder (to avoid ARP broadcasting emulation overlay which is costly) is available with VXLAN module and recent iproute2 version and the l2-pop MD uses it, while the OVS agent doesn't yet support it [2]. Just a remark, when it's used, unknown unicast (packets where destination does not match entry in fdb populated by the l2-pop MD) are drop by default (it's not configurable. A kernel an iproute2 improvement needed).</div>
<div><br></div><div>In my opinion, the default agent that OpenStack CI should use for testing must be the LB agent. I think it's more stable and easy to debug.</div><div><br></div><div>[1] <a href="https://review.openstack.org/#/c/71821/">https://review.openstack.org/#/c/71821/</a></div>
<div>[2] <a href="https://review.openstack.org/#/c/49227/">https://review.openstack.org/#/c/49227/</a></div><div><br></div><div>Regards,</div><div>Édouard.</div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">
On Sat, Feb 15, 2014 at 12:39 PM, Joe Topjian <span dir="ltr"><<a href="mailto:joe@topjian.net" target="_blank">joe@topjian.net</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div dir="ltr">Hello,<div><br></div><div>I'm curious if anyone uses the linuxbridge driver in production?</div><div><br></div><div>I've just finished setting up a lab environment using ML2, linuxbridge, and vxlan and everything works just as it did with OVS. </div>

<div><br></div><div>I see benefits of a *much* simpler network layout, a non-deprecated vif driver, and none of the OVS issues that have been discussed on this list.</div><div><br></div><div>But maybe I'm missing something... what are the reasons of using OVS over linuxbridge? All of the official installation guides use it and I've never seen anyone mention linuxbridge on this list.</div>
<span class="HOEnZb"><font color="#888888">
<div><br></div><div>Joe</div></font></span></div>
<br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><br></div>