<div dir="ltr">We're using this schema a lot, bonding mode 2, dynamic link aggr and alternative path in case of failure, works like charm, so far no perfomance issu on intel cards</div><div class="gmail_extra"><br><br>
<div class="gmail_quote">On Mon, Oct 21, 2013 at 6:19 PM, matthew zeier <span dir="ltr"><<a href="mailto:mrz@lookout.com" target="_blank">mrz@lookout.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Wondering what others have used for multi homed OpenStack nodes on 10GbE. Linux bonding? Something else?<br>
<br>
In past lives I've encountered performance issues with 10GbE on Linux bonding and have used Myricom cards for active/failover.<br>
<br>
What are others using?<br>
<br>
--<br>
matthew zeier | Dir. Operations | Lookout | <a href="https://twitter.com/mrz" target="_blank">https://twitter.com/mrz</a><br>
<br>
<br>
_______________________________________________<br>
Mailing list: <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
Post to     : <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
Unsubscribe : <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
</blockquote></div><br></div>