<div dir="ltr">><span style="font-size:12.8000001907349px">Yes. Totally agree. I hate it that I have to spend a giant amount of</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">effort on one of my clouds to get a working network to my VMs when on</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">the other cloud I get a VM that can talk to the network.</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">>Guess which one I think should be the default behavior?</span><div><span style="font-size:12.8000001907349px"><br></span></div><div><span style="font-size:12.8000001907349px">Whichever one you choose to deploy with Neutron! Neutron supports a bunch of topologies based on vlans, flat networks, overlays, tenant routers, shared networks, etc. There is no 'default' in this regard.</span></div><div><span style="font-size:12.8000001907349px"><br></span></div><div><span style="font-size:12.8000001907349px">From what I've gathered from these emails, the use case you want is no floating IPs and no tenant routers (what I understood you to be referring to as 'SDN'). If that's the case, j</span><span style="font-size:12.8000001907349px">ust create a few networks with the provider attributes you are interested in and you're done.</span></div><div><span style="font-size:12.8000001907349px"><br></span></div><div><span style="font-size:12.8000001907349px">></span><span style="font-size:12.8000001907349px">So what I keep trying to say is that there should be an easy and sane</span></div><span style="font-size:12.8000001907349px">way for me to get a non-natted VM connected to a network that can route</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">packets and I should not need to know anything about the advanced</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">network options available to me, because as a person who just wants a vm</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">that can talk to a network, I'm the default case.</span><div><span style="font-size:12.8000001907349px"><br></span></div><div><span style="font-size:12.8000001907349px">neutron net-create MYNET </span><span style="font-size:12.8000001907349px">--shared </span><span style="font-size:12.8000001907349px">--provider:network_type vlan --provider:physical_network PHYSNET --provider:segmentation_id VLAN_ID</span></div><div><span style="font-size:12.8000001907349px"><br></span></div><div>Or replace the network type with 'flat' if you don't want any VLAN tagging. <span style="font-size:12.8000001907349px">This is also possible via the 'networks' tab in the Horizon UI. </span></div><div><span style="font-size:12.8000001907349px"><br></span></div><div><span style="font-size:12.8000001907349px">Please let me know if I've misunderstood what you want. The fact that you aren't interested in floating IPs makes your use case easy. The only one we are having difficulty supporting is the nova network style use case where floating IPs are used with regular networks and no tenant routers.</span></div><div><span style="font-size:12.8000001907349px"><br></span></div><div>><span style="font-size:12.8000001907349px">But we're not going to get there by ignoring the needs of the people who</span></div><span style="font-size:12.8000001907349px">want to boot vms that can talk to the network by default. If we're only</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">focusing on the people who want to do fancy network things, and not</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">serving the needs of the people who want to do simple network things -</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">then all we're doing is trading one set of limitations for a second set</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">of limitations, and we're switching which set of people we're excluding</span><br style="font-size:12.8000001907349px"><span style="font-size:12.8000001907349px">from the party.</span><div><span style="font-size:12.8000001907349px"><br></span></div><div><span style="font-size:12.8000001907349px">We're not talking about ignoring the needs of these users though. The use of Linux bridge vs. OVS would not be tenant-facing. The API would still support all of the things we have been discussing so far (including floating IPs).</span><span style="font-size:12.8000001907349px"> The vswitch is just an implementation detail not exposed at the API level. </span></div><div><span style="font-size:12.8000001907349px"><br></span></div><div><span style="font-size:12.8000001907349px">What would be impacted is the ability for the cloud administrator to troubleshoot connectivity or use tooling they are comfortable with if they have a back-ground with Linux bridge vs. OVS. This point has been made clear.</span></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Sat, Apr 18, 2015 at 9:42 AM, Monty Taylor <span dir="ltr"><<a href="mailto:mordred@inaugust.com" target="_blank">mordred@inaugust.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="HOEnZb"><div class="h5">On 04/18/2015 10:44 AM, Fox, Kevin M wrote:<br>
> Replying inline.<br>
><br>
>> -----Original Message----- From: Monty Taylor<br>
>> [mailto:<a href="mailto:mordred@inaugust.com">mordred@inaugust.com</a>] Sent: Friday, April 17, 2015 7:53 PM<br>
>> To: <a href="mailto:openstack-dev@lists.openstack.org">openstack-dev@lists.openstack.org</a> Subject: Re: [openstack-dev]<br>
>> [Nova][Neutron] Linuxbridge as the default in DevStack [was: Status<br>
>> of the nova-network to Neutron migration work]<br>
>><br>
>> On 04/17/2015 06:48 PM, Rochelle Grober wrote:<br>
>>> I know the DevStack issue seems to be solved, but I had to<br>
>>> respond.....inline<br>
>>><br>
>>> From: Fox, Kevin M [mailto:<a href="mailto:Kevin.Fox@pnnl.gov">Kevin.Fox@pnnl.gov</a>] Sent: Friday,<br>
>>> April 17, 2015 12:28 To: OpenStack Development Mailing List (not<br>
>>> for usage questions) Subject: Re: [openstack-dev] [Nova][Neutron]<br>
>>> Linuxbridge as the default in DevStack [was: Status of the<br>
>>> nova-network to Neutron migration work]<br>
>>><br>
>>> No, the complaints from ops I have heard even internally, which<br>
>>> I think is being echo'd here is "I understand how linux bridge<br>
>>> works, I don't opensvswitch". and "I don't want to be bothered to<br>
>>> learn to debug openvswitch because I don't think we need it".<br>
>>><br>
>>> If linux bridge had feature parity with openvswitch, then it<br>
>>> would be a reasonable argument or if the users truly didn't need<br>
>>> the extra features provided by openvswitch/naas. I still assert<br>
>>> though, that linux bridge won't get feature parity with<br>
>>> openvswitch and the extra features are actually critical to users<br>
>>> (DVR/NaaS), so its worth switching to opevnswitch and learning<br>
>>> how to debug it. Linux Bridge is a nonsolution at this point.<br>
>><br>
>> I'm sorry, but with all due respect - I believe that sounds very<br>
>> much like sticking fingers in ears and not paying attention to the<br>
>> very real needs of users.<br>
><br>
> No, when you have complex software, with multiple classes of users,<br>
> it is almost impossible to please all your users, in every way. Sime<br>
> times, you must make hard decisions to make one users experience a<br>
> little less good for the benefit of the whole community. /me channels<br>
> Spock here...<br>
><br>
> If it makes the Ops life a little harder, but for every Op that has<br>
> to learn how to debug openvswitch, 100 users don't have to deal with<br>
> the difference between nova-network and neutron api's and software<br>
> built on top of OpensStack that only works with one of them, I think<br>
> that's worth the tradeoff. Its unfortunate, but necessary. Ops have<br>
> to learn new things all the time. Its in the job description.<br>
<br>
</div></div>Absolutely, I think that it's impossible to please everyone all the time<br>
and I certainly don't think we should avoid ovs because it might be hard<br>
to learn.<br>
<br>
What I'm saying is that the assumption that every cloud wants SDN and<br>
Floating IPs and that that should be our default and only world is<br>
dangerous - because it's a very advanced way of running and totally not<br>
necessary for most user's apps.<br>
<br>
If OVS _is_ used, a default behavior of "connect a VM to a network"<br>
would be no different to an end user than if a provider network were<br>
used. However, if a cloud supports the extra functionality of SDN<br>
features or of floating ips, those are opt in features - and it's<br>
already well covered by the "does my cloud have this conceptual feature"<br>
<br>
So what I'm saying is, asserting that we MUST have OVS because the most<br>
complex case needs it and we don't want our users to be confused is a<br>
fallacy.<br>
<div><div class="h5"><br>
> I currently Operate 3 different OpenStack clouds, so I'm not just<br>
> trying to push work on others and not myself. I paid the learning<br>
> curve cost.<br>
><br>
>> Let me tell you some non-features I encounter currently:<br>
>><br>
>> - Needing Floating IPs to get a public address<br>
>><br>
>> This is touted as "the right way to do it" - but it's actually a<br>
>> terrible experience for a user. The clouds I have access to that<br>
>> just give me a direct DHCP address are much more useful.<br>
><br>
> Another case of short term pain for long term gain.<br>
><br>
> Its nice to be able to not use them, up until you realize you needed<br>
> it, don't have it, and its too late to deal with it.<br>
><br>
> Ip addresses are stateful creatures. You attach dns entries to them.<br>
> Some users contact them directly. They are a window into your<br>
> machine. The cloud is all about scaling. If you can't just move an ip<br>
> from vm to vm,  you force them to become pets. Without them, you're<br>
> operating much like in the virtualization days before cloud.<br>
><br>
>> In fact, we should delete floating ips - they are a non-feature<br>
>> that make life harder. Literally no user of a cloud has ever wanted<br>
>> them, although we've learned to deal with them.<br>
><br>
> Terrible idea.<br>
><br>
> The first time I moved a floating ip from vm 1 to vm2 to do a rolling<br>
> update that took under a second, it paid off. And my users benefited.<br>
> Or the times I deleted vm's and launched new vm's in their place, and<br>
> no data was lost and no one noticed.<br>
><br>
> Cloud is a very different way to do things and if you don't<br>
> understand it well, can be confused with traditional virtualization.<br>
> It too, is worth the learning curve to understand how to do things<br>
> the Cloud Way. You don't know you want it, until you go through the<br>
> learning curve and understand why they really make sense. To keep<br>
> state where it belongs, out of the vm.<br>
><br>
> This is the hart of the issue we're discussing. People are wanting to<br>
> force the cloud software to function not as a cloud, but more like<br>
> what they are familiar with. But that's a bad idea. You gut the very<br>
> features that make Cloud awesome.<br>
<br>
</div></div>I'm currently running a control plane of a bunch of pets and some cattle<br>
along with a dynamic pool of nodes that creates and deletes ten-thousand<br>
VMs per day. These systems span multiple clouds.<br>
<br>
Of those resources, exactly 1 of them has in the last 3 years had a<br>
situation where a floating ip would have mitigated an end user problem.<br>
<br>
So yes, I'm being extreme by saying delete them. There ARE some edge<br>
cases where using them is helpful. I would love to be able to make the<br>
advanced decision that I'd like a floating IP on my box IN ADDITION to<br>
the IP the box has that came with it. That's pretty cool.<br>
<br>
There are also plenty of cases where _requiring_ their use is actually<br>
harmful. Running behind a NAT and not knowing your IP address is broken.<br>
You do it when you have to or you must - not as a general model.<br>
<br>
(try running Kerberos on a NATed machine, for instance. It gets rather<br>
cranky)<br>
<span class=""><br>
>> - SDN<br>
>><br>
>> I understand this is important for people, so let's keep it around<br>
>> - but having software routers essentially means that it's a scaling<br>
>> bottleneck. In the cloud Infra uses that has SDN, we have to create<br>
>> multiple software routers to handle the scaling issues. On the<br>
>> other hand, direct routing / linuxbridge does NOT have this<br>
>> problem, because the network packets are routed directly.<br>
><br>
> Only if you gut the network stack by making it flat and making NaaS<br>
> optional.<br>
<br>
</span>The internet routes packets in a non-SDN model just fine thanks.<br>
<span class=""><br>
> But for NaaS, OpenVSwitch backend does support scaled routing. Its<br>
> called DVR. The linux bridge agent does not. And at the current rate<br>
> of development, the Linux Bridge is likely not to. If NaaS really is<br>
> critical, then OpenVswitch over linux bridge pays dividends.<br>
<br>
</span>Yes. If NaaS is really critical. I argue that NaaS is a only interesting<br>
to a small subset of our users and should be seen as an advanced feature.<br>
<span class=""><br>
>> We should not delete SDN like we should delete floating IPs,<br>
>> because there are real users who have real uses cases and SDN helps<br>
>> them. However, it should be an opt-in feature for a user that is an<br>
>> add on.<br>
><br>
> Then app developers can't rely on it being there, and users can't<br>
> have as much software readily available to launch in their tenant,<br>
> weakening the ecosystem.<br>
<br>
</span>Straw man. Let's get "I want a VM that has a working network" to be a<br>
consistent thing. Once you have that, checking to see if your provider<br>
offers SDN as an advanced add-in is fine. If it doesn't, you probably<br>
won't run an SDN needing app there. Thing is - the number of apps that<br>
NEED SDN are dwarfed by the number of apps that do not, in fact, need SDN.<br>
<span class=""><br>
<br>
>> vexxhost is getting this right right now - you automatically get a<br>
>> DHCP'd direct routed IP on each VM you provision, but if you decide<br>
>> you need fancy, you can opt in to create a private network.<br>
><br>
> Then how do you deal with a hypervisor dieing and dns records<br>
> pointing to that ip? You encourage the vm a pet. This seems fine<br>
> until it happens. Then it hurts.<br>
<br>
</span>The idea that pet vms can be avoided is misguided. They exist. In fact,<br>
OpenStack is AMAZING at running them. If you want a world of nothing but<br>
cattle, go write 12-factor apps and do cloudfoundry or something.<br>
<br>
The reality of the situation is that many apps cannot be 12-factor - and<br>
in fact 12-factor is little more than a marketing buzz-word to make some<br>
folks seem like visionaries.<br>
<br>
Pets are fine. They are here to stay. And I will fight to the last ounce<br>
of my breath for their support in OpenStack.<br>
<br>
They are, in fact, probably the main differentiator we have vs. an<br>
Amazon or a Google. If you want pure cattle, you're going to wind up at<br>
AWS or GCE because the price-point is going to be unmatchable because<br>
they're underwriting things.<br>
<br>
However, what we can offer our users is choice. We can offer our users<br>
clouds that work they way they want them to - rather than clouds that<br>
operate the way Jeff Bezos says - and we can offer them clouds that<br>
adapt to their workloads, rather than telling our users that they are<br>
wrong and that they need to rewrite all of their applications to fit the<br>
pre-conceived model of how apps "should" be written.<br>
<span class=""><br>
>><br>
>> - DVR<br>
>><br>
>> I'm an end user. I do not care about this at all. DVR is only<br>
>> important if you have bought in to software routers. It's a<br>
>> solution to a problem that would go away if things worked like<br>
>> networks.<br>
><br>
> I'm a cloud user too. I don't directly care about it either. Other<br>
> then needing to ensure when I use NaaS, it scales. The how is<br>
> irrelevant to me. If it's done with a Cisco neutron plugin, that's<br>
> fine. I don't have to care. The thing that sucks is going from cloud<br>
> to cloud, and having to write two sets of templates, one for<br>
> nova-network  and one for neutron since the api's are different. The<br>
> user is being forced to care. This is bad.<br>
<br>
</span>Yes. Totally agree. I hate it that I have to spend a giant amount of<br>
effort on one of my clouds to get a working network to my VMs when on<br>
the other cloud I get a VM that can talk to the network.<br>
<br>
Guess which one I think should be the default behavior?<br>
<div><div class="h5"><br>
>>> :/ So is keeping nova-network around forever. :/ But other then<br>
>>> requiring some more training for ops folks, I think Neutron can<br>
>>> suit the rest of the use cases these days nova-network provided<br>
>>> over neutron. The sooner we can put the nova-network issue to<br>
>>> bed, the better off the ecosystem will be. It will take a couple<br>
>>> of years for the ecosystem to settle out to deprecating it, since<br>
>>> a lot of clouds take years to upgrade and finally put the issue<br>
>>> to bed. Lets do that sooner rather then later  so a couple of<br>
>>> years from now, we're done. :/<br>
>><br>
>> I'm about to deploy a cloud, I'm going to run neutron, and I'm not<br>
>> going to run openvswitch because I do not need it. I will run the<br>
>> equiv of flatdhcp.<br>
><br>
> Its good that your using neutron. Its unfortunate for the community<br>
> that this fracturing is occurring.<br>
><br>
> App developers have at least 3 targets. Nova-network, neutron with<br>
> flat network, neutron with tenant networks. It's a lot of effort to<br>
> write and debug one template, let alone 3. :/  Still, I'd prefer 2<br>
> over 3 any day. :/<br>
><br>
>> If neutron doesn't have it, I will write it, because it's that<br>
>> important that it exist.<br>
><br>
> So be it. One of the great things about open source is you can do<br>
> whatever you want.<br>
><br>
> Oddly, this flexibility is also its Achilles heel. In the application<br>
> space, it's a great thing. In an Operating System, it tends to hurt<br>
> the flexibility of the things built on top. This is why Linux<br>
> ultimately won over the BSD's. Linux stayed relatively fork free,<br>
> while the BSD's are quite divergent. The lack of divergence helped<br>
> Linux app developers.<br>
><br>
> Another example, take cellphones. Linux was early to that party, and<br>
> lost, since so many different linux implementations targeted the<br>
> phone space with different api's. Everyone followed their self<br>
> interests, and the ecosystem on top never materialized since there<br>
> were too many ways to do everything and nothing worked the same.<br>
><br>
> Google takes the same Linux kernel, puts a bit of userspace on top,<br>
> calls it android and encourages an app ecosystem on top, and bam. The<br>
> OS becomes the number one phone OS in terms of users. They do stuff<br>
> to try and minimize forks and divergent functionality, and the whole<br>
> ecosystem benefits from it. I'm not saying everything Google has done<br>
> there has been good, but the general idea of app ecosystem<br>
> encouragement is good.<br>
><br>
> OpenStack is an operating system and needs to encourage a wealth of<br>
> users/apps on top of it. The main way to do that is to make sure your<br>
> abstractions are clean enough that the stuff under the hood don't<br>
> matter to the cloud user/app developer. But with<br>
> nova-network/neutron, it does. Same with FlatDHCP. :/<br>
<br>
</div></div>I would agree with you if you weren't trying to shove a broken model<br>
down my throat as the "default"<br>
<br>
I want a VM on the internet to behave like a VM on the internet and I<br>
should not have to care about the details of the SDN or lack thereof<br>
behind it.<br>
<br>
If the SDN story looks, to the end user, like something other than<br>
booting a VM on the internet that knows how to talk to things on the<br>
internet - it means that the UI being presented to the user to boot vms<br>
on the internet is broken.<br>
<br>
Defaults should be the thing that is most commonly desired. Extra work<br>
is fine to get advanced thigns - although _one_ model to do advanced<br>
things is also preferrable to 20.<br>
<br>
So what I keep trying to say is that there should be an easy and sane<br>
way for me to get a non-natted VM connected to a network that can route<br>
packets and I should not need to know anything about the advanced<br>
network options available to me, because as a person who just wants a vm<br>
that can talk to a network, I'm the default case.<br>
<br>
If I want a NAT. If I want a cloud-level security group. If I want a<br>
tenant network that is private between my various hosts - those are all<br>
add ons - they are extra complexity - they are not the default and<br>
should not be.<br>
<br>
Now - I'm pretty sure that we can get to a place where the UI can<br>
support a single model and a single set of operations for a user that<br>
are easily understandable.<br>
<br>
But we're not going to get there by ignoring the needs of the people who<br>
want to boot vms that can talk to the network by default. If we're only<br>
focusing on the people who want to do fancy network things, and not<br>
serving the needs of the people who want to do simple network things -<br>
then all we're doing is trading one set of limitations for a second set<br>
of limitations, and we're switching which set of people we're excluding<br>
from the party.<br>
<span class=""><br>
>><br>
>> If you take that ability away from me, you will be removing working<br>
>> feature and replacing them with things that make my user experience<br>
>> worse.<br>
>><br>
>> Let's not do that. Let's listen to the people who are using this<br>
>> thing as end users. Let's understand their experience and<br>
>> frustration. And let's not chase pie-in-the-sky theory of how it<br>
>> "should" work in the face of what a ton of people are asking and<br>
>> even begging for. FlatDHCP is perfect for the 80% case. The extra<br>
>> complexity of the additional things if you don't actually need them<br>
>> is irresponsible.<br>
><br>
> I think we're at a philosophical impasse here.  Unfortunately I don't<br>
> think we're going to agree. And that's ok. That's the beauty of open<br>
> source. :)<br>
<br>
</span>Indeed! I fully support you in disagreeing with me.<br>
<div class="HOEnZb"><div class="h5"><br>
> Thanks, Kevin<br>
><br>
>><br>
>>><br>
>>> [Rockyg] Kevin, the problem is that the extra features *aren't*<br>
>>> critical to the deployers and/or users of many of openstack<br>
>>> deployments.  And since they are not critical, the deployers<br>
>>> won't *move* to using neutron that requires them to learn all<br>
>>> this new "stuff" that thjey don't need.  By not providing a<br>
>>> simple path to a flatDHCP implementation, you will get existing<br>
>>> users refusing to upgrade rather than take a bunch of extraneous<br>
>>> stuff from Neutron because the OpenStack project deprecated<br>
>>> "their network." So, likely two things will happen: 1) the<br>
>>> deployments that are already you there configured with<br>
>>> nova-network and flatDHCP will stop upgrading with the last<br>
>>> nova-network release and 2) if there isn't a simple equivalent<br>
>>> by then in neutron or some other openstack project, someone will<br>
>>> fork to keep the flatDHCP solution moving forward.<br>
>>><br>
>>> You can lead a devops to pizza, but you can't make it eat<br>
>>> soylent green pizza.  And that's how you lose some of the<br>
>>> community and perhaps spur either Neutron's or OpenStack's<br>
>>> successor open source project(s).<br>
>>><br>
>>> KISS is still in effect.  It seems Neutron is abstracting away<br>
>>> the current network complexities for developers and endusers at<br>
>>> the expense of tossing it all on the shoulders of the<br>
>>> deployer/admins. Until you abstract some of that complexity out<br>
>>> of the deployment path, either through good coding, useful<br>
>>> templates, configuration and management tools, etc., you're going<br>
>>> to continue to get pushback from the devops and they will<br>
>>> continue to claim parity doesn't exist *for them*.<br>
>>><br>
>>> Something I learned a while ago - the sysadmins control the<br>
>>> system and stick with minor changes and/or single system by<br>
>>> system upgrades until they are either tempted with something<br>
>>> shiny/fun/cool/sexy/powerful or coerced by management to change.<br>
>>> Until you can demonstrate a *benefit* to them to move to the<br>
>>> neutron paradigm for their flatDHCP network, you won't get them<br>
>>> to move. They'll take a learning ramp-up, for either less work or<br>
>>> better control, but they won't take it for more work.<br>
>>><br>
>>> --Rocky<br>
>>><br>
>>> ________________________________ From: Kevin Benton<br>
>>> [<a href="mailto:blak111@gmail.com">blak111@gmail.com</a>] Sent: Friday, April 17, 2015 11:49 AM To:<br>
>>> OpenStack Development Mailing List (not for usage questions)<br>
>>> Subject: Re: [openstack-dev] [Nova][Neutron] Linuxbridge as the<br>
>>> default in DevStack [was: Status of the nova-network to Neutron<br>
>>> migration work] I definitely understand that. But what is the<br>
>>> major complaint from operators? I understood that quote to imply<br>
>>> it was around Neutron's model of self-service networking.<br>
>>><br>
>>> If the main reason the remaining Nova-net operators don't want to<br>
>>> use Neutron is due to the fact that they don't want to deal with<br>
>>> the Neutron API, swapping some implementation defaults isn't<br>
>>> really going to get us anywhere on that front.<br>
>>><br>
>>> It's an important distinction because it determines what<br>
>>> actionable items we can take (e.g. what Salvatore mentioned in<br>
>>> his email about defaults). Does that make sense?<br>
>>><br>
>>> On Fri, Apr 17, 2015 at 11:33 AM, Jeremy Stanley<br>
>>> <<a href="mailto:fungi@yuggoth.org">fungi@yuggoth.org</a><mailto:<a href="mailto:fungi@yuggoth.org">fungi@yuggoth.org</a>>> wrote: On<br>
>>> 2015-04-17 10:55:19 -0700 (-0700), Kevin Benton wrote:<br>
>>>> I understand. What I'm saying is that switching to Linux bridge<br>
>>>> will not change the networking model to 'just connect<br>
>>>> everything to a simple flat network'. All of the complaints<br>
>>>> about self-service networking will still hold.<br>
>>><br>
>>> And conversely, swapping simple bridge interfaces for something<br>
>>> else still means problems are harder to debug, whether or not<br>
>>> you're stuck with self-service networking features you're not<br>
>>> using. -- Jeremy Stanley<br>
>>><br>
>>><br>
>> ___________________________________________________________________<br>
>><br>
>><br>
___<br>
>>> ____<br>
>>><br>
>>><br>
>> OpenStack Development Mailing List (not for usage questions)<br>
>>> Unsubscribe: OpenStack-dev-<br>
>> <a href="http://request@lists.openstack.org?subject:unsubscribe" target="_blank">request@lists.openstack.org?subject:unsubscribe</a><<a href="http://O" target="_blank">http://O</a><br>
>>> <a href="http://penStack-dev-request@lists.openstack.org?subject:unsubscribe" target="_blank">penStack-dev-request@lists.openstack.org?subject:unsubscribe</a>><br>
>>><br>
>>><br>
>> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
>>><br>
>>><br>
>>><br>
>>> -- Kevin Benton<br>
>>><br>
>>><br>
>>><br>
>>><br>
>> ___________________________________________________________________<br>
>><br>
>><br>
___<br>
>>> ____<br>
>>><br>
>>><br>
>> OpenStack Development Mailing List (not for usage questions)<br>
>>> Unsubscribe:<br>
>>> <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" target="_blank">OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
>>> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
>>><br>
>><br>
>><br>
>><br>
>>><br>
___________________________________________________________________<br>
>> _______ OpenStack Development Mailing List (not for usage<br>
>> questions) Unsubscribe: OpenStack-dev-<br>
>> <a href="http://request@lists.openstack.org?subject:unsubscribe" target="_blank">request@lists.openstack.org?subject:unsubscribe</a><br>
>> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
><br>
> __________________________________________________________________________<br>
><br>
><br>
OpenStack Development Mailing List (not for usage questions)<br>
> Unsubscribe:<br>
> <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" target="_blank">OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
><br>
<br>
<br>
__________________________________________________________________________<br>
OpenStack Development Mailing List (not for usage questions)<br>
Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" target="_blank">OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature"><div>Kevin Benton</div></div>
</div>