definitely not fine to use dhcp in all cases.<br><br><div class="gmail_quote">On Thu, Feb 24, 2011 at 3:28 AM, Dan Mihai Dumitriu <span dir="ltr"><<a href="mailto:dmd17@cornell.edu">dmd17@cornell.edu</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">If we can dynamically plug (and presumably unplug) a vNIC into a<br>
vPort, and assign the IP at that time, does that imply that we cannot<br>
use the IP injection into the VM image?  Is it fine to use DHCP or RA<br>
in all cases?<br>
<div><div></div><div class="h5"><br>
<br>
On Wed, Feb 23, 2011 at 22:29, Ishimoto, Ryu <<a href="mailto:ryu@midokura.jp">ryu@midokura.jp</a>> wrote:<br>
><br>
> Hi everyone,<br>
> I have been following the discussion regarding the new 'pluggable' network<br>
> service design, and wanted to drop in my 2 cents ;-)<br>
> Looking at the current implementation of Nova, there seems to be a very<br>
> strong coupling between compute and network services.  That is, tasks that<br>
> are done by the network service are executed at the time of VM<br>
> instantiation, making the compute code dependent on the network service, and<br>
> vice versa.  This dependency seems undesirable to me as it adds restrictions<br>
> to implementing 'pluggable' network services, which can vary, with many ways<br>
> to implement them.<br>
> Would anyone be opposed to completely separating out the network service<br>
> logic from compute?  I don't think it's too difficult to accomplish this,<br>
> but to do so, it will require that the network service tasks, such as IP<br>
> allocation, be executed by the user prior to instantiating the VM.<br>
> In the new network design(from what I've read up so far), there are concepts<br>
> of vNICs, and vPorts, where vNICs are network interfaces that are associated<br>
> with the VMs, and vPorts are logical ports that vNICs are plugged into for<br>
> network connectivity.  If we are to decouple network and compute services,<br>
> the steps required for FlatManager networking service would look something<br>
> like:<br>
> 1. Create ports for a network.  Each port is associated with an IP address<br>
> in this particular case, since it's an IP-based network.<br>
> 2. Create a vNIC<br>
> 3. Plug a vNIC into an avaiable vPort.  In this case it just means mapping<br>
> this vNIC to an unused IP address.<br>
> 4. Start a VM with this vNIC.  vNIC is already mapped to an IP address, so<br>
> compute does not have to ask the network service to do any IP allocation.<br>
> In this simple example, by removing the request for IP allocation from<br>
> compute, the network service is no longer needed during the VM<br>
> instantiation.  While it may require more steps for the network setup in<br>
> more complex cases, it would still hold true that, once the vNIC and vPort<br>
> are mapped, compute service would not require any network service during the<br>
> VM instantiation.<br>
> IF there is still a need for the compute to access the network service,<br>
> there is another way.  Currently, the setup of the network<br>
> environment(bridge, vlan, etc) is all done by the compute service. With the<br>
> new network model, these tasks should either be separated out into a<br>
> standalone service('network agent') or at least be separated out into<br>
> modules with generic APIs that the network plugin providers can implement.<br>
>  By doing so, and if we can agree on a rule that the compute service must<br>
> always go through the network agent to access the network service, we can<br>
> still achieve the separation of compute from network services.   Network<br>
> agents should have full access to the network service as they are both<br>
> implemented by the same plugin provider.  Compute would not be aware of the<br>
> network agent accessing the network service.<br>
> With this design, the network service is only tied to the network REST API<br>
> and the network agent, both of which are implemented by the plugin<br>
> providers.  This would allow them to implement their network service without<br>
> worrying about the details of the compute service.<br>
> Please let me know if all this made any sense. :-)  Would love to get some<br>
> feedbacks.<br>
> Regards,<br>
> Ryu Ishimoto<br>
><br>
</div></div><div><div></div><div class="h5">> _______________________________________________<br>
> Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
> Post to     : <a href="mailto:openstack@lists.launchpad.net">openstack@lists.launchpad.net</a><br>
> Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
> More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
><br>
><br>
<br>
_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
</div></div></blockquote></div><br><PRE>
Confidentiality Notice: This e-mail message (including any attached or
embedded documents) is intended for the exclusive and confidential use of the
individual or entity to which this message is addressed, and unless otherwise
expressly indicated, is confidential and privileged information of Rackspace.
Any dissemination, distribution or copying of the enclosed material is prohibited.
If you receive this transmission in error, please notify us immediately by e-mail
at abuse@rackspace.com, and delete the original message.
Your cooperation is appreciated.
</PRE>