Here is my controller + network node:<br><br>cat /etc/quantum/plugins/openvswitch/ovs_quantum_plugin.ini <br>[DATABASE]<br># This line MUST be changed to actually run the plugin.<br># Example:<br># sql_connection = mysql://<a href="http://root:nova@127.0.0.1:3306/ovs_quantum">root:nova@127.0.0.1:3306/ovs_quantum</a><br>

# Replace 127.0.0.1 above with the IP address of the database used by the<br># main quantum server. (Leave it as is if the database runs on this host.)<br>sql_connection = mysql://quantum:password@localhost:3306/quantum<br>

# Database reconnection retry times - in event connectivity is lost<br># set to -1 implies an infinite retry count<br># sql_max_retries = 10<br># Database reconnection interval in seconds - in event connectivity is lost<br>

reconnect_interval = 2<br><br>[OVS]<br># (StrOpt) Type of network to allocate for tenant networks. The<br># default value 'local' is useful only for single-box testing and<br># provides no connectivity between hosts. You MUST either change this<br>

# to 'vlan' and configure network_vlan_ranges below or change this to<br># 'gre' and configure tunnel_id_ranges below in order for tenant<br># networks to provide connectivity between hosts. Set to 'none' to<br>

# disable creation of tenant networks.<br>#<br># Default: tenant_network_type = local<br># Example: tenant_network_type = gre<br>tenant_network_type = gre<br><br># (ListOpt) Comma-separated list of<br># <physical_network>[:<vlan_min>:<vlan_max>] tuples enumerating ranges<br>

# of VLAN IDs on named physical networks that are available for<br># allocation. All physical networks listed are available for flat and<br># VLAN provider network creation. Specified ranges of VLAN IDs are<br># available for tenant network allocation if tenant_network_type is<br>

# 'vlan'. If empty, only gre and local networks may be created.<br>#<br># Default: network_vlan_ranges =<br># Example: network_vlan_ranges = physnet1:1000:2999<br><br># (BoolOpt) Set to True in the server and the agents to enable support<br>

# for GRE networks. Requires kernel support for OVS patch ports and<br># GRE tunneling.<br>#<br># Default: enable_tunneling = False<br>enable_tunneling = True<br><br># (ListOpt) Comma-separated list of <tun_min>:<tun_max> tuples<br>

# enumerating ranges of GRE tunnel IDs that are available for tenant<br># network allocation if tenant_network_type is 'gre'.<br>#<br># Default: tunnel_id_ranges =<br># Example: tunnel_id_ranges = 1:1000<br>tunnel_id_ranges = 1:1000<br>

<br># Do not change this parameter unless you have a good reason to.<br># This is the name of the OVS integration bridge. There is one per hypervisor.<br># The integration bridge acts as a virtual "patch bay". All VM VIFs are<br>

# attached to this bridge and then "patched" according to their network<br># connectivity.<br>#<br># Default: integration_bridge = br-int<br>integration_bridge = br-int<br><br># Only used for the agent if tunnel_id_ranges (above) is not empty for<br>

# the server.  In most cases, the default value should be fine.<br>#<br># Default: tunnel_bridge = br-tun<br>tunnel_bridge = br-tun<br><br># Uncomment this line for the agent if tunnel_id_ranges (above) is not<br># empty for the server. Set local-ip to be the local IP address of<br>

# this hypervisor.<br>#<br># Default: local_ip =<br>local_ip = 10.10.10.1<br><br><br>And here is my compute node:<br><br>cat /etc/quantum/plugins/openvswitch/ovs_quantum_plugin.ini <br>[DATABASE]<br># This line MUST be changed to actually run the plugin.<br>

# Example:<br># sql_connection = mysql://<a href="http://root:nova@127.0.0.1:3306/ovs_quantum">root:nova@127.0.0.1:3306/ovs_quantum</a><br># Replace 127.0.0.1 above with the IP address of the database used by the<br># main quantum server. (Leave it as is if the database runs on this host.)<br>

sql_connection = mysql://<a href="http://quantum:password@192.168.3.1:3306/quantum">quantum:password@192.168.3.1:3306/quantum</a><br># Database reconnection retry times - in event connectivity is lost<br># set to -1 implies an infinite retry count<br>

# sql_max_retries = 10<br># Database reconnection interval in seconds - in event connectivity is lost<br>reconnect_interval = 2<br><br>[OVS]<br># (StrOpt) Type of network to allocate for tenant networks. The<br># default value 'local' is useful only for single-box testing and<br>

# provides no connectivity between hosts. You MUST either change this<br># to 'vlan' and configure network_vlan_ranges below or change this to<br># 'gre' and configure tunnel_id_ranges below in order for tenant<br>

# networks to provide connectivity between hosts. Set to 'none' to<br># disable creation of tenant networks.<br>#<br># Default: tenant_network_type = local<br># Example: tenant_network_type = gre<br>tenant_network_type = gre<br>

<br># (ListOpt) Comma-separated list of<br># <physical_network>[:<vlan_min>:<vlan_max>] tuples enumerating ranges<br># of VLAN IDs on named physical networks that are available for<br># allocation. All physical networks listed are available for flat and<br>

# VLAN provider network creation. Specified ranges of VLAN IDs are<br># available for tenant network allocation if tenant_network_type is<br># 'vlan'. If empty, only gre and local networks may be created.<br>#<br>

# Default: network_vlan_ranges =<br># Example: network_vlan_ranges = physnet1:1000:2999<br><br># (BoolOpt) Set to True in the server and the agents to enable support<br># for GRE networks. Requires kernel support for OVS patch ports and<br>

# GRE tunneling.<br>#<br># Default: enable_tunneling = False<br>enable_tunneling = True<br><br># (ListOpt) Comma-separated list of <tun_min>:<tun_max> tuples<br># enumerating ranges of GRE tunnel IDs that are available for tenant<br>

# network allocation if tenant_network_type is 'gre'.<br>#<br># Default: tunnel_id_ranges =<br># Example: tunnel_id_ranges = 1:1000<br>tunnel_id_ranges = 1:1000<br><br># Do not change this parameter unless you have a good reason to.<br>

# This is the name of the OVS integration bridge. There is one per hypervisor.<br># The integration bridge acts as a virtual "patch bay". All VM VIFs are<br># attached to this bridge and then "patched" according to their network<br>

# connectivity.<br>#<br># Default: integration_bridge = br-int<br>integration_bridge = br-int<br><br># Only used for the agent if tunnel_id_ranges (above) is not empty for<br># the server.  In most cases, the default value should be fine.<br>

#<br># Default: tunnel_bridge = br-tun<br>tunnel_bridge = br-tun<br><br># Uncomment this line for the agent if tunnel_id_ranges (above) is not<br># empty for the server. Set local-ip to be the local IP address of<br># this hypervisor.<br>

#<br># Default: local_ip = 10.0.0.3<br>local_ip = 192.168.3.3<br><br>The 10.10.10.1 is the Data Network from network controller (following the tutorial), and it is in the eth0:0 (I'm not pretty sure, but i guess the data from the VMs should communicate with this IP).<br>

<br><br><br><br><div class="gmail_quote">2013/2/22 Aaron Rosen <span dir="ltr"><<a href="mailto:arosen@nicira.com" target="_blank">arosen@nicira.com</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

Running with two nics for this should be fine for tunneling as ip routing would handle which nic the packets should go out. From what you pasted I see that one HV has a gre tunnel setup to 10.10.10.1 <-- Who is that host? Can you attach your /etc/quantum/plugins/openvswitch/ovs_quantum_plugin.ini on your nodes. <div>


<br></div><div>I suspect the issue is a configuration issue in the [OVS] section. You'll need something along the lines of this in that section: </div><div><div>[OVS]</div><div>local_ip = <ip address of HV> </div>


<div>enable_tunneling = True</div><div>tunnel_id_ranges = 1:1000</div><div>tenant_network_type = gre</div></div><div class="HOEnZb"><div class="h5"><div><br></div><div><br></div><div><br><br><div class="gmail_quote">On Fri, Feb 22, 2013 at 9:54 AM, Guilherme Russi <span dir="ltr"><<a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a>></span> wrote:<br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello Aaron,<br><br> Sorry about attaching the infos, about the quantum agent, is it the quantum-plugin-openvswitch-agent? If i was, the job is already ruunning at the controller and the compute nodes:<br>


<br>service quantum-plugin-openvswitch-agent start<br>

start: Job is already running: quantum-plugin-openvswitch-agent<br><br> Is there another thing i should do? I'm running my controller node and the network node at the same machine with 2 NICs, maybe can be a problem how i am making my network config?<br>




<br>Thanks again.<span><font color="#888888"><br><br>Guilherme.</font></span><div><div><br><br><div class="gmail_quote">2013/2/22 Aaron Rosen <span dir="ltr"><<a href="mailto:arosen@nicira.com" target="_blank">arosen@nicira.com</a>></span><br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

Hi Guilherme, <div><br></div><div>(next time please paste these in the email rather than attaching, thx).  </div><div><br></div><div>From the text in the attachment (show below). It seems like you are not running the quantum-openvswitch-agent on your network node as there is no GRE tunnel from that to your compute node. Once you have  quantum-openvswitch-agent running on all your machines you should be able to run ovs-dpctl looking under br-tun and see a tunnel between each host. </div>





<div><br>Aaron</div><div><br></div><div><div>CONTROLLER + NETWORK NODE:</div><div>system@br-tun:</div><div><span style="white-space:pre-wrap">  </span>lookups: hit:0 missed:0 lost:0</div><div><span style="white-space:pre-wrap">   </span>flows: 0</div>





<div><span style="white-space:pre-wrap">  </span>port 0: br-tun (internal)</div><div><span style="white-space:pre-wrap">        </span>port 1: patch-int (patch: peer=patch-tun)</div><div>system@br-int:</div>
<div><span style="white-space:pre-wrap">  </span>lookups: hit:0 missed:0 lost:0</div><div><span style="white-space:pre-wrap">   </span>flows: 0</div><div><span style="white-space:pre-wrap"> </span>port 0: br-int (internal)</div>





<div><span style="white-space:pre-wrap">  </span>port 1: tap817d2f70-a0 (internal)</div><div><span style="white-space:pre-wrap">        </span>port 2: qr-ea64e9aa-31 (internal)</div><div><span style="white-space:pre-wrap">        </span>port 3: patch-tun (patch: peer=patch-int)</div>





<div>system@br-ex:</div><div><span style="white-space:pre-wrap">      </span>lookups: hit:0 missed:0 lost:0</div><div><span style="white-space:pre-wrap">   </span>flows: 0</div><div><span style="white-space:pre-wrap"> </span>port 0: br-ex (internal)</div>





<div><span style="white-space:pre-wrap">  </span>port 2: qg-95fe3fa1-d1 (internal)</div><div><br></div><div><br></div><div>COMPUTE NODES</div><div><br></div><div>COMPUTE NODE 01:</div><div>ovs-dpctl show</div>
<div>system@br-int:</div><div><span style="white-space:pre-wrap">     </span>lookups: hit:380 missed:7590 lost:0</div><div><span style="white-space:pre-wrap">      </span>flows: 0</div><div><span style="white-space:pre-wrap"> </span>port 0: br-int (internal)</div>





<div><span style="white-space:pre-wrap">  </span>port 2: patch-tun (patch: peer=patch-int)</div><div><span style="white-space:pre-wrap">        </span>port 3: qvo981ae82e-d4</div><div><span style="white-space:pre-wrap">   </span>port 6: qvoc9df3a96-5f</div>





<div><span style="white-space:pre-wrap">  </span>port 7: qvoc153ac28-ae</div><div><span style="white-space:pre-wrap">   </span>port 8: qvo722a5d05-e4</div><div>system@br-tun:</div><div><span style="white-space:pre-wrap">      </span>lookups: hit:381 missed:7589 lost:0</div>





<div><span style="white-space:pre-wrap">  </span>flows: 0</div><div><span style="white-space:pre-wrap"> </span>port 0: br-tun (internal)</div><div><span style="white-space:pre-wrap">        </span>port 1: patch-int (patch: peer=patch-tun)</div>





<div><span style="white-space:pre-wrap">  </span>port 2: gre-1 (gre: key=flow, remote_ip=10.10.10.1)</div><div><div><div><br></div><div><br></div><div class="gmail_quote">On Fri, Feb 22, 2013 at 8:47 AM, Guilherme Russi <span dir="ltr"><<a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a>></span> wrote:<br>





<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">So guys, any idea about what am i missing?<br><br>Thanks.<div><div><br><br><br><br><div class="gmail_quote">
2013/2/22 Guilherme Russi <span dir="ltr"><<a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a>></span><br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hello Aaron,<br><br> Here are the outputs.<div><div><br><br>Thanks.<br><br>Guilherme.<br><br>

<br><div class="gmail_quote">2013/2/21 Aaron Rosen <span dir="ltr"><<a href="mailto:arosen@nicira.com" target="_blank">arosen@nicira.com</a>></span><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>The output to the following would be a good start: </div><div><br></div>quantum net-list <div>quantum port-list</div>








<div>ovs-dpctl show (on all nodes)</div><div><br></div><div>Also make sure the quantum-dhcp-agent is running on your network node. </div><span><font color="#888888">
<div><br>Aaron</div></font></span><div><div><div><br><div class="gmail_quote">On Thu, Feb 21, 2013 at 11:23 AM, Guilherme Russi <span dir="ltr"><<a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a>></span> wrote:<br>









<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Sorry about that, I'm using Folsom release with quantum, I'm installing the controller node and the network node in the same physical machine, I'm following this tutorial: <div>









<br><div><a href="http://docs.openstack.org/folsom/basic-install/content/basic-install_controller.html" target="_blank">http://docs.openstack.org/folsom/basic-install/content/basic-install_controller.html</a></div>

<div><br></div><div>Which config files do you need?</div><div><br></div><div>Thanks.</div><span><font color="#888888"><div><br></div><div>Guilherme.</div></font></span><div><div><div><br></div><div>
<div><br><div class="gmail_quote">2013/2/21 Aaron Rosen <span dir="ltr"><<a href="mailto:arosen@nicira.com" target="_blank">arosen@nicira.com</a>></span><br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi, <div><br></div><div>You'll have to provide more information than this for anyone to help you: i.e are you using quantum or nova-network, if your using quantum which plugin, config files etc. </div>











<div><br></div><div>
Aaron<br><br><div class="gmail_quote"><div><div>On Thu, Feb 21, 2013 at 11:13 AM, Guilherme Russi <span dir="ltr"><<a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a>></span> wrote:<br>











</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div>
Hello guys,<div><br></div><div> I'm getting problem in my VMs' creation, they don't get IP, the log piece shows:</div><div><br></div><div><br></div><div><pre style="word-wrap:break-word;white-space:pre-wrap">

Starting network...
udhcpc (v1.18.5) started
Sending discover...
Sending discover...
Sending discover...
No lease, failing
WARN: /etc/rc3.d/S40-network failed</pre></div><div><br></div><div> Do you have any idea how I can solve it?</div><div><br></div><div>Thank you so much.</div><span><font color="#888888"><div><br></div><div>
Guilherme.</div><div><br></div>
</font></span><br></div></div>_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net" target="_blank">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
<br></blockquote></div><br></div>
</blockquote></div><br></div></div></div></div></div>
</blockquote></div><br></div>
</div></div></blockquote></div><br>
</div></div></blockquote></div><br>
</div></div></blockquote></div><br></div></div></div>
</blockquote></div><br>
</div></div></blockquote></div><br></div>
</div></div></blockquote></div><br>