<div dir="ltr"><div><div><div><div><div><div><div>Hi Luke<br><br></div>Thanks for your reply.<br></div>It's work !<br><br></div>But neutron seems difficult more then nova-network.<br></div>I can't start new instance in different availability zone. <br></div><div>Look like need create network and route.<br><br></div><div>Where can find the Docs to tell about OpenStack administration more detail?<br></div><div>I searched <a href="http://docs.openstack.org">http://docs.openstack.org</a> , and it too simple and the examples doesn't full with I need. <br></div><div><br>=============== n-cond log ===============<br>ubuntu@asus:/opt/stack/logs$ grep 31a32c85-fc13-46db-93db-f5e1ee836fe2 n-cond.log<br>2016-02-18 20:39:58.253 ERROR nova.scheduler.utils [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] [instance: 31a32c85-fc13-46db-93db-f5e1ee836fe2] Error from last host: neutron (node neutron): [u'Traceback (most recent call last):\n', u'  File "/opt/stack/nova/nova/compute/manager.py", line 1920, in _do_build_and_run_instance\n    filter_properties)\n', u'  File "/opt/stack/nova/nova/compute/manager.py", line 2086, in _build_and_run_instance\n    instance_uuid=instance.uuid, reason=six.text_type(e))\n', u'RescheduledException: Build of instance 31a32c85-fc13-46db-93db-f5e1ee836fe2 was re-scheduled: Binding failed for port df818cd8-0667-462e-aa04-4a3c6ba8510a, please check neutron logs for more information.\n']<br>2016-02-18 20:39:58.325 WARNING nova.scheduler.utils [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] [instance: 31a32c85-fc13-46db-93db-f5e1ee836fe2] Setting instance to ERROR state.<br>2016-02-18 20:39:58.524 DEBUG nova.network.neutronv2.api [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] [instance: 31a32c85-fc13-46db-93db-f5e1ee836fe2] deallocate_for_instance() from (pid=8643) deallocate_for_instance /opt/stack/nova/nova/network/neutronv2/api.py:796<br>2016-02-18 20:39:58.525 DEBUG keystoneauth.session [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] REQ: curl -g -i -X GET <a href="http://192.168.1.130:9696/v2.0/ports.json?device_id=31a32c85-fc13-46db-93db-f5e1ee836fe2">http://192.168.1.130:9696/v2.0/ports.json?device_id=31a32c85-fc13-46db-93db-f5e1ee836fe2</a> -H "User-Agent: python-neutronclient" -H "Accept: application/json" -H "X-Auth-Token: {SHA1}6a4d1e094116a0ccb022e35216bb44d47d191277" from (pid=8643) _http_log_request /usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py:248<br>2016-02-18 20:39:58.562 DEBUG nova.network.neutronv2.api [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] [instance: 31a32c85-fc13-46db-93db-f5e1ee836fe2] Instance cache missing network info. from (pid=8643) _get_preexisting_port_ids /opt/stack/nova/nova/network/neutronv2/api.py:1651<br>2016-02-18 20:39:58.623 DEBUG nova.network.base_api [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] [instance: 31a32c85-fc13-46db-93db-f5e1ee836fe2] Updating instance_info_cache with network_info: [] from (pid=8643) update_instance_cache_with_nw_info /opt/stack/nova/nova/network/base_api.py:43<br>=============== n-cond log ===============<br><br></div>=============== n-sch log ===============<br>2016-02-18 20:39:58.272 DEBUG nova.scheduler.host_manager [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Update host state with instances: {} from (pid=8710) _locked_update /opt/stack/nova/nova/scheduler/host_manager.py:176<br>2016-02-18 20:39:58.272 DEBUG oslo_concurrency.lockutils [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Lock "(u'neutron', u'neutron')" released by "nova.scheduler.host_manager._locked_update" :: held 0.001s from (pid=8710) inner /usr/local/lib/python2.7/dist-packages/oslo_concurrency/lockutils.py:282<br>2016-02-18 20:39:58.273 DEBUG nova.filters [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Starting with 3 host(s) from (pid=8710) get_filtered_objects /opt/stack/nova/nova/filters.py:70<br>2016-02-18 20:39:58.273 INFO nova.scheduler.filters.retry_filter [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Host [u'neutron', u'neutron'] fails.  Previously tried hosts: [[u'neutron', u'neutron']]<br>2016-02-18 20:39:58.273 DEBUG nova.filters [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Filter RetryFilter returned 2 host(s) from (pid=8710) get_filtered_objects /opt/stack/nova/nova/filters.py:104<br>2016-02-18 20:39:58.273 DEBUG nova.scheduler.filters.availability_zone_filter [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Availability Zone 'x86_64' requested. (asus, asus) ram:3337 disk:882688 io_ops:0 instances:1 has AZs: nova from (pid=8710) host_passes /opt/stack/nova/nova/scheduler/filters/availability_zone_filter.py:60<br>2016-02-18 20:39:58.273 DEBUG nova.scheduler.filters.availability_zone_filter [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Availability Zone 'x86_64' requested. (pismo-192-168-1-98, pismo-192-168-1-98) ram:7573 disk:47104 io_ops:0 instances:0 has AZs: nova from (pid=8710) host_passes /opt/stack/nova/nova/scheduler/filters/availability_zone_filter.py:60<br>2016-02-18 20:39:58.274 INFO nova.filters [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Filter AvailabilityZoneFilter returned 0 hosts<br>2016-02-18 20:39:58.274 DEBUG nova.filters [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Filtering removed all hosts for the request with instance ID '31a32c85-fc13-46db-93db-f5e1ee836fe2'. Filter results: [('RetryFilter', [(u'asus', u'asus'), (u'pismo-192-168-1-98', u'pismo-192-168-1-98')]), ('AvailabilityZoneFilter', None)] from (pid=8710) get_filtered_objects /opt/stack/nova/nova/filters.py:129<br>2016-02-18 20:39:58.274 INFO nova.filters [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] Filtering removed all hosts for the request with instance ID '31a32c85-fc13-46db-93db-f5e1ee836fe2'. Filter results: ['RetryFilter: (start: 3, end: 2)', 'AvailabilityZoneFilter: (start: 2, end: 0)']<br>2016-02-18 20:39:58.274 DEBUG nova.scheduler.filter_scheduler [req-ef9f4cc6-115a-4e95-9a3d-d1656fc2ceb7 admin admin] There are 0 hosts available but 1 instances requested to build. from (pid=8710) select_destinations /opt/stack/nova/nova/scheduler/filter_scheduler.py:71<br>=============== n-sch log ===============<br><br></div>Best Regards,<br></div>Jau<br><div><div><br><div class="gmail_extra"><br><div class="gmail_quote">2016-02-18 19:46 GMT+08:00 Hinds, Luke (Nokia - GB/Bristol) <span dir="ltr"><<a href="mailto:luke.hinds@nokia.com" target="_blank">luke.hinds@nokia.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Seems your interfaces are not set up correctly. The IP address should<br>
be under br-ex<br>
<br>
For example, <br>
<br>
ifcfg-br-ex:<br>
<br>
DEVICE=br-ex<br>
DEVICETYPE=ovs<br>
TYPE=OVSBridge<br>
BOOTPROTO=static<br>
IPADDR=192.168.1.98<br>
NETMASK=255.255.255.0  <br>
GATEWAY=192.168.1.1  <br>
ONBOOT=yes<br>
<br>
ifcfg-eth0:<br>
<br>
DEVICE=eth0<br>
HWADDR=52:54:00:92:05:AE # your hwaddr (find via ip link show eth0)<br>
TYPE=OVSPort<br>
DEVICETYPE=ovs<br>
OVS_BRIDGE=br-ex<br>
ONBOOT=yes<br>
<br>
Running 'ifconfig or ip addr' should then show the IP address plumbed<br>
to br-ex<br>
<div><div class="h5"><br>
<br>
On Thu, 2016-02-18 at 18:58 +0800, EXT 柯俊兆 wrote:<br>
> Hi All<br>
><br>
> When I setting neutron for openstack network, I got some problem and<br>
> doesn't know why.<br>
><br>
> I reference"Neutron Networking with Open vSwitch and Provider<br>
> Networks" to setting my openstack network.<br>
><br>
> Control node is work fine and NIC eth0 IP address can assign to br-ex<br>
> successful <br>
> Compute node NIC eth0 assign to br-ex failed ,and Compute all API<br>
> service can't connect to Control<br>
><br>
> My compute node local.conf  in below<br>
> ================ start ================<br>
> ubuntu@pismo-192-168-1-98:~/OpenStack/devstack$ more local.conf<br>
> [[local|localrc]]<br>
> ADMIN_PASSWORD=admin<br>
> DATABASE_PASSWORD=admin<br>
> RABBIT_PASSWORD=admin<br>
> SERVICE_PASSWORD=admin<br>
> SERVICE_TOKEN=admin<br>
><br>
> DEST=/opt/stack<br>
><br>
> LOGFILE=/opt/stack/logs/stack.sh.log<br>
> VERBOSE=True<br>
> LOG_COLOR=True<br>
> SCREEN_LOGDIR=/opt/stack/logs<br>
><br>
> MULTI_HOST=True<br>
> DATABASE_TYPE=mysql<br>
><br>
> HOST_IP=192.168.1.98<br>
> FLAT_INTERFACE=eth1<br>
> FIXED_RANGE=<a href="http://10.0.0.0/24" rel="noreferrer" target="_blank">10.0.0.0/24</a><br>
> FIXED_NETWORK_SIZE=256<br>
> FLOATING_RANGE=<a href="http://192.168.1.0/24" rel="noreferrer" target="_blank">192.168.1.0/24</a><br>
> Q_FLOATING_ALLOCATION_POOL=start=192.168.1.221,end=192.168.1.230<br>
> SERVICE_HOST=192.168.1.130<br>
> MYSQL_HOST=192.168.1.130<br>
> RABBIT_HOST=192.168.1.130<br>
> GLANCE_HOSTPORT=<a href="http://192.168.1.130:9292" rel="noreferrer" target="_blank">192.168.1.130:9292</a><br>
> ENABLED_SERVICES=n-cpu,rabbit,q-agt<br>
><br>
> ## Open vSwitch provider networking options<br>
> PHYSICAL_NETWORK=default<br>
> OVS_PHYSICAL_BRIDGE=br-ex<br>
> PUBLIC_INTERFACE=eth0<br>
> Q_USE_PROVIDER_NETWORKING=True<br>
> Q_L3_ENABLED=False<br>
><br>
><br>
> ================ end ================ <br>
><br>
><br>
> My compute node NIC info in below<br>
> ================ start ================<br>
> ubuntu@pismo-192-168-1-98:~/OpenStack/devstack$ ifconfig<br>
> br-ex     Link encap:Ethernet  HWaddr 30:0e:d5:c7:59:3e  <br>
>           inet6 addr: fe80::1cde:14ff:fed6:1fa1/64 Scope:Link<br>
>           UP BROADCAST RUNNING  MTU:1500  Metric:1<br>
>           RX packets:289 errors:0 dropped:0 overruns:0 frame:0<br>
>           TX packets:8 errors:0 dropped:0 overruns:0 carrier:0<br>
>           collisions:0 txqueuelen:0 <br>
>           RX bytes:18096 (18.0 KB)  TX bytes:648 (648.0 B)<br>
><br>
> br-int    Link encap:Ethernet  HWaddr 46:6b:f2:e5:c9:41  <br>
>           inet6 addr: fe80::b801:4cff:feb6:cbc2/64 Scope:Link<br>
>           UP BROADCAST RUNNING  MTU:1500  Metric:1<br>
>           RX packets:0 errors:0 dropped:0 overruns:0 frame:0<br>
>           TX packets:8 errors:0 dropped:0 overruns:0 carrier:0<br>
>           collisions:0 txqueuelen:0 <br>
>           RX bytes:0 (0.0 B)  TX bytes:648 (648.0 B)<br>
><br>
> br-tun    Link encap:Ethernet  HWaddr 36:0f:ae:d8:c6:43  <br>
>           inet6 addr: fe80::f4e4:b9ff:feab:5d1d/64 Scope:Link<br>
>           UP BROADCAST RUNNING  MTU:1500  Metric:1<br>
>           RX packets:0 errors:0 dropped:0 overruns:0 frame:0<br>
>           TX packets:8 errors:0 dropped:0 overruns:0 carrier:0<br>
>           collisions:0 txqueuelen:0 <br>
>           RX bytes:0 (0.0 B)  TX bytes:648 (648.0 B)<br>
><br>
> eth0      Link encap:Ethernet  HWaddr 30:0e:d5:c7:59:3e  <br>
>           inet addr:192.168.1.98  Bcast:192.168.1.255 <br>
> Mask:255.255.255.0<br>
>           inet6 addr: fe80::320e:d5ff:fec7:593e/64 Scope:Link<br>
>           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1<br>
>           RX packets:40871 errors:0 dropped:0 overruns:0 frame:0<br>
>           TX packets:28210 errors:0 dropped:0 overruns:0 carrier:0<br>
>           collisions:0 txqueuelen:1000 <br>
>           RX bytes:7796067 (7.7 MB)  TX bytes:5086230 (5.0 MB)<br>
>           Interrupt:109 <br>
><br>
> eth1      Link encap:Ethernet  HWaddr 30:0e:d5:c7:59:3f  <br>
>           inet addr:10.0.0.98  Bcast:10.0.0.255  Mask:255.255.255.0<br>
>           inet6 addr: fe80::320e:d5ff:fec7:593f/64 Scope:Link<br>
>           UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1<br>
>           RX packets:2538 errors:0 dropped:0 overruns:0 frame:0<br>
>           TX packets:3135 errors:0 dropped:0 overruns:0 carrier:0<br>
>           collisions:0 txqueuelen:1000 <br>
>           RX bytes:189631 (189.6 KB)  TX bytes:531277 (531.2 KB)<br>
>           Interrupt:112 <br>
><br>
> lo        Link encap:Local Loopback  <br>
>           inet addr:127.0.0.1  Mask:255.0.0.0<br>
>           inet6 addr: ::1/128 Scope:Host<br>
>           UP LOOPBACK RUNNING  MTU:65536  Metric:1<br>
>           RX packets:3960 errors:0 dropped:0 overruns:0 frame:0<br>
>           TX packets:3960 errors:0 dropped:0 overruns:0 carrier:0<br>
>           collisions:0 txqueuelen:0 <br>
>           RX bytes:346996 (346.9 KB)  TX bytes:346996 (346.9 KB)<br>
><br>
><br>
> ================ end ================ <br>
><br>
> The question are<br>
> 1.In Open vSwitch provider networking options<br>
> PHYSICAL_NETWORK=default  <-- Is mean it use my NIC or  my public<br>
> network ?<br>
><br>
> 2.PUBLIC_INTERFACE is same with FLAT_INTERFACE?<br>
><br>
> 3.Why the SERVICE_HOST connect failed? <br>
> I can ping or connect to SERVICE_HOST via other server,but compute<br>
> node can't.<br>
><br>
> 4.My compute node br-ex doesn't be assign eth0's IP,so it can't go<br>
> out ? If yes,how to fix it ?<br>
><br>
><br>
> Best Regards,<br>
> Jau<br>
</div></div>> _______________________________________________<br>
> Mailing list: <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/ope" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/ope</a><br>
> nstack<br>
> Post to     : <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
> Unsubscribe : <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/ope" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/ope</a><br>
> nstack</blockquote></div><br></div></div></div></div>