[Openstack-es] NEUTRON: No local VLAN available

Rodolfo rag.open.net at openmailbox.org
Wed Apr 26 18:20:34 UTC 2017


# brctl show | grep 'interfaces\|5b5a2eea-26'
bridge name             bridge id               STP enabled     
interfaces
qbr5b5a2eea-26          8000.328e104374d5       no              
qvb5b5a2eea-26
                                                                 
tap5b5a2eea-26

# ovs-vsctl show | grep qvo5b5a2eea-26
         Port "qvo5b5a2eea-26"
             Interface "qvo5b5a2eea-26"


en este punto cuando haces ifconfig la ves UP, fijate con ethtool 
interfaz tmb por las dudas. Aveces pasa que la interfaz bridge le falta 
up. Me interesa saber como algunas maquinas te estan funcionando y otras 
no, osea "dhclient interfaz" en algunas maquinas anda?, mira que si no 
usas gre o vxlan la MTU no deberia ser menor, caso contrario la MTU de 
las maquinas virtuales tiene que ser menor por el header que encapsula 
GRE y VXLAN.

En el DHCP

# ip netns ls | grep 664f64fd-9844-4f1e-a040-9bac2dfa83bb
qdhcp-664f64fd-9844-4f1e-a040-9bac2dfa83bb

~# ip netns exec qdhcp-664f64fd-9844-4f1e-a040-9bac2dfa83bb ifconfig
lo        Link encap:Local Loopback
           inet addr:127.0.0.1  Mask:255.0.0.0
           inet6 addr: ::1/128 Scope:Host
           UP LOOPBACK RUNNING  MTU:65536  Metric:1
           RX packets:0 errors:0 dropped:0 overruns:0 frame:0
           TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
           collisions:0 txqueuelen:1
           RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)


En este caso como la información esta contenido en la BASE con reiniciar 
el servicio agente de DHCP se podria restablecer la configuracion, por 
eso te decia de mirar los logs, te comparta la config:

/etc/neutron/dhcp_agent.ini =>
debug = True
resync_interval = 5
interface_driver = neutron.agent.linux.interface.OVSInterfaceDriver
dhcp_driver = neutron.agent.linux.dhcp.Dnsmasq
use_namespaces = True
enable_isolated_metadata = True
enable_metadata_network = True
num_sync_threads = 4
dhcp_confs = $state_path/dhcp
dnsmasq_config_file = /etc/neutron/dnsmasq-neutron.conf
dnsmasq_dns_servers = SErvidor DNS externo
dnsmasq_lease_max = 16777216
dhcp_lease_relay_socket = $state_path/dhcp/lease_relay
dhcp_delete_namespaces = True

en mi caso utilizo namespaces. Es importante tmb ver desde neutron que 
los puertos te queden up

ejemplo neutron agent-show dhcpagent:

admin_state_up      | True                                               
       |
| agent_type          | DHCP agent                                       
         |
| alive               | True                                             
         |
| binary              | neutron-dhcp-agent                               
         |
| configurations      | {                                                
         |
|                     |      "subnets": 1,                               
         |
|                     |      "use_namespaces": true,                     
         |
|                     |      "dhcp_lease_duration": 86400,               
         |
|                     |      "dhcp_driver": 
"neutron.agent.linux.dhcp.Dnsmasq",  |
|                     |      "ports": 14,                                
         |
|                     |      "log_agent_heartbeats": false,              
         |
|                     |      "networks": 1                               
         |
|                     | }                                                
         |
| created_at          | 2016-11-19 03:40:28                              
         |
| description         |                                                  
         |
| heartbeat_timestamp | 2017-04-26 18:09:38                              
         |
| host                | Maquina1                                         
         |
| id                  | 0a27ae4b-019e-4cf5-90fc-1e542600a1bd             
         |
| started_at          | 2017-03-21 00:35:55                              
         |
| topic               | dhcp_agent

mira tmb en  => neutron port-show puertoDondeSesuponeEstaElAgente

Esta seccion es lo importante:

+-----------------------+-----------------------------------------------------------------------------------------------------+
| Field                 | Value                                          
                                                      |
+-----------------------+-----------------------------------------------------------------------------------------------------+
| admin_state_up        | True                                           
                                                      |
| allowed_address_pairs |                                                
                                                      |
| binding:host_id       | maquina1                                       
                                                      |
| binding:profile       | {}                                             
                                                      |
| binding:vif_details   | {"port_filter": true, "ovs_hybrid_plug": true} 
                                                      |
| binding:vif_type      | ovs                                            
                                                      |
| binding:vnic_type     | normal                                         
                                                      |
| device_id             | cbcb9db2-b1d3-4a0b-b365-f52be2ff9f42           
                                                      |
| device_owner          | compute:zona

espero te sirva y puedas ir viendo el tema. slds



On 2017-04-26 14:48, Ezequiel Cardinali wrote:
> Ante todo muchas gracias por la pronta respuesta.
> 
> En el compute el bridge está OK:
> 
> # brctl show | grep 'interfaces|5b5a2eea-26'
> bridge name             bridge id               STP enabled
> interfaces
> qbr5b5a2eea-26          8000.328e104374d5       no
> qvb5b5a2eea-26
> 
> tap5b5a2eea-26
> 
> # ovs-vsctl show | grep qvo5b5a2eea-26
>         Port "qvo5b5a2eea-26"
>             Interface "qvo5b5a2eea-26"
> 
> En el DHCP
> 
> # ip netns ls | grep 664f64fd-9844-4f1e-a040-9bac2dfa83bb
> qdhcp-664f64fd-9844-4f1e-a040-9bac2dfa83bb
> 
> ~# ip netns exec qdhcp-664f64fd-9844-4f1e-a040-9bac2dfa83bb ifconfig
> lo        Link encap:Local Loopback
>           inet addr:127.0.0.1  Mask:255.0.0.0
>           inet6 addr: ::1/128 Scope:Host
>           UP LOOPBACK RUNNING  MTU:65536  Metric:1
>           RX packets:0 errors:0 dropped:0 overruns:0 frame:0
>           TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
>           collisions:0 txqueuelen:1
>           RX bytes:0 (0.0 B)  TX bytes:0 (0.0 B)
> 
> Acá veo que no está creada la interfaz correspondiente. El problema
> es extraño, porque algunas instancias no tienen problema y otras sí.
> 
> Existe alguna forma de crear la interfaz manualmente para verificar si
> se corrige el problema?
> 
> Gracias!
> 
> El 26 de abril de 2017, 14:47, Ezequiel Cardinali
> <ezq at fedoraproject.org> escribió:
> 
>> ~# ip netns exec qdhcp-664f64fd-9844-4f1e-a040-9bac2dfa83bb ifconfig
>> lo Link encap:Local Loopback
>> inet addr:127.0.0.1 Mask:255.0.0.0
>> inet6 addr: ::1/128 Scope:Host
>> UP LOOPBACK RUNNING MTU:65536 Metric:1
>> RX packets:0 errors:0 dropped:0 overruns:0 frame:0
>> TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
>> collisions:0 txqueuelen:1
>> RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)
>> 
>> El 26 de abril de 2017, 13:24, Rodolfo
>> <rag.open.net at openmailbox.org> escribió:
>> 
>>> Hola eze, mira generalmente si usas el modo VLAN, tenes que estar
>>> seguro de que tenes el binding sobre la interfaz correcta en el
>>> Hypervisor, por ejemplo
>>> 
>>> si utilizas OVS, verifica que la interfaz que tiene el bridge
>>> esta up
>>> 
>>> Bridge br-tag
>>> fail_mode: secure
>>> Port "eth1"
>>> Interface "eth1"
>>> Port br-tag
>>> 
>>> siendo ETH1 la interfaz que esta conectada hacia la red. Luego en
>>> el nodo de RED o donde corra el agente DHCP verifica
>>> 
>>> ip netns ls => que aparezca el id de la red con el servicio asi
>>> qdhcp-e3af11a4-9678-4732-9b05-fb23988540d6
>>> 
>>> luego verifica que tengas información al respecto y que puedas
>>> llegar a las redes de la VLAN:
>>> 
>>> ip netns exec qdhcp-e3af11a4-9678-4732-9b05-fb23988540d6 ifconfig
>>> 
>>> lo Link encap:Local Loopback
>>> inet addr:127.0.0.1 Mask:255.0.0.0
>>> inet6 addr: ::1/128 Scope:Host
>>> UP LOOPBACK RUNNING MTU:65536 Metric:1
>>> RX packets:19 errors:0 dropped:0 overruns:0 frame:0
>>> TX packets:19 errors:0 dropped:0 overruns:0 carrier:0
>>> collisions:0 txqueuelen:0
>>> RX bytes:10944 (10.9 KB) TX bytes:10944 (10.9 KB)
>>> 
>>> tape79869a9-19 Link encap:Ethernet HWaddr fa:16:3e:45:01:43
>>> inet addr:10.10.100.90 Bcast:10.10.100.255
>>> Mask:255.255.255.0
>>> inet6 addr: fe80::f816:3eff:fe45:143/64 Scope:Link
>>> UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
>>> RX packets:1940352 errors:0 dropped:0 overruns:0
>>> frame:0
>>> TX packets:837 errors:0 dropped:0 overruns:0 carrier:0
>>> collisions:0 txqueuelen:0
>>> RX bytes:372868928 (372.8 MB) TX bytes:183190 (183.1
>>> KB)
>>> 
>>> si podes llegar con un icmp o telnet algo entonces tenes
>>> conexión, verificalo asi:
>>> 
>>> ip netns exec qdhcp-e3af11a4-9678-4732-9b05-fb23988540d6 ping
>>> 10.10.100.1 => una ip activa de la VLAN.
>>> 
>>> tmb verifica los logs de tail -f /var/log/neutron/*.log, si no
>>> ves ningun error prueba recargar el agente
>>> /etc/init.d/neutron-dhcp-agent restart;tail -f
>>> /var/log/neutron/*.log
>>> 
>>> para ver y depurar el error, fiajte si tenes el flag activado
>>> para degug en true para Neutron.
>>> 
>>> Generalmente este error suele pasar por un problema de conexión
>>> y de interfaz, por eso te digo que antes vea todo lo físico(ovs
>>> contra interfaz que) y luego pases a nivel de aplicación.
>>> 
>>> cualquier cosa avisanos como te va.
>>> 
>>> slds.
>> 
>> --
>> 
>> Ezequiel Cardinali
>> 
>> Fedora Ambassador
>> ----------------------------------------------------
>> FCF068FD
> 
> --
> 
> Ezequiel Cardinali
> 
> Fedora Ambassador
> ----------------------------------------------------
> FCF068FD




More information about the Openstack-es mailing list