[Openstack] [Grizzly][Quantum] Fail scheduling network

Arindam Choudhury arindam at live.com
Mon Jul 1 15:47:45 UTC 2013


Hi,

Having the same problem.

Any help please.


Date: Mon, 24 Jun 2013 10:27:12 -0400
From: swinchen at gmail.com
To: openstack at lists.launchpad.net
Subject: [Openstack] [Grizzly][Quantum] Fail scheduling network

Hi everyone,

I am getting this warning (which seems more like an error) when trying to launch instances: á
/var/log/quantum/server.log:2013-06-24 09:34:03 áWARNING [quantum.db.agentschedulers_db] Fail scheduling network {'status': u'ACTIVE', 'subnets': [u'19f681a4-99b0-4e45-85eb-6d08aa77cedb'], 'name': u'demo-net', 'provider:physical_network': None, 'admin_state_up': True, 'tenant_id': u'c9ec52b4506b4d789180af84b78da5b1', 'provider:network_type': u'gre', 'router:external': False, 'shared': False, 'id': u'7a753d4b-b4dc-423a-98c2-79a1cbeb3d15', 'provider:segmentation_id': 2L}



The instance launches (on a different node) and seems to work correctly. áI have gone over my quantum configuration on both nodes and all the IP's and hostnames seem to have been set correctly (I can post configs if handy).

Here is my setup: áI have three "all-in-one nodes" (test1,test2,test3) that each run all of the services (except l3-agent... áthat only runs on one node at a time). áThe APIs, novnc-proxy, and mysql (actually Percona/Galera Cluster) are load balanced with haproxy. áAll services have their APIs bound to the internal IP. áhaproxy is bound to a VIP that can move around with pacemaker.

In the example above a request comes into haproxy on test2. áquantum-server spits out the warning above on test2, test1 launches the instance and seems to work fine (without any warnings or errors). á áOddly, test3 never seems to even try to launch any instances. á Here is a list of my nova services and quantum agents:

á

root at test1:~# quantum agent-list+--------------------------------------+--------------------+-------+-------+----------------+| id á á á á á á á á á á á á á á á á á | agent_type á á á á | host á| alive | admin_state_up |
+--------------------------------------+--------------------+-------+-------+----------------+| 0dfc68a8-7321-4d6c-a266-a4ffef5f9a33 | DHCP agent á á á á | test3 | :-) á | True á á á á á |
| 2ca7d965-c292-48a3-805c-11afebf18e20 | DHCP agent á á á á | test1 | :-) á | True á á á á á || 2f2c3259-4f63-4e7e-9552-fbc2ed69281e | L3 agent á á á á á | test2 | :-) á | True á á á á á |
| 5a76fbee-47d0-4dc1-af50-24dfb6113400 | Open vSwitch agent | test1 | :-) á | True á á á á á || 7c6c4058-c9c2-4774-8924-ab6ba54266b3 | DHCP agent á á á á | test2 | :-) á | True á á á á á |
| 7d01c7b2-1102-4249-85a0-7afcd9421884 | Open vSwitch agent | test2 | :-) á | True á á á á á || bde82424-b5ff-41b7-9d7e-35bf805cfae8 | Open vSwitch agent | test3 | :-) á | True á á á á á |
| dcb122ab-8c17-4f60-9b3a-41abfdf036c3 | L3 agent á á á á á | test1 | xxx á | True á á á á á |+--------------------------------------+--------------------+-------+-------+----------------+


root at test1:~# nova-manage service list á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á á
Binary á á á á á Host á á á á á á á á á á á á á á á á Zone á á á á á á Status á á State Updated_Atnova-cert á á á átest1 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:11
nova-conductor á test1 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:12nova-consoleauth test1 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:07
nova-scheduler á test1 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:11nova-compute á á test1 á á á á á á á á á á á á á á á ánova á á á á á á enabled á á:-) á 2013-06-24 14:26:08
nova-cert á á á átest2 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:06nova-conductor á test2 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:11
nova-consoleauth test2 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:12nova-scheduler á test2 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:12
nova-compute á á test2 á á á á á á á á á á á á á á á ánova á á á á á á enabled á á:-) á 2013-06-24 14:26:07nova-cert á á á átest3 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:11
nova-consoleauth test3 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:14nova-scheduler á test3 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:11
nova-conductor á test3 á á á á á á á á á á á á á á á áinternal á á á á enabled á á:-) á 2013-06-24 14:26:12nova-compute á á test3 á á á á á á á á á á á á á á á ánova á á á á á á enabled á á:-) á 2013-06-24 14:26:08


Any ideas what might be happening? áAgain, I can post additional logs, configs, etc. á Whatever might help me get past this problem.

Thanks,Sam






_______________________________________________
Mailing list: https://launchpad.net/~openstack
Post to     : openstack at lists.launchpad.net
Unsubscribe : https://launchpad.net/~openstack
More help   : https://help.launchpad.net/ListHelp 		 	   		  
-------------- next part --------------
An HTML attachment was scrubbed...
URL: <http://lists.openstack.org/pipermail/openstack/attachments/20130701/10d6df60/attachment.html>


More information about the Openstack mailing list