Thanks for the quick reply Todd but not, that its not the problem. Anyonelse to help me out with the trace i attached ?<div><br></div><div>Best regards<br>Lele<br><br><div class="gmail_quote">On Wed, May 4, 2011 at 9:52 PM, Todd Deshane <span dir="ltr"><<a href="mailto:todd.deshane@xen.org">todd.deshane@xen.org</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div><div></div><div class="h5">On Wed, May 4, 2011 at 7:34 PM, Leandro Reox <<a href="mailto:leandro.reox@gmail.com">leandro.reox@gmail.com</a>> wrote:<br>

> Here is the SMlog content, and after im attaching the complete Python stack<br>
> trace of the failing operation :<br>
><br>
> [21522] 2011-05-02 11:05:23.165168 ['uuidgen', '-r']<br>
> [21522] 2011-05-02 11:05:23.173426 SUCCESS<br>
> [21522] 2011-05-02 11:05:23.181877 lock: acquired<br>
> /var/lock/sm/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/sr<br>
> [21522] 2011-05-02 11:05:23.191170 vdi_create {'sr_uuid':<br>
> 'f6c3ee92-1ee8-9250-6288-bfd82b18eaa2', 'subtask_of':<br>
> 'OpaqueRef:e0c12109-a670-7467-7b30-d7fa98c266e4', 'args': ['5368709120',<br>
> ''], 'host_ref': 'OpaqueRef:96666e1c-b5c2-456c-ce42-d5de48c2c72f',<br>
> 'session_ref': 'OpaqueRef:4684ee37-2dbf-2918-0e8e-604eb2d57756',<br>
> 'device_config': {'SRmaster': 'true', 'serverpath': '/vol/xcp', 'server':<br>
> '172.16.129.11'}, 'command': 'vdi_create', 'sr_ref':<br>
> 'OpaqueRef:625b2d6a-de22-047d-8d1d-4217d301c7fd', 'vdi_sm_config':<br>
> {'vmhint': '8141c6e2-ba99-4378-4648-12a8c880a74c'}}<br>
> [21522] 2011-05-02 11:05:23.191715 ['/usr/sbin/td-util', 'create', 'vhd',<br>
> '5120',<br>
> '/var/run/sr-mount/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/bfc16f29-fcae-4526-a33c-01a4b08e9e12.vhd']<br>
> [21522] 2011-05-02 11:05:23.223136 SUCCESS<br>
> [21522] 2011-05-02 11:05:23.223258 ['/usr/sbin/td-util', 'query', 'vhd',<br>
> '-v',<br>
> '/var/run/sr-mount/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/bfc16f29-fcae-4526-a33c-01a4b08e9e12.vhd']<br>
> [21522] 2011-05-02 11:05:23.233492 SUCCESS<br>
> [21522] 2011-05-02 11:05:23.288800 lock: released<br>
> /var/lock/sm/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/sr<br>
> [21522] 2011-05-02 11:05:23.292891 lock: closed<br>
> /var/lock/sm/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/sr<br>
> [21897] 2011-05-02 11:11:31.255700 ['uuidgen', '-r']<br>
> [21897] 2011-05-02 11:11:31.263973 SUCCESS<br>
> [21897] 2011-05-02 11:11:31.272166 lock: acquired<br>
> /var/lock/sm/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/sr<br>
> [21897] 2011-05-02 11:11:31.274116 vdi_create {'sr_uuid':<br>
> 'f6c3ee92-1ee8-9250-6288-bfd82b18eaa2', 'subtask_of':<br>
> 'OpaqueRef:2aa5b7f3-2422-7a6a-d60c-f733b5b4e536', 'args': ['8589934592',<br>
> ''], 'host_ref': 'OpaqueRef:96666e1c-b5c2-456c-ce42-d5de48c2c72f',<br>
> 'session_ref': 'OpaqueRef:c5f26499-7a8e-084c-ad7f-6f0a182f5dae',<br>
> 'device_config': {'SRmaster': 'true', 'serverpath': '/vol/xcp', 'server':<br>
> '172.16.129.11'}, 'command': 'vdi_create', 'sr_ref':<br>
> 'OpaqueRef:625b2d6a-de22-047d-8d1d-4217d301c7fd', 'vdi_sm_config':<br>
> {'vmhint': '2a743cb5-9896-f76d-25ad-b779a0f7cee6'}}<br>
> [21897] 2011-05-02 11:11:31.275393 ['/usr/sbin/td-util', 'create', 'vhd',<br>
> '8192',<br>
> '/var/run/sr-mount/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/cc22b2ac-519e-4548-bbaf-69d6a1e778ac.vhd']<br>
> [21897] 2011-05-02 11:11:31.290521 SUCCESS<br>
> [21897] 2011-05-02 11:11:31.290643 ['/usr/sbin/td-util', 'query', 'vhd',<br>
> '-v',<br>
> '/var/run/sr-mount/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/cc22b2ac-519e-4548-bbaf-69d6a1e778ac.vhd']<br>
> [21897] 2011-05-02 11:11:31.302298 SUCCESS<br>
> [21897] 2011-05-02 11:11:31.358807 lock: released<br>
> /var/lock/sm/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/sr<br>
> [21897] 2011-05-02 11:11:31.362893 lock: closed<br>
> /var/lock/sm/f6c3ee92-1ee8-9250-6288-bfd82b18eaa2/sr<br>
><br>
> Python stack trace from nova-compute :<br>
><br>
><br>
> 2011-05-04 16:34:41,333 DEBUG nova.rpc [-] received {u'_context_request_id':<br>
> u'C-FY1X8L8OPHHY4TPZE6', u'_context_read_deleted': False, u'args':<br>
> {u'instance_id': 8, u'injected_files': None, u'availability_zone': None},<br>
> u'_context_is_admin': True, u'_context_timestamp': u'2011-05-04T20:34:36Z',<br>
> u'_context_user': u'admin', u'method': u'run_instance', u'_context_project':<br>
> u'melicloud', u'_context_remote_address': u'172.16.133.241'} from (pid=3796)<br>
> _receive /usr/lib/pymodules/python2.6/nova/rpc.py:177<br>
> 2011-05-04 16:34:41,334 DEBUG nova.rpc [-] unpacked context: {'timestamp':<br>
> u'2011-05-04T20:34:36Z', 'remote_address': u'172.16.133.241', 'project':<br>
> u'melicloud', 'is_admin': True, 'user': u'admin', 'request_id':<br>
> u'C-FY1X8L8OPHHY4TPZE6', 'read_deleted': False} from (pid=3796)<br>
> _unpack_context /usr/lib/pymodules/python2.6/nova/rpc.py:350<br>
> 2011-05-04 16:34:44,182 AUDIT nova.compute.manager [C-FY1X8L8OPHHY4TPZE6<br>
> admin melicloud] instance 8: starting...<br>
> 2011-05-04 16:34:44,411 DEBUG nova.rpc [-] Making asynchronous call on<br>
> network.novacontroller ... from (pid=3796) call<br>
> /usr/lib/pymodules/python2.6/nova/rpc.py:370<br>
> 2011-05-04 16:34:44,411 DEBUG nova.rpc [-] MSG_ID is<br>
> f11a7286824542449e0f9c9a790c418d from (pid=3796) call<br>
> /usr/lib/pymodules/python2.6/nova/rpc.py:373<br>
> 2011-05-04 16:34:44,973 DEBUG nova.virt.xenapi.vm_utils [-] Detected<br>
> DISK_RAW format for image 4, instance 8 from (pid=3796) log_disk_format<br>
> /usr/lib/pymodules/python2.6/nova/virt/xenapi/vm_utils.py:494<br>
<br>
<br>
</div></div>This is the first line there is an error:<br>
<div class="im">> 2011-05-04 16:34:45,566 ERROR nova.compute.manager [C-FY1X8L8OPHHY4TPZE6<br>
> admin melicloud] Instance '8' failed to spawn. Is virtualization enabled in<br>
> the BIOS?<br>
<br>
</div>I wonder if that ^ is the problem?<br>
<br>
If not, maybe the stack trace below will be better read by the openstack devs.<br>
<div><div></div><div class="h5"><br>
> (nova.compute.manager): TRACE: Traceback (most recent call last):<br>
> (nova.compute.manager): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/compute/manager.py", line 240, in<br>
> run_instance<br>
> (nova.compute.manager): TRACE:     self.driver.spawn(instance_ref)<br>
> (nova.compute.manager): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi_conn.py", line 188, in spawn<br>
> (nova.compute.manager): TRACE:     self._vmops.spawn(instance)<br>
> (nova.compute.manager): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi/vmops.py", line 117, in spawn<br>
> (nova.compute.manager): TRACE:     vdi_uuid = self._create_disk(instance)<br>
> (nova.compute.manager): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi/vmops.py", line 113, in<br>
> _create_disk<br>
> (nova.compute.manager): TRACE:     instance.image_id, user, project,<br>
> disk_image_type)<br>
> (nova.compute.manager): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi/vm_utils.py", line 382, in<br>
> fetch_image<br>
> (nova.compute.manager): TRACE:     access, image_type)<br>
> (nova.compute.manager): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi/vm_utils.py", line 535, in<br>
> _fetch_image_glance<br>
> (nova.compute.manager): TRACE:     session, instance_id, image, access,<br>
> image_type)<br>
> (nova.compute.manager): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi/vm_utils.py", line 436, in<br>
> _fetch_image_glance_disk<br>
> (nova.compute.manager): TRACE:     sr_ref = safe_find_sr(session)<br>
> (nova.compute.manager): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi/vm_utils.py", line 853, in<br>
> safe_find_sr<br>
> (nova.compute.manager): TRACE:     raise<br>
> exception.StorageRepositoryNotFound()<br>
> (nova.compute.manager): TRACE: StorageRepositoryNotFound: Cannot find SR to<br>
> read/write VDI.<br>
> (nova.compute.manager): TRACE:<br>
> 2011-05-04 16:34:45,851 ERROR nova.exception [-] Uncaught exception<br>
> (nova.exception): TRACE: Traceback (most recent call last):<br>
> (nova.exception): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/exception.py", line 79, in _wrap<br>
> (nova.exception): TRACE:     return f(*args, **kw)<br>
> (nova.exception): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/compute/manager.py", line 265, in<br>
> run_instance<br>
> (nova.exception): TRACE:     self._update_state(context, instance_id)<br>
> (nova.exception): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/compute/manager.py", line 145, in<br>
> _update_state<br>
> (nova.exception): TRACE:     info =<br>
> self.driver.get_info(instance_ref['name'])<br>
> (nova.exception): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi_conn.py", line 263, in<br>
> get_info<br>
> (nova.exception): TRACE:     return self._vmops.get_info(instance_id)<br>
> (nova.exception): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi/vmops.py", line 771, in<br>
> get_info<br>
> (nova.exception): TRACE:     vm_ref = self._get_vm_opaque_ref(instance)<br>
> (nova.exception): TRACE:   File<br>
> "/usr/lib/pymodules/python2.6/nova/virt/xenapi/vmops.py", line 262, in<br>
> _get_vm_opaque_ref<br>
> (nova.exception): TRACE:     raise<br>
> exception.InstanceNotFound(instance_id=<a href="http://instance_obj.id" target="_blank">instance_obj.id</a>)<br>
> (nova.exception): TRACE: UnboundLocalError: local variable 'instance_obj'<br>
> referenced before assignment<br>
> (nova.exception): TRACE:<br>
> 2011-05-04 16:34:45,852 ERROR nova [-] Exception during message handling<br>
> (nova): TRACE: Traceback (most recent call last):<br>
> (nova): TRACE:   File "/usr/lib/pymodules/python2.6/nova/rpc.py", line 198,<br>
> in _receive<br>
> (nova): TRACE:     rval = node_func(context=ctxt, **node_args)<br>
> (nova): TRACE:   File "/usr/lib/pymodules/python2.6/nova/exception.py", line<br>
> 85, in _wrap<br>
> (nova): TRACE:     raise Error(str(e))<br>
> (nova): TRACE: Error: local variable 'instance_obj' referenced before<br>
> assignment<br>
> (nova): TRACE:<br>
> 2011-05-04 16:35:26,348 INFO nova.compute.manager [-] Found instance<br>
> 'instance-00000008' in DB but no VM. State=4, so setting state to shutoff.<br>
> 2011-05-04 16:35:26,348 INFO nova.compute.manager [-] DB/VM state mismatch.<br>
> Changing state from '4' to '5'<br>
><br>
> Best regards !<br>
> On Wed, May 4, 2011 at 5:57 PM, Todd Deshane <<a href="mailto:todd.deshane@xen.org">todd.deshane@xen.org</a>> wrote:<br>
>><br>
>> On Wed, May 4, 2011 at 4:47 PM, Leandro Reox <<a href="mailto:leandro.reox@gmail.com">leandro.reox@gmail.com</a>><br>
>> wrote:<br>
>> > List, i almost made it, but when i launch an instance, in the logs i see<br>
>> > "StorageRepositoryNotFound: Cannot find SR to read/write VDI" this<br>
>> > message<br>
>> > is from the xenapi. (I have xcp as hypervisor).<br>
>> > I got an SR created via NFS, thats showns in the xe sr-list<br>
>> > Anybody has a clue of why is failing ?<br>
>> ><br>
>> On your XCP server, what is the contents of:<br>
>> /var/log/SMlog<br>
>><br>
>> Maybe we can find a problem there.<br>
>><br>
>> Thanks,<br>
>> Todd<br>
>><br>
>> > Best Regards<br>
>> > Lele<br>
>> > _______________________________________________<br>
>> > Openstack-operators mailing list<br>
>> > <a href="mailto:Openstack-operators@lists.openstack.org">Openstack-operators@lists.openstack.org</a><br>
>> > <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
>> ><br>
>> ><br>
>><br>
>><br>
>><br>
>> --<br>
>> Todd Deshane<br>
>> <a href="http://www.linkedin.com/in/deshantm" target="_blank">http://www.linkedin.com/in/deshantm</a><br>
>> <a href="http://www.xen.org/products/cloudxen.html" target="_blank">http://www.xen.org/products/cloudxen.html</a><br>
>> <a href="http://runningxen.com/" target="_blank">http://runningxen.com/</a><br>
><br>
><br>
> _______________________________________________<br>
> Openstack-operators mailing list<br>
> <a href="mailto:Openstack-operators@lists.openstack.org">Openstack-operators@lists.openstack.org</a><br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
><br>
><br>
<br>
<br>
<br>
--<br>
Todd Deshane<br>
<a href="http://www.linkedin.com/in/deshantm" target="_blank">http://www.linkedin.com/in/deshantm</a><br>
<a href="http://www.xen.org/products/cloudxen.html" target="_blank">http://www.xen.org/products/cloudxen.html</a><br>
<a href="http://runningxen.com/" target="_blank">http://runningxen.com/</a><br>
</div></div></blockquote></div><br></div>