<div dir="ltr"><div><div>How to get nova-compute logs in juno devstack?<br>Below are nova services:<br>vedams@vedams-compute-fc:/opt/stack/tempest$ ps -aef | grep nova<br>vedams   15065 14812  0 10:56 pts/10   00:00:52 /usr/bin/python /usr/local/bin/nova-compute --config-file /etc/nova/nova.conf<br>vedams   15077 14811  0 10:56 pts/9    00:02:06 /usr/bin/python /usr/local/bin/nova-api<br>vedams   15086 14818  0 10:56 pts/12   00:00:09 /usr/bin/python /usr/local/bin/nova-cert --config-file /etc/nova/nova.conf<br>vedams   15095 14836  0 10:56 pts/17   00:00:09 /usr/bin/python /usr/local/bin/nova-consoleauth --config-file /etc/nova/nova.conf<br>vedams   15096 14821  0 10:56 pts/13   00:00:09 /usr/bin/python /usr/local/bin/nova-network --config-file /etc/nova/nova.conf<br>vedams   15100 14844  0 10:56 pts/18   00:00:00 /usr/bin/python /usr/local/bin/nova-objectstore --config-file /etc/nova/nova.conf<br>vedams   15101 14826  0 10:56 pts/15   00:00:05 /usr/bin/python /usr/local/bin/nova-novncproxy --config-file /etc/nova/nova.conf --web /opt/stack/noVNC<br>vedams   15103 14814  0 10:56 pts/11   00:02:02 /usr/bin/python /usr/local/bin/nova-conductor --config-file /etc/nova/nova.conf<br>vedams   15104 14823  0 10:56 pts/14   00:00:11 /usr/bin/python /usr/local/bin/nova-scheduler --config-file /etc/nova/nova.conf<br>vedams   15117 14831  0 10:56 pts/16   00:00:00 /usr/bin/python /usr/local/bin/nova-xvpvncproxy --config-file /etc/nova/nova.conf<br>vedams   15195 15103  0 10:56 pts/11   00:00:24 /usr/bin/python /usr/local/bin/nova-conductor --config-file /etc/nova/nova.conf<br>vedams   15196 15103  0 10:56 pts/11   00:00:25 /usr/bin/python /usr/local/bin/nova-conductor --config-file /etc/nova/nova.conf<br>vedams   15197 15103  0 10:56 pts/11   00:00:24 /usr/bin/python /usr/local/bin/nova-conductor --config-file /etc/nova/nova.conf<br>vedams   15198 15103  0 10:56 pts/11   00:00:24 /usr/bin/python /usr/local/bin/nova-conductor --config-file /etc/nova/nova.conf<br>vedams   15208 15077  0 10:56 pts/9    00:00:00 /usr/bin/python /usr/local/bin/nova-api<br>vedams   15209 15077  0 10:56 pts/9    00:00:00 /usr/bin/python /usr/local/bin/nova-api<br>vedams   15238 15077  0 10:56 pts/9    00:00:03 /usr/bin/python /usr/local/bin/nova-api<br>vedams   15239 15077  0 10:56 pts/9    00:00:01 /usr/bin/python /usr/local/bin/nova-api<br>vedams   15240 15077  0 10:56 pts/9    00:00:03 /usr/bin/python /usr/local/bin/nova-api<br>vedams   15241 15077  0 10:56 pts/9    00:00:03 /usr/bin/python /usr/local/bin/nova-api<br>vedams   15248 15077  0 10:56 pts/9    00:00:00 /usr/bin/python /usr/local/bin/nova-api<br>vedams   15249 15077  0 10:56 pts/9    00:00:00 /usr/bin/python /usr/local/bin/nova-api<br>vedams   21850 14712  0 16:16 pts/0    00:00:00 grep --color=auto nova<br><br><br></div>Below are nova logs files:<br>vedams@vedams-compute-fc:/opt/stack/tempest$ ls /opt/stack/logs/screen/screen-n-<br>screen-n-api.2014-09-28-101810.log    screen-n-cond.log                     screen-n-net.2014-09-28-101810.log    screen-n-obj.log<br>screen-n-api.log                      screen-n-cpu.2014-09-28-101810.log    screen-n-net.log                      screen-n-sch.2014-09-28-101810.log<br>screen-n-cauth.2014-09-28-101810.log  screen-n-cpu.log                      screen-n-novnc.2014-09-28-101810.log  screen-n-sch.log<br>screen-n-cauth.log                    screen-n-crt.2014-09-28-101810.log    screen-n-novnc.log                    screen-n-xvnc.2014-09-28-101810.log<br>screen-n-cond.2014-09-28-101810.log   screen-n-crt.log                      screen-n-obj.2014-09-28-101810.log    screen-n-xvnc.log<br><br><br></div>Below  are nova screen-seesions:<br>6-$(L) n-api  7$(L) n-cpu  8$(L) n-cond  9$(L) n-crt  10$(L) n-net  11$(L) n-sch  12$(L) n-novnc  13$(L) n-xvnc  14$(L) n-cauth  15$(L) n-obj <br><div><br><br><br></div><div><br></div><div>Regards<br></div><div>Nikesh<br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Sep 23, 2014 at 3:10 PM, Nikesh Kumar Mahalka <span dir="ltr"><<a href="mailto:nikeshmahalka@vedams.com" target="_blank">nikeshmahalka@vedams.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div><div>Hi,<br></div>I am able to do all volume operations through dashboard and cli commands.<br></div>But when i am running tempest tests,some tests are getting failed.<br></div><div>For contributing cinder volume driver for my client in cinder,do all tempest tests should passed?<br><br></div><div>Ex:<br>1)<br>./run_tempest.sh tempest.api.volume.test_volumes_snapshots : 1or 2 tests are getting failed<br></div><div><br></div><div>But when i am running individual tests in "test_volumes_snapshots",all tests are getting passed.<br><br>2)<br>./run_tempest.sh tempest.api.volume.test_volumes_actions.VolumesV2ActionsTest.test_volume_upload:<br></div><div>This is also getting failed.<br></div><div><br><br></div><div><br></div>Regards<span class="HOEnZb"><font color="#888888"><br></font></span></div><span class="HOEnZb"><font color="#888888">Nikesh<br></font></span></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Sep 22, 2014 at 4:12 PM, Ken'ichi Ohmichi <span dir="ltr"><<a href="mailto:ken1ohmichi@gmail.com" target="_blank">ken1ohmichi@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Nikesh,<br>
<span><br>
> -----Original Message-----<br>
> From: Nikesh Kumar Mahalka [mailto:<a href="mailto:nikeshmahalka@vedams.com" target="_blank">nikeshmahalka@vedams.com</a>]<br>
> Sent: Saturday, September 20, 2014 9:49 PM<br>
> To: <a href="mailto:openstack@lists.openstack.org" target="_blank">openstack@lists.openstack.org</a>; OpenStack Development Mailing List (not for usage questions)<br>
> Subject: Re: [Openstack] No one replying on tempest issue?Please share your experience<br>
><br>
> Still i didnot get any reply.<br>
<br>
</span>Jay has already replied to this mail, please check the nova-compute<br>
and cinder-volume log as he said[1].<br>
<br>
[1]: <a href="http://lists.openstack.org/pipermail/openstack-dev/2014-September/046147.html" target="_blank">http://lists.openstack.org/pipermail/openstack-dev/2014-September/046147.html</a><br>
<span><br>
> Now i ran below command:<br>
> ./run_tempest.sh tempest.api.volume.test_volumes_snapshots.VolumesSnapshotTest.test_volume_from_snapshot<br>
><br>
> and i am getting test failed.<br>
><br>
><br>
> Actually,after analyzing tempest.log,i found that:<br>
> during creation of a volume from snapshot,tearDownClass is called and it is deleting snapshot bfore creation of volume<br>
> and my test is getting failed.<br>
<br>
</span>I guess the failure you mentioned at the above is:<br>
<br>
2014-09-20 00:42:12.519 10684 INFO tempest.common.rest_client<br>
[req-d4dccdcd-bbfa-4ddf-acd8-5a7dcd5b15db None] Request<br>
(VolumesSnapshotTest:tearDownClass): 404 GET<br>
<a href="http://192.168.2.153:8776/v1/ff110b66c98d455092c6f2a2577b4c80/snapshots/71d3cad4-440d-4fbb-8758-76da17b6ace6" target="_blank">http://192.168.2.153:8776/v1/ff110b66c98d455092c6f2a2577b4c80/snapshots/71d3cad4-440d-4fbb-8758-76da17b6ace6</a><br>
0.029s<br>
<br>
and<br>
<br>
2014-09-20 00:42:22.511 10684 INFO tempest.common.rest_client<br>
[req-520a54ad-7e0a-44ba-95c0-17f4657bc3b0 None] Request<br>
(VolumesSnapshotTest:tearDownClass): 404 GET<br>
<a href="http://192.168.2.153:8776/v1/ff110b66c98d455092c6f2a2577b4c80/volumes/7469271a-d2a7-4ee6-b54a-cd0bf767be6b" target="_blank">http://192.168.2.153:8776/v1/ff110b66c98d455092c6f2a2577b4c80/volumes/7469271a-d2a7-4ee6-b54a-cd0bf767be6b</a><br>
0.034s<br>
<br>
right?<br>
If so, that is not a problem.<br>
VolumesSnapshotTest creates two volumes, and the tearDownClass checks these<br>
volumes deletions by getting volume status until 404(NotFound) [2].<br>
<br>
[2]: <a href="https://github.com/openstack/tempest/blob/master/tempest/api/volume/base.py#L128" target="_blank">https://github.com/openstack/tempest/blob/master/tempest/api/volume/base.py#L128</a><br>
<span><br>
> I deployed a juno devstack setup for a cinder volume driver.<br>
> I changed cinder.conf file and tempest.conf file for single backend and restarted cinder services.<br>
> Now i ran tempest test as below:<br>
> /opt/stack/tempest/run_tempest.sh tempest.api.volume.test_volumes_snapshots<br>
><br>
> I am getting below output:<br>
>  Traceback (most recent call last):<br>
>   File "/opt/stack/tempest/tempest/api/volume/test_volumes_snapshots.py", line 176, in test_volume_from_snapshot<br>
>     snapshot = self.create_snapshot(self.volume_origin['id'])<br>
>   File "/opt/stack/tempest/tempest/api/volume/base.py", line 112, in create_snapshot<br>
>     'available')<br>
>   File "/opt/stack/tempest/tempest/services/volume/json/snapshots_client.py", line 126, in wait_for_snapshot_status<br>
>     value = self._get_snapshot_status(snapshot_id)<br>
>   File "/opt/stack/tempest/tempest/services/volume/json/snapshots_client.py", line 99, in _get_snapshot_status<br>
>     snapshot_id=snapshot_id)<br>
> SnapshotBuildErrorException: Snapshot 6b1eb319-33ef-4357-987a-58eb15549520 failed to build and is in<br>
> ERROR status<br>
<br>
</span>What happens if running the same operation as Tempest by hands on your<br>
environment like the following ?<br>
<br>
[1] $ cinder create 1<br>
[2] $ cinder snapshot-create <id of the created volume at [1]><br>
[3] $ cinder create --snapshot-id <id of the created snapshot at [2]> 1<br>
[4] $ cinder show <id of the created volume at [3]><br>
<br>
Please check whether the status of created volume at [3] is "available" or not.<br>
<br>
Thanks<br>
Ken'ichi Ohmichi<br>
<br>
_______________________________________________<br>
Mailing list: <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
Post to     : <a href="mailto:openstack@lists.openstack.org" target="_blank">openstack@lists.openstack.org</a><br>
Unsubscribe : <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
</blockquote></div><br></div>
</div></div></blockquote></div><br></div>