<div dir="ltr">Hello again guys, I'm trying to overcome another issue with cinder, I'm here trying to create e 500 GB volume, this is my disk:<div><br></div><div><div>pvscan</div><div>  PV /dev/sdb1   VG cinder-volumes-2   lvm2 [931,51 GiB / 531,51 GiB free]</div>

<div>  Total: 1 [931,51 GiB] / in use: 1 [931,51 GiB] / in no VG: 0 [0   ]</div></div><div><br></div><div>But when I try:</div><div><div>cinder create --volume_type lvm_one --display_name v2st3-500 500</div><div><br></div>

<div>I get:</div><div>ERROR: VolumeSizeExceedsAvailableQuota: Requested volume or snapshot exceeds allowed Gigabytes quota</div></div><div><br></div><div>Does anybody know where I begin to fix it?</div><div><br></div><div>

The outputs on cinder-api.log are:</div><div><br></div><div><div>ERROR [cinder.api.middleware.fault] Caught error: Requested volume or snapshot exceeds allowed Gigabytes quota</div><div>Traceback (most recent call last):</div>

<div>  File "/usr/lib/python2.7/dist-packages/cinder/api/middleware/fault.py", line 73, in __call__</div><div>    return req.get_response(self.application)</div><div>  File "/usr/lib/python2.7/dist-packages/webob/request.py", line 1296, in send</div>

<div>    application, catch_exc_info=False)</div><div>  File "/usr/lib/python2.7/dist-packages/webob/request.py", line 1260, in call_application</div><div>    app_iter = application(self.environ, start_response)</div>

<div>  File "/usr/lib/python2.7/dist-packages/webob/dec.py", line 144, in __call__</div><div>    return resp(environ, start_response)</div><div>  File "/usr/lib/python2.7/dist-packages/keystoneclient/middleware/auth_token.py", line 450, in __call__</div>

<div>    return self.app(env, start_response)</div><div>  File "/usr/lib/python2.7/dist-packages/webob/dec.py", line 144, in __call__</div><div>    return resp(environ, start_response)</div><div>  File "/usr/lib/python2.7/dist-packages/webob/dec.py", line 144, in __call__</div>

<div>    return resp(environ, start_response)</div><div>  File "/usr/lib/python2.7/dist-packages/routes/middleware.py", line 131, in __call__</div><div>    response = self.app(environ, start_response)</div><div>

  File "/usr/lib/python2.7/dist-packages/webob/dec.py", line 144, in __call__</div><div>    return resp(environ, start_response)</div><div>  File "/usr/lib/python2.7/dist-packages/webob/dec.py", line 130, in __call__</div>

<div>    resp = self.call_func(req, *args, **self.kwargs)</div><div>  File "/usr/lib/python2.7/dist-packages/webob/dec.py", line 195, in call_func</div><div>    return self.func(req, *args, **kwargs)</div><div>
  File "/usr/lib/python2.7/dist-packages/cinder/api/openstack/wsgi.py", line 803, in __call__</div>
<div>    content_type, body, accept)</div><div>  File "/usr/lib/python2.7/dist-packages/cinder/api/openstack/wsgi.py", line 851, in _process_stack</div><div>    action_result = self.dispatch(meth, request, action_args)</div>

<div>  File "/usr/lib/python2.7/dist-packages/cinder/api/openstack/wsgi.py", line 927, in dispatch</div><div>    return method(req=request, **action_args)</div><div>  File "/usr/lib/python2.7/dist-packages/cinder/api/v1/volumes.py", line 358, in create</div>

<div>    **kwargs)</div><div>  File "/usr/lib/python2.7/dist-packages/cinder/volume/api.py", line 165, in create</div><div>    raise exception.VolumeSizeExceedsAvailableQuota()</div><div>VolumeSizeExceedsAvailableQuota: Requested volume or snapshot exceeds allowed Gigabytes quota</div>

</div><div><br></div><div>Thank you all.</div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">2013/11/15 Razique Mahroua <span dir="ltr"><<a href="mailto:razique.mahroua@gmail.com" target="_blank">razique.mahroua@gmail.com</a>></span><br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Awesome :)<br>
<br>
Razique<div><div class="h5"><br>
On 14 Nov 2013, at 15:27, Guilherme Russi wrote:<br>
<br>
</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5">
That's right, I've stopped the open-iscsi and tgt process, and the lvremove<br>
worked. Thank you all.<br>
<br>
Regards.<br>
<br>
<br>
2013/11/13 Razique Mahroua <<a href="mailto:razique.mahroua@gmail.com" target="_blank">razique.mahroua@gmail.com</a>><br>
<br>
</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5">
Hey :)<br>
that means the volume is still in use. (lvopen : 1) make sure it's not by<br>
checking the process, qemu-nbd, etc...<br>
<br>
On 13 Nov 2013, at 4:50, Guilherme Russi wrote:<br>
<br>
Hello Razique, I'm here opening this thread again, I've done some cinder<br>
delete but when I try to create another storeges it returns there's no<br>
space to create a new volume.<br>
<br>
Here is part of my lvdisplay output:<br>
<br>
Alloc PE / Size 52224 / 204,00 GiB<br>
Free PE / Size 19350 / 75,59 GiB<br>
<br>
And here is my lvdisplay:<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-<u></u>06ccd141-91c4-45e4-b21f-<u></u>595f4a36779b<br>
VG Name cinder-volumes<br>
LV UUID wdqxVd-GgUQ-21O4-OWlR-sRT3-<u></u>HvUA-Q8j9kL<br>
LV Write Access read/write<br>
LV snapshot status source of<br>
<br>
/dev/cinder-volumes/_snapshot-<u></u>04e8414e-2c0e-4fc2-8bff-<u></u>43dd80ecca09 [active]<br>
LV Status available<br>
open 0<br>
<br>
LV Size 10,00 GiB<br>
Current LE 2560<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:1<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/_snapshot-<u></u>04e8414e-2c0e-4fc2-8bff-<u></u>43dd80ecca09<br>
VG Name cinder-volumes<br>
LV UUID EZz1lC-a8H2-1PlN-pJTN-XAIm-<u></u>wW0q-qtUQOc<br>
LV Write Access read/write<br>
LV snapshot status active destination for<br>
/dev/cinder-volumes/volume-<u></u>06ccd141-91c4-45e4-b21f-<u></u>595f4a36779b<br>
LV Status available<br>
open 0<br>
<br>
LV Size 10,00 GiB<br>
Current LE 2560<br>
COW-table size 10,00 GiB<br>
COW-table LE 2560<br>
Allocated to snapshot 0,00%<br>
Snapshot chunk size 4,00 KiB<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:3<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-<u></u>ca36920e-938e-4ad1-b9c4-<u></u>74c1e28abd31<br>
VG Name cinder-volumes<br>
LV UUID b40kQV-P8N4-R6jt-k97Z-I2a1-<u></u>9TXm-5GXqfz<br>
LV Write Access read/write<br>
LV Status available<br>
open 1<br>
<br>
LV Size 60,00 GiB<br>
Current LE 15360<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:4<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-<u></u>70be4f36-10bd-4877-b841-<u></u>80333ccfe985<br>
VG Name cinder-volumes<br>
LV UUID 2YDrMs-BrYo-aQcZ-8AlX-A4La-<u></u>HET1-9UQ0gV<br>
LV Write Access read/write<br>
LV Status available<br>
open 1<br>
<br>
LV Size 1,00 GiB<br>
Current LE 256<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:5<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-<u></u>00c532bd-91fb-4a38-b340-<u></u>4389fb7f0ed5<br>
VG Name cinder-volumes<br>
LV UUID MfVOuB-5x5A-jne3-H4Ul-4NP8-<u></u>eI7b-UYSYE7<br>
LV Write Access read/write<br>
LV Status available<br>
open 0<br>
<br>
LV Size 1,00 GiB<br>
Current LE 256<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:6<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-<u></u>ae133dbc-6141-48cf-beeb-<u></u>9d6576e57a45<br>
VG Name cinder-volumes<br>
LV UUID 53w8j3-WT4V-8m52-r6LK-ZYd3-<u></u>mMHA-FtuyXV<br>
LV Write Access read/write<br>
LV Status available<br>
open 0<br>
<br>
LV Size 1,00 GiB<br>
Current LE 256<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:7<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-<u></u>954d2f1b-837b-4ba5-abfd-<u></u>b3610597be5e<br>
VG Name cinder-volumes<br>
LV UUID belquE-WxQ2-gt6Y-WlPE-Hmq3-<u></u>B9Am-zcYD3P<br>
LV Write Access read/write<br>
LV Status available<br>
open 0<br>
<br>
LV Size 60,00 GiB<br>
Current LE 15360<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:8<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-<u></u>05d037d1-4e61-4419-929a-<u></u>fe340e00e1af<br>
VG Name cinder-volumes<br>
LV UUID Pt61e7-l3Nu-1IdX-T2sb-0GQD-<u></u>PhS6-XtIIUj<br>
LV Write Access read/write<br>
LV Status available<br>
open 1<br>
<br>
LV Size 1,00 GiB<br>
Current LE 256<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:9<br>
<br>
--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-<u></u>316f77c6-bf13-4ea4-9b98-<u></u>028198f3922f<br>
VG Name cinder-volumes<br>
LV UUID e46mBx-CRps-HYKk-aJsc-XFRd-<u></u>B1Rv-UVk8gT<br>
LV Write Access read/write<br>
LV Status available<br>
open 1<br>
<br>
LV Size 60,00 GiB<br>
Current LE 15360<br>
Segments 1<br>
Allocation inherit<br>
Read ahead sectors auto<br>
- currently set to 256<br>
Block device 252:10<br>
<br>
Do you know how I can remove all of them? When I try lvremove<br>
/dev/cinder-volumes/volume-<u></u>316f77c6-bf13-4ea4-9b98-<u></u>028198f3922f, for<br>
example, I get:<br>
<br>
Can't remove open logical volume<br>
"volume-316f77c6-bf13-4ea4-<u></u>9b98-028198f3922f"<br>
<br>
Thank you again.<br>
<br>
2013/11/8 Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a><br>
<br>
Very thanks again.<br>
<br>
Best regards.<br>
<br>
2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com" target="_blank">razique.mahroua@gmail.com</a><br>
<br>
Oh yah true!<br>
not sure “conductors” exist yet for Cinder, meaning meanwhile, every node<br>
needs a direct access to the database<br>
glad to hear it’s working :)<br>
<br>
On 08 Nov 2013, at 08:53, Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a><br>
wrote:<br>
<br>
Hello again Razique, I've found the problem, I need to add the grants on<br>
the mysql to my another IP. Now it's working really good :D<br>
I've found this link too if someone needs:<br>
<a href="http://docs.openstack.org/admin-guide-cloud/content//managing-volumes.html" target="_blank">http://docs.openstack.org/<u></u>admin-guide-cloud/content//<u></u>managing-volumes.html</a><br>
<br>
Thank you so much, and if you need me just let me know.<br>
<br>
Best regards.<br>
<br>
Guilherme.<br>
<br>
2013/11/8 Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a><br>
<br>
Hello Razique, I got a couple of doubts, do you know if I need to do<br>
something else that's is not on the link you sent me? I'm asking because I<br>
followed the configuration but it's not working, here is what I get: I've<br>
installed the cinder-volume at the second computer that have the HD, and<br>
I've changed it's cinder.conf. I've changed too the master's cinder.conf<br>
like is following:<br>
<br>
[DEFAULT]<br>
rootwrap<br></div></div>
*config = /etc/cinder/rootwrap.conf sql*connection =<br>
mysql://cinder:password@<u></u>localhost/cinder<br>
api*paste*confg = /etc/cinder/api-paste.ini<div class="im"><br>
iscsi_helper=iscsiadm iscsi_helper = ietadm<br>
<br>
iscsi<br></div>
*helper = tgtadm volume*name_template = volume-%s<div class="im"><br>
volume_group = cinder-volumes<br>
<br>
verbose = True<br>
auth<br></div>
*strategy = keystone iscsi*ip<br>
*address = 192.168.3.1 scheduler*<br>
driver=cinder.scheduler.<u></u>filter_scheduler.<u></u>FilterScheduler<br>
Rabbit authorization<br>
<br>
rabbit<br>
*host = localhost rabbit*port = 5672<br>
rabbit*hosts = $rabbit*host:$rabbit<br>
*port rabbit*use<br>
*ssl = false rabbit*userid = guest<br>
rabbit_password = password<br>
rabbit*virtual*host = /nova<br>
<br>
state<br>
*path = /var/lib/cinder lock*path = /var/lock/cinder<br>
volumes_dir = /var/lib/cinder/volumes<br>
rpc*backend = cinder.rpc.impl*kombu<br>
<br>
enabled<br>
<br>
*backends=orion-1,orion-4 [orion-1] volume*group=cinder-volumes<br>
volume<br>
*driver=cinder.volume.drivers.<u></u>lvm.LVMISCSIDriver volume*backend*name=LVM*<br>
iSCSI<br>
[orion-4]<br>
volume<br>
*group=cinder-volumes-2 volume*<br>
driver=cinder.volume.drivers.<u></u>lvm.LVMISCSIDriver<br>
volume*backend*name=LVM_iSCSI<div><div class="h5"><br>
<br>
The cinder.conf on the second computer is like this but the IPs are<br>
changed with the controller IP (It has the cinder-api), and when I run<br>
service cinder-volume restart at the second computer it's status is<br>
stop/waiting.<br>
<br>
Any ideas?<br>
<br>
Thanks :)<br>
<br>
2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com" target="_blank">razique.mahroua@gmail.com</a><br>
<br>
sure :)<br>
<br>
On 08 Nov 2013, at 05:39, Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a><br>
wrote:<br>
<br>
Oh great! I'll try here and send you the results.<br>
<br>
Very thanks :)<br>
<br>
2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com" target="_blank">razique.mahroua@gmail.com</a><br>
<br>
If I’m not mistaken, you only need to install the “cinder-volume’<br>
service that will update its status to your main node<br>
:)<br>
<br>
On 08 Nov 2013, at 05:34, Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a><br>
wrote:<br>
<br>
Great! I was reading the link and I have one question, do I need to<br>
install cinder at the other computer too?<br>
<br>
Thanks :)<br>
<br>
2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com" target="_blank">razique.mahroua@gmail.com</a><br>
<br>
Ok in that case, with Grizzly you can use the “multi-backends”<br>
feature:<br>
<a href="https://wiki.openstack.org/wiki/Cinder-multi-backend" target="_blank">https://wiki.openstack.org/<u></u>wiki/Cinder-multi-backend</a><br>
<br>
and that should do it :)<br>
<br>
On 08 Nov 2013, at 05:29, Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a><br>
wrote:<br>
<br>
It is a hard disk, my scenario is one Controller (where I have my<br>
storage cinder and my network quantum) and four compute nodes.<br>
<br>
2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com" target="_blank">razique.mahroua@gmail.com</a><br>
<br>
ok !<br>
what is your actual Cinder backend? Is it a hard disk, a SAN, a<br>
network volume, etc…<br>
<br>
On 08 Nov 2013, at 05:20, Guilherme Russi <<br>
<a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a>> wrote:<br>
<br>
Hi Razique, thank you for answering, I want to expand my cinder<br>
storage, is it the block storage? I'll use the storage to allow VMs to have<br>
more hard disk space.<br>
<br>
Regards.<br>
<br>
Guilherme.<br>
<br>
2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com" target="_blank">razique.mahroua@gmail.com</a><br>
<br>
Hi Guilherme !<br>
Which storage do you precisely want to expand?<br>
<br>
Regards,<br>
Razique<br>
<br>
On 08 Nov 2013, at 04:52, Guilherme Russi <<br>
<a href="mailto:luisguilherme.cr@gmail.com" target="_blank">luisguilherme.cr@gmail.com</a>> wrote:<br>
<br>
Hello guys, I have a Grizzly deployment running fine with 5<br>
<br>
nodes, and I want to add more storage on it. My question is, can I install<br>
a new HD on another computer thats not the controller and link this HD with<br>
my cinder that it can be a storage too?<br>
<br>
The computer I will install my new HD is at the same network as<br>
<br>
my cloud is. I'm asking because I haven't seen a question like that here.<br>
Does anybody knows how to do that? Have a clue? Any help is welcome.<br>
<br>
Thank you all.<br>
<br>
Best regards.<br></div></div>
------------------------------<div class="im"><br>
<br>
Mailing list:<br>
<br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/<u></u>cgi-bin/mailman/listinfo/<u></u>openstack</a><br>
<br>
Post to : <a href="mailto:openstack@lists.openstack.org" target="_blank">openstack@lists.openstack.org</a><br>
Unsubscribe :<br>
<br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/<u></u>cgi-bin/mailman/listinfo/<u></u>openstack</a><br>
<br>
<br>
</div></blockquote></blockquote>
</blockquote></div><br></div>