<div class="markdown">
<p dir="auto">Hey :)<br>
that means the volume is still in use. (lvopen : 1) make sure it's not by checking the process, qemu-nbd, etc...</p>

<p dir="auto">On 13 Nov 2013, at 4:50, Guilherme Russi wrote:</p>

<blockquote>
<p dir="auto">Hello Razique, I'm here opening this thread again, I've done some cinder<br>
delete but when I try to create another storeges it returns there's no<br>
space to create a new volume.</p>

<p dir="auto">Here is part of my lvdisplay output:</p>

<p dir="auto">Alloc PE / Size       52224 / 204,00 GiB<br>
Free  PE / Size       19350 / 75,59 GiB</p>

<p dir="auto">And here is my lvdisplay:</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-06ccd141-91c4-45e4-b21f-595f4a36779b<br>
VG Name                cinder-volumes<br>
LV UUID                wdqxVd-GgUQ-21O4-OWlR-sRT3-HvUA-Q8j9kL<br>
LV Write Access        read/write<br>
LV snapshot status     source of</p>

<p dir="auto">/dev/cinder-volumes/_snapshot-04e8414e-2c0e-4fc2-8bff-43dd80ecca09 [active]<br>
LV Status              available</p>

<h1>open                 0</h1>

<p dir="auto">LV Size                10,00 GiB<br>
Current LE             2560<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:1</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/_snapshot-04e8414e-2c0e-4fc2-8bff-43dd80ecca09<br>
VG Name                cinder-volumes<br>
LV UUID                EZz1lC-a8H2-1PlN-pJTN-XAIm-wW0q-qtUQOc<br>
LV Write Access        read/write<br>
LV snapshot status     active destination for<br>
/dev/cinder-volumes/volume-06ccd141-91c4-45e4-b21f-595f4a36779b<br>
LV Status              available</p>

<h1>open                 0</h1>

<p dir="auto">LV Size                10,00 GiB<br>
Current LE             2560<br>
COW-table size         10,00 GiB<br>
COW-table LE           2560<br>
Allocated to snapshot  0,00%<br>
Snapshot chunk size    4,00 KiB<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:3</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-ca36920e-938e-4ad1-b9c4-74c1e28abd31<br>
VG Name                cinder-volumes<br>
LV UUID                b40kQV-P8N4-R6jt-k97Z-I2a1-9TXm-5GXqfz<br>
LV Write Access        read/write<br>
LV Status              available</p>

<h1>open                 1</h1>

<p dir="auto">LV Size                60,00 GiB<br>
Current LE             15360<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:4</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-70be4f36-10bd-4877-b841-80333ccfe985<br>
VG Name                cinder-volumes<br>
LV UUID                2YDrMs-BrYo-aQcZ-8AlX-A4La-HET1-9UQ0gV<br>
LV Write Access        read/write<br>
LV Status              available</p>

<h1>open                 1</h1>

<p dir="auto">LV Size                1,00 GiB<br>
Current LE             256<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:5</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-00c532bd-91fb-4a38-b340-4389fb7f0ed5<br>
VG Name                cinder-volumes<br>
LV UUID                MfVOuB-5x5A-jne3-H4Ul-4NP8-eI7b-UYSYE7<br>
LV Write Access        read/write<br>
LV Status              available</p>

<h1>open                 0</h1>

<p dir="auto">LV Size                1,00 GiB<br>
Current LE             256<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:6</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-ae133dbc-6141-48cf-beeb-9d6576e57a45<br>
VG Name                cinder-volumes<br>
LV UUID                53w8j3-WT4V-8m52-r6LK-ZYd3-mMHA-FtuyXV<br>
LV Write Access        read/write<br>
LV Status              available</p>

<h1>open                 0</h1>

<p dir="auto">LV Size                1,00 GiB<br>
Current LE             256<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:7</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-954d2f1b-837b-4ba5-abfd-b3610597be5e<br>
VG Name                cinder-volumes<br>
LV UUID                belquE-WxQ2-gt6Y-WlPE-Hmq3-B9Am-zcYD3P<br>
LV Write Access        read/write<br>
LV Status              available</p>

<h1>open                 0</h1>

<p dir="auto">LV Size                60,00 GiB<br>
Current LE             15360<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:8</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-05d037d1-4e61-4419-929a-fe340e00e1af<br>
VG Name                cinder-volumes<br>
LV UUID                Pt61e7-l3Nu-1IdX-T2sb-0GQD-PhS6-XtIIUj<br>
LV Write Access        read/write<br>
LV Status              available</p>

<h1>open                 1</h1>

<p dir="auto">LV Size                1,00 GiB<br>
Current LE             256<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:9</p>

<p dir="auto">--- Logical volume ---<br>
LV Name<br>
/dev/cinder-volumes/volume-316f77c6-bf13-4ea4-9b98-028198f3922f<br>
VG Name                cinder-volumes<br>
LV UUID                e46mBx-CRps-HYKk-aJsc-XFRd-B1Rv-UVk8gT<br>
LV Write Access        read/write<br>
LV Status              available</p>

<h1>open                 1</h1>

<p dir="auto">LV Size                60,00 GiB<br>
Current LE             15360<br>
Segments               1<br>
Allocation             inherit<br>
Read ahead sectors     auto<br>
- currently set to     256<br>
Block device           252:10</p>

<p dir="auto">Do you know how I can remove all of them? When I try lvremove<br>
/dev/cinder-volumes/volume-316f77c6-bf13-4ea4-9b98-028198f3922f, for<br>
example, I get:</p>

<p dir="auto">Can't remove open logical volume<br>
"volume-316f77c6-bf13-4ea4-9b98-028198f3922f"</p>

<p dir="auto">Thank you again.</p>

<p dir="auto">2013/11/8 Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com">luisguilherme.cr@gmail.com</a></p>

<blockquote>
<p dir="auto">Very thanks again.</p>

<p dir="auto">Best regards.</p>

<p dir="auto">2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com">razique.mahroua@gmail.com</a></p>

<blockquote>
<p dir="auto">Oh yah true!<br>
not sure “conductors” exist yet for Cinder, meaning meanwhile, every node<br>
needs a direct access to the database<br>
glad to hear it’s working :)</p>

<p dir="auto">On 08 Nov 2013, at 08:53, Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com">luisguilherme.cr@gmail.com</a><br>
wrote:</p>

<p dir="auto">Hello again Razique, I've found the problem, I need to add the grants on<br>
the mysql to my another IP. Now it's working really good :D<br>
I've found this link too if someone needs:<br>
<a href="http://docs.openstack.org/admin-guide-cloud/content//managing-volumes.html">http://docs.openstack.org/admin-guide-cloud/content//managing-volumes.html</a></p>

<p dir="auto">Thank you so much, and if you need me just let me know.</p>

<p dir="auto">Best regards.</p>

<p dir="auto">Guilherme.</p>

<p dir="auto">2013/11/8 Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com">luisguilherme.cr@gmail.com</a></p>

<blockquote>
<p dir="auto">Hello Razique, I got a couple of doubts, do you know if I need to do<br>
something else that's is not on the link you sent me? I'm asking because I<br>
followed the configuration but it's not working, here is what I get: I've<br>
installed the cinder-volume at the second computer that have the HD, and<br>
I've changed it's cinder.conf. I've changed too the master's cinder.conf<br>
like is following:</p>

<p dir="auto">[DEFAULT]<br>
rootwrap<em>config = /etc/cinder/rootwrap.conf<br>
sql</em>connection = mysql://cinder:password@localhost/cinder<br>
api<em>paste</em>confg = /etc/cinder/api-paste.ini</p>

<h1>iscsi_helper=iscsiadm</h1>

<h1>iscsi_helper = ietadm</h1>

<p dir="auto">iscsi<em>helper = tgtadm<br>
volume</em>name_template = volume-%s</p>

<h1>volume_group = cinder-volumes</h1>

<p dir="auto">verbose = True<br>
auth<em>strategy = keystone<br>
iscsi</em>ip<em>address = 192.168.3.1<br>
scheduler</em>driver=cinder.scheduler.filter_scheduler.FilterScheduler</p>

<h1>Rabbit authorization</h1>

<p dir="auto">rabbit<em>host = localhost<br>
rabbit</em>port = 5672<br>
rabbit<em>hosts = $rabbit</em>host:$rabbit<em>port<br>
rabbit</em>use<em>ssl = false<br>
rabbit</em>userid = guest<br>
rabbit_password = password</p>

<h1>rabbit<em>virtual</em>host = /nova</h1>

<p dir="auto">state<em>path = /var/lib/cinder<br>
lock</em>path = /var/lock/cinder<br>
volumes_dir = /var/lib/cinder/volumes</p>

<h1>rpc<em>backend = cinder.rpc.impl</em>kombu</h1>

<p dir="auto">enabled<em>backends=orion-1,orion-4<br>
[orion-1]<br>
volume</em>group=cinder-volumes<br>
volume<em>driver=cinder.volume.drivers.lvm.LVMISCSIDriver<br>
volume</em>backend<em>name=LVM</em>iSCSI<br>
[orion-4]<br>
volume<em>group=cinder-volumes-2<br>
volume</em>driver=cinder.volume.drivers.lvm.LVMISCSIDriver<br>
volume<em>backend</em>name=LVM_iSCSI</p>

<p dir="auto">The cinder.conf on the second computer is like this but the IPs are<br>
changed with the controller IP (It has the cinder-api), and when I run<br>
service cinder-volume restart at the second computer it's status is<br>
stop/waiting.</p>

<p dir="auto">Any ideas?</p>

<p dir="auto">Thanks :)</p>

<p dir="auto">2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com">razique.mahroua@gmail.com</a></p>

<blockquote>
<p dir="auto">sure :)</p>

<p dir="auto">On 08 Nov 2013, at 05:39, Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com">luisguilherme.cr@gmail.com</a><br>
wrote:</p>

<p dir="auto">Oh great! I'll try here and send you the results.</p>

<p dir="auto">Very thanks :)</p>

<p dir="auto">2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com">razique.mahroua@gmail.com</a></p>

<blockquote>
<p dir="auto">If I’m not mistaken, you only need to install the “cinder-volume’<br>
service that will update its status to your main node<br>
:)</p>

<p dir="auto">On 08 Nov 2013, at 05:34, Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com">luisguilherme.cr@gmail.com</a><br>
wrote:</p>

<p dir="auto">Great! I was reading the link and I have one question, do I need to<br>
install cinder at the other computer too?</p>

<p dir="auto">Thanks :)</p>

<p dir="auto">2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com">razique.mahroua@gmail.com</a></p>

<blockquote>
<p dir="auto">Ok in that case, with Grizzly you can use the “multi-backends”<br>
feature:<br>
<a href="https://wiki.openstack.org/wiki/Cinder-multi-backend">https://wiki.openstack.org/wiki/Cinder-multi-backend</a></p>

<p dir="auto">and that should do it :)</p>

<p dir="auto">On 08 Nov 2013, at 05:29, Guilherme Russi <a href="mailto:luisguilherme.cr@gmail.com">luisguilherme.cr@gmail.com</a><br>
wrote:</p>

<p dir="auto">It is a hard disk, my scenario is one Controller (where I have my<br>
storage cinder and my network quantum) and four compute nodes.</p>

<p dir="auto">2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com">razique.mahroua@gmail.com</a></p>

<blockquote>
<p dir="auto">ok !<br>
what is your actual Cinder backend? Is it a hard disk, a SAN, a<br>
network volume, etc…</p>

<p dir="auto">On 08 Nov 2013, at 05:20, Guilherme Russi <<br>
<a href="mailto:luisguilherme.cr@gmail.com">luisguilherme.cr@gmail.com</a>> wrote:</p>

<p dir="auto">Hi Razique, thank you for answering, I want to expand my cinder<br>
storage, is it the block storage? I'll use the storage to allow VMs to have<br>
more hard disk space.</p>

<p dir="auto">Regards.</p>

<p dir="auto">Guilherme.</p>

<p dir="auto">2013/11/8 Razique Mahroua <a href="mailto:razique.mahroua@gmail.com">razique.mahroua@gmail.com</a></p>

<blockquote>
<p dir="auto">Hi Guilherme !<br>
Which storage do you precisely want to expand?</p>

<p dir="auto">Regards,<br>
Razique</p>

<p dir="auto">On 08 Nov 2013, at 04:52, Guilherme Russi <<br>
<a href="mailto:luisguilherme.cr@gmail.com">luisguilherme.cr@gmail.com</a>> wrote:</p>

<blockquote>
<p dir="auto">Hello guys, I have a Grizzly deployment running fine with 5</p>
</blockquote>

<p dir="auto">nodes, and I want to add more storage on it. My question is, can I install<br>
a new HD on another computer thats not the controller and link this HD with<br>
my cinder that it can be a storage too?</p>

<blockquote>
<p dir="auto">The computer I will install my new HD is at the same network as</p>
</blockquote>

<p dir="auto">my cloud is. I'm asking because I haven't seen a question like that here.<br>
Does anybody knows how to do that? Have a clue? Any help is welcome.</p>

<blockquote>
<p dir="auto">Thank you all.</p>

<p dir="auto">Best regards.</p>

<hr>

<p dir="auto">Mailing list:</p>
</blockquote>

<p dir="auto"><a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a></p>

<blockquote>
<p dir="auto">Post to     : <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
Unsubscribe :</p>
</blockquote>

<p dir="auto"><a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a></p>
</blockquote>
</blockquote>
</blockquote>
</blockquote>
</blockquote>
</blockquote>
</blockquote>
</blockquote>
</blockquote>

</div>