<div dir="ltr">Dear Gorka,<div><br></div><div>Could you give me patch link on this work? </div><div><br></div><div>Thank you</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, May 13, 2019 at 5:39 PM Gorka Eguileor <<a href="mailto:geguileo@redhat.com">geguileo@redhat.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 13/05, zack chen wrote:<br>
> Hi,<br>
><br>
> Thanks for your reply.<br>
> I saw that ceph already has the Iscsi Gateway. Does the cinder project have<br>
> such a driver?<br>
><br>
<br>
Hi,<br>
<br>
There is an ongoing effort to write a new RBD driver specific for iSCSI,<br>
but it is not available yet.<br>
<br>
Cheers,<br>
Gorka.<br>
<br>
> Gorka Eguileor <<a href="mailto:geguileo@redhat.com" target="_blank">geguileo@redhat.com</a>> 于2019年5月10日周五 下午6:39写道:<br>
><br>
> > On 10/05, zack chen wrote:<br>
> > > This is a normal Cinder in Openstack deployment<br>
> > ><br>
> > > I'm using ceph as cinder backend, RBD drvier.<br>
> > ><br>
> ><br>
> > Hi,<br>
> ><br>
> > If you are using a Ceph/RBD cluster then there are some things to take<br>
> > into consideration:<br>
> ><br>
> > - You need to have the ceph-common package installed in the system.<br>
> ><br>
> > - The images are mounted using the kernel module, so you have to be<br>
> >   careful with the features that are enabled in the images.<br>
> ><br>
> > - If I'm not mistaken the RBD attach using the cinderclient extension<br>
> >   will fail if you don't have the configuration and credentials file<br>
> >   already in the system.<br>
> ><br>
> ><br>
> > > My ideas the instance should communicate with Openstack platform storage<br>
> > > network via the vrouter provided by neutron. The vrouter gateway should<br>
> > > communicate with Openstack platform. is or right?<br>
> > ><br>
> ><br>
> > I can't help you on the network side, since I don't know anything about<br>
> > Neutron.<br>
> ><br>
> > Cheers,<br>
> > Gorka.<br>
> ><br>
> > > Gorka Eguileor <<a href="mailto:geguileo@redhat.com" target="_blank">geguileo@redhat.com</a>> 于2019年5月9日周四 下午5:28写道:<br>
> > ><br>
> > > > On 08/05, zack chen wrote:<br>
> > > > > Hi,<br>
> > > > > I am looking for a mechanism that can be used for baremetal attach<br>
> > volume<br>
> > > > > in a multi-tenant scenario. In addition we use ceph as the backend<br>
> > > > storage<br>
> > > > > for cinder.<br>
> > > > ><br>
> > > > > Can anybody give me some advice?<br>
> > > ><br>
> > > > Hi,<br>
> > > ><br>
> > > > Is this a stand alone Cinder deployment or a normal Cinder in OpenStack<br>
> > > > deployment?<br>
> > > ><br>
> > > > What storage backend will you be using?<br>
> > > ><br>
> > > > What storage protocol? iSCSI, FC, RBD...?<br>
> > > ><br>
> > > > Depending on these you can go with Walter's suggestion of using<br>
> > > > cinderclient and its extension (which in general is the best way to<br>
> > go),<br>
> > > > or you may prefer writing a small python script that uses OS-Brick and<br>
> > > > makes the REST API calls directly.<br>
> > > ><br>
> > > > Cheers,<br>
> > > > Gorka.<br>
> > > ><br>
> ><br>
<br>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr">Sa Pham Dang<br></div><div dir="ltr">Master Student - Soongsil University<br><div>Kakaotalk: sapd95</div><div>Skype: great_bn</div><div><br><div><br></div></div></div></div></div></div>