<div dir="ltr">Hey guys,<div>   I started this effort some time ago and ran into several technical issues.  First of all,</div><div>the ceph iscsi driver requires several dependent packages for it to work properly, end to end.</div><div>The biggest problem I ran into was getting the ceph devstack plugin working and acceptable to</div><div>the community.   In order to do ceph iscsi CI, the existing ceph devstack plugin had to be modified</div><div>to install several required packages to properly do iscsi exports.   As it turns out most distros don't have</div><div>packages for those requirements.  (tcmu-runner, targetcli-fb, ceph-iscsi) all had to be installed from source,</div><div>which was unacceptable to the community.  There are no associated packages for those for ubuntu, and </div><div>so it was deemed "unreleased" software.  So the project stalled out.</div><div><br></div><div>In my spare time I have been looking at writing a new devstack ceph plugin purely for ceph-iscsi using</div><div>ceph-ansible, as it has native support for installing all deps for fedora, redhat, centos.   This is a ton of work</div><div>and is somewhat a duplication of the existing devstack ceph plugin.   I've been running into a host of issues</div><div>with ceph-ansible, simply being broken and not really maintained to work properly either.</div><div><a href="https://github.com/ceph/ceph-ansible/issues/5382">https://github.com/ceph/ceph-ansible/issues/5382</a><br></div><div><a href="https://github.com/ceph/ceph-ansible/issues/5383">https://github.com/ceph/ceph-ansible/issues/5383</a><br></div><div><br></div><div><br></div><div>At the time I got blocked on the CI issue, the volume driver worked and was able to run tempest against it manually</div><div>and attach/detach volumes.   It just required a lot of manual steps to get everything in place.   I even wrote a</div><div>python client that took care of a lot of the details of talking to the ceph target gw:</div><div><a href="https://github.com/hemna/rbd-iscsi-client">https://github.com/hemna/rbd-iscsi-client</a><br><br><br>So the bottom line is, I need a way to do CI, which means having an acceptable mechanism for deploying </div><div>ceph + all the ceph iscsi toolchain on an acceptable distro.  Once I can get that working, then we can get</div><div>a tempest job in place to do the cinder volume driver CI.   </div><div><br></div><div>Walt</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Apr 20, 2020 at 5:36 AM kevinz <<a href="mailto:kevinzs2048@gmail.com">kevinzs2048@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi Cinder,<div><br></div><div>We are looking forward to the IRONIC boot from Cinder Ceph Volume. I went through the mailist and found the conversation last year, the main gap for the Ironic boot from Cinder volume(Ceph BACKEND) is lacking Cinder Ceph iscsi driver.</div><div><a href="http://lists.openstack.org/pipermail/openstack-discuss/2019-May/006041.html" target="_blank">http://lists.openstack.org/pipermail/openstack-discuss/2019-May/006041.html</a><br></div><div><br></div><div>So I'm sending to ask the current status for this. We are from Linaro, all our machines are under Ironic and we use Ceph as backend storage. Recently we are looking at the Diskless server boot plan from the Ceph cluster.</div><div><br></div><div>Any info or update or advice, I really appreciate it. Look forward to hearing from you.</div><div><br></div><div><br></div></div>
</blockquote></div>