<div dir="ltr">Hi, Gorka.<br><br>Many, many thanks for the information.<br>We are "old school" and we really like the latency and stability of the 3PAR and FCP suite, so we want to keep this structure and use it with Openstack automation.<br><div><br></div><div>Have a nice week!</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Em seg., 22 de mai. de 2023 às 12:57, Gorka Eguileor <<a href="mailto:geguileo@redhat.com">geguileo@redhat.com</a>> escreveu:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 17/05, Jorge Visentini wrote:<br>
> Hello.<br>
><br>
> Today in our environment we only use FCP 3PAR Storages.<br>
> Is there a "friendly" way to use FCP Storages with Openstack?<br>
> I know and I've already tested Ceph, so I can say that it's the best<br>
> storage integration for Openstack, but it's not my case hehe<br>
<br>
Hi,<br>
<br>
As a Cinder and OS-Brick developer I use a FC 3PAR system for most of my<br>
testing and FC development of os-brick, and the only requirement for it<br>
to work is an external Python dependency (python-3parclient) installed<br>
wherever cinder-volume is going to ru.<br>
<br>
I've tried the driver with both FC zone managers, cisco and brocade, and<br>
it works as expected.<br>
<br>
My only complain would be that there are a couple of nuisances and<br>
issues, which may be related to my 3PAR system being really, really,<br>
old, so I end up using a custom driver that includes my own patches that<br>
haven't merged yet [1][2][3].<br>
<br>
I also use a custom python-3parclient with my fix that hasn't merged<br>
either [4].<br>
<br>
For me the most important of those patches is the one that allows me to<br>
disable the online copy [2], because I find that this 3PAR feature gives<br>
me more problems that benefits, though that may only be to me.<br>
<br>
If you are doing a full OpenStack deployment with multiple controller<br>
services that are running cinder-volume in Active-Passive and then a<br>
bunch of compute nodes, just remember that you'll need HBAs in all the<br>
controller nodes where cinder-volume could be running as well as all<br>
your compute nodes.  If you are not using the Zone manager driver you'll<br>
need to configure your switches manually to allow those hosts access to<br>
the 3PAR.<br>
<br>
Cheers,<br>
Gorka.<br>
<br>
[1]: <a href="https://review.opendev.org/c/openstack/cinder/+/756709" rel="noreferrer" target="_blank">https://review.opendev.org/c/openstack/cinder/+/756709</a><br>
[2]: <a href="https://review.opendev.org/c/openstack/cinder/+/756710" rel="noreferrer" target="_blank">https://review.opendev.org/c/openstack/cinder/+/756710</a><br>
[3]: <a href="https://review.opendev.org/c/openstack/cinder/+/756711" rel="noreferrer" target="_blank">https://review.opendev.org/c/openstack/cinder/+/756711</a><br>
[4]: <a href="https://github.com/hpe-storage/python-3parclient/pull/79" rel="noreferrer" target="_blank">https://github.com/hpe-storage/python-3parclient/pull/79</a><br>
<br>
><br>
> All the best!<br>
> --<br>
> Att,<br>
> Jorge Visentini<br>
> +55 55 98432-9868<br>
<br>
</blockquote></div><br clear="all"><div><br></div><span class="gmail_signature_prefix">-- </span><br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><span style="color:rgb(153,153,153)"><span style="font-family:arial,helvetica,sans-serif">Att,<br></span></span></div><span style="color:rgb(153,153,153)"><span style="font-family:arial,helvetica,sans-serif">Jorge Visentini<br>+55 55 98432-9868</span></span><br></div></div></div></div>