<div dir="ltr"><div dir="ltr"><div dir="ltr">Hello to the list,<div><br></div><div>In OpenStack releases prior to Wallaby, in CephFS native driver Manila backend config there existed a configuration directive <a href="https://docs.openstack.org/manila/wallaby/configuration/shared-file-systems/samples/manila.conf.htm" target="_blank">cephfs_volume_path_prefix</a> ;</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"># DEPRECATED: The prefix of the cephfs volume path. (string value)<br># This option is deprecated for removal since Wallaby.<br># Its value may be silently ignored in the future.<br># Reason: This option is not used starting with the Nautilus release<br># of Ceph.<br>#cephfs_volume_path_prefix = /volumes</blockquote><div><br></div><div>This volume path prefix was usable (and very useful) to set different prefixes in different backends, pointing to different pools in the same backend Ceph cluster e.g. pools backed by storage devices of different characteristics/technology or Ceph CRUSH rule, etc</div><div><br></div><div>The pool selection would be done in CephFS <a href="https://docs.ceph.com/en/quincy/cephfs/file-layouts/" target="_blank">via the use of file layout fattributes</a>, file layout inheritance ensuring that data created in sub-directories ends up in the correct Ceph pool.</div><div><br></div><div>e.g. two backends using the same Ceph cluster but two different path prefixes hitting different Ceph pools</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">[cephfsnative1]<br>driver_handles_share_servers = False<br>share_backend_name = CEPHFS1<br>share_driver = manila.share.drivers.cephfs.driver.CephFSDriver<br>cephfs_conf_path = /etc/ceph/ceph.conf<br>cephfs_auth_id = manila<br>cephfs_cluster_name = ceph<br>cephfs_volume_path_prefix = /volumes-staging<br>cephfs_volume_mode = 777<br>cephfs_enable_snapshots = False</blockquote><div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">[cephfsnative1_ec]<br>driver_handles_share_servers = False<br>share_backend_name = CEPHFS1_EC<br>share_driver = manila.share.drivers.cephfs.driver.CephFSDriver<br>cephfs_conf_path = /etc/ceph/ceph.conf<br>cephfs_auth_id = manila<br>cephfs_cluster_name = ceph<br>cephfs_volume_path_prefix = /volumes-ec-staging<br>cephfs_volume_mode = 777<br>cephfs_enable_snapshots = False</blockquote><div><br></div><div>However, since Wallaby this config directive looks to have been deprecated and the default of using a path prefix of only /volumes is possible.Trying to use any other prefix in backend configs is ignored.</div></div><div><br></div><div>Would anyone on the list know why this option was deprecated in Manila code, or was this forced on Manila by upstream Ceph as of Nautilus?<br><br>Is there a way to get back to an equivalent functionality?</div><div><br></div><div>Currently using only a default path of /volumes means we have lost all flexibility in defining Manila CephFS share data placement using the native CephFS driver.<br><br>Possibly using share group types+share groups and some pre-created paths in the root CephFS could get to something like equivalency?</div><div><br></div><div>But these paths would need to correspond to the share group UUID, which will only be known after the share group has been created.<br><br>So not all that flexible a path, since it requires an interaction between users to communicate the share group ID and Ceph admins to set the correct file layout policy. Putting the path prefix in the backend type removed all of that in a nicely transparent way.<br></div><div><br></div><div>Having just prototyped this, it will work for setting a desired file layout on a pre-defined share group UUID path in the root CephFS, though it's not really ideal or sustainable to be able to do this for dynamically created share groups by users or automation...</div><div><br></div><div>Thanks in advance for any advice,</div><div>Paul Browne</div></div></div></div>