<div dir="auto">Hello Gorka, I have not changed default values for filters.<div dir="auto">When I come backup to office I will senza you details you requested.</div><div dir="auto">Ignazio</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Il Gio 13 Gen 2022, 13:08 Gorka Eguileor <<a href="mailto:geguileo@redhat.com">geguileo@redhat.com</a>> ha scritto:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 13/01, Ignazio Cassano wrote:<br>
> Hello, I am using nfsgold volume type.<br>
> [root@tst-controller-01 ansible]# cinder type-show nfsgold<br>
> +---------------------------------+--------------------------------------+<br>
> | Property                        | Value                                |<br>
> +---------------------------------+--------------------------------------+<br>
> | description                     | None                                 |<br>
> | extra_specs                     | volume_backend_name : nfsgold        |<br>
> | id                              | fd8b1cc8-4c3a-490d-bc95-29e491f850cc |<br>
> | is_public                       | True                                 |<br>
> | name                            | nfsgold                              |<br>
> | os-volume-type-access:is_public | True                                 |<br>
> | qos_specs_id                    | None                                 |<br>
> +---------------------------------+--------------------------------------+<br>
><br>
> cinder get-pools<br>
> +----------+--------------------------------------------------------------------+<br>
> | Property | Value<br>
>      |<br>
> +----------+--------------------------------------------------------------------+<br>
> | name     | cinder-cluster-1@nfsgold2#10.102.189.156:/svm_tstcinder_cl2_volssd<br>
> |<br>
> +----------+--------------------------------------------------------------------+<br>
> +----------+--------------------------------------------------------------------+<br>
> | Property | Value<br>
>      |<br>
> +----------+--------------------------------------------------------------------+<br>
> | name     | cinder-cluster-1@nfsgold1#10.102.189.155:/svm_tstcinder_cl1_volssd<br>
> |<br>
> +----------+--------------------------------------------------------------------+<br>
><br>
<br>
Hi,<br>
<br>
We would need to see the details of the pools to see additional<br>
information:<br>
<br>
 $ cinder get-pools --detail<br>
<br>
> I noted that nfsgold2 is used also when nfsgold1 is almost full.<br>
> I expected the volume was created on share with more space availability.<br>
> Ignazio<br>
><br>
<br>
Then the capacity filtering seems to be working as expected (we can<br>
confirm looking at the debug logs and seeing if both backends pass the<br>
filtering).  You could see in the logs that both of them are passing the<br>
filtering and are valid to create volumes.<br>
<br>
The thing we'd have to look into is the weighing phase, where the<br>
scheduler is selecting nfsgold1 as the best option.<br>
<br>
I assume you haven't changed the defaults in the configuration options<br>
"scheduler_default_weighers" or in "scheduler_weight_handler".<br>
<br>
So it must be using the "CapacityWeigher".  Are you using default values<br>
for "capacity_weigher_multiplier" and<br>
"allocated_capacity_weight_multiplier" config options?<br>
<br>
When using defaults the capacity weigher should be spread volumes<br>
instead of stacking them.<br>
<br>
I still think that the best way to debug this is to view the debug logs.<br>
In Stein you should be able to dynamically change the logging level of<br>
the scheduler services to debug without restarting the services, and<br>
then changing it back to info.<br>
<br>
Cheers,<br>
Gorka.<br>
<br>
<br>
><br>
> Il giorno gio 13 gen 2022 alle ore 12:03 Gorka Eguileor <<a href="mailto:geguileo@redhat.com" target="_blank" rel="noreferrer">geguileo@redhat.com</a>><br>
> ha scritto:<br>
><br>
> > On 13/01, Ignazio Cassano wrote:<br>
> > > Hello,<br>
> > > I am using openstack stein on centos 7 with netapp ontap driver.<br>
> > > Seems capacity filter is not working and volumes are always creed on the<br>
> > > first share where less space is available.<br>
> > > My configuration is posted here:<br>
> > > enabled_backends = nfsgold1, nfsgold2<br>
> > ><br>
> > > [nfsgold1]<br>
> > > nas_secure_file_operations = false<br>
> > > nas_secure_file_permissions = false<br>
> > > volume_driver = cinder.volume.drivers.netapp.common.NetAppDriver<br>
> > > netapp_storage_family = ontap_cluster<br>
> > > netapp_storage_protocol = nfs<br>
> > > netapp_vserver = svm-tstcinder2-cl1<br>
> > > netapp_server_hostname = <a href="http://faspod2.csi.it" rel="noreferrer noreferrer" target="_blank">faspod2.csi.it</a><br>
> > > netapp_server_port = 80<br>
> > > netapp_login = apimanager<br>
> > > netapp_password = password<br>
> > > nfs_shares_config = /etc/cinder/nfsgold1_shares<br>
> > > volume_backend_name = nfsgold<br>
> > > #nfs_mount_options = lookupcache=pos<br>
> > > nfs_mount_options = lookupcache=pos<br>
> > ><br>
> > ><br>
> > > [nfsgold2]<br>
> > > nas_secure_file_operations = false<br>
> > > nas_secure_file_permissions = false<br>
> > > volume_driver = cinder.volume.drivers.netapp.common.NetAppDriver<br>
> > > netapp_storage_family = ontap_cluster<br>
> > > netapp_storage_protocol = nfs<br>
> > > netapp_vserver = svm-tstcinder2-cl2<br>
> > > netapp_server_hostname = <a href="http://faspod2.csi.it" rel="noreferrer noreferrer" target="_blank">faspod2.csi.it</a><br>
> > > netapp_server_port = 80<br>
> > > netapp_login = apimanager<br>
> > > netapp_password = password<br>
> > > nfs_shares_config = /etc/cinder/nfsgold2_shares<br>
> > > volume_backend_name = nfsgold<br>
> > > #nfs_mount_options = lookupcache=pos<br>
> > > nfs_mount_options = lookupcache=pos<br>
> > ><br>
> > ><br>
> > ><br>
> > > Volumes are created always on nfsgold1 also if  has less space available<br>
> > of<br>
> > > nfsgold2 share<br>
> > > Thanks<br>
> > > Ignazio<br>
> ><br>
> > Hi,<br>
> ><br>
> > What volume type are you using to create the volumes?  If you don't<br>
> > define it it would use the default from the cinder.conf file.<br>
> ><br>
> > What are the extra specs of the volume type?<br>
> ><br>
> > What pool info are the NetApp backends reporting?<br>
> ><br>
> > It's usually a good idea to enabled debugging on the schedulers and look<br>
> > at the details of how they are making the filtering and weighting<br>
> > decisions.<br>
> ><br>
> > Cheers,<br>
> > Gorka.<br>
> ><br>
> ><br>
<br>
</blockquote></div>