<div dir="ltr">Hi,<div><br></div><div>I'm using stable/rocky to try ceph cache tiering.</div><div>Now I'm facing a one issue.</div><div><br></div><div>I chose one SSD to become cache tier disk. And set below options in globals.yml.</div><div>ceph_enable_cache = "yes"</div><div>ceph_target_max_byte= "<size num>" <br></div><div>ceph_target_max_objects = "<object num>"</div><div>ceph_cache_mode = "writeback"</div><div><br></div><div>And the default OSD type is bluestore.</div><div><br></div><div><br></div><div>It will bootstrap the cache disk and create another OSD container.</div><div>And also create the root bucket called "cache". then set the cache rule to every cache pools.</div><div>The problem is, that OSD didn't stay at "cache" bucket, it still stay at "default" bucket.</div><div>That caused the services can't access to the Ceph normally. Especially deploying Gnocchi.</div><div><br></div><div>When error occurred, I manually set that OSD to the cache bucket then re-deploy, and everything is normal now.</div><div>But still a strange issue that it stay in the wrong bucket.</div><div><br></div><div>Did I miss something during deployment? Or what can I do?</div><div><br></div><div><br></div><div>Many thanks,</div><div>Eddie.</div></div>