<div dir="auto">Thank you for the clarification. <div dir="auto">Will check the approach suggested by you. </div><div dir="auto"><br></div><div dir="auto">-Lokendra </div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, 29 Aug 2022, 21:53 Takashi Kajinami, <<a href="mailto:tkajinam@redhat.com">tkajinam@redhat.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>I'm afraid what you are trying is completely wrong.</div><div>In case you need a shared file system then you should use a different technology like Manila.</div><div><br></div><div>Multiattach in cinder allows multiple VMS to access the same block device data but it does</div><div>NEVER provide any mechanism to guarantee consistency at file system level. Popular filesystems</div><div>such as xfs never protect concurrent IO from multiple machines and If you mount the filesystem</div><div>on the shared disk by multiple vms and write on it concurrently then you'd end up with a corrupted filesystem.</div><div><br></div><div>Usually when you have multiattach-ed block devices then you need to implement a mechanism</div><div>to prevent concurrent access (eg. Pacemaker)<br></div><div><br></div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Aug 30, 2022 at 1:06 AM Lokendra Rathour <<a href="mailto:lokendrarathour@gmail.com" target="_blank" rel="noreferrer">lokendrarathour@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi Team, <div>It worked if I redo the VM creation with creation one more volume of multi-attach type. </div><div>Thanks once again for the same. </div><div><br></div><div>we can mark this thread as closed. </div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Aug 29, 2022 at 11:18 AM Lokendra Rathour <<a href="mailto:lokendrarathour@gmail.com" target="_blank" rel="noreferrer">lokendrarathour@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi Team,<div>On TripleO Wallaby deployment, I have tried creating multi-attach type volume, which if I am attaching this volume to two VM, it is getting attached. </div><div>After mounting the same in each VM, if I am creating the folders in one VM at the mount path, </div><div>I am not seeing the same on the other VM at the mount path</div><div><img src="cid:ii_l7ec1rzi0" alt="image.png" width="543" height="207"><br><div><div><br></div><div>Ideally if the backend volume is same and if I am understanding the idea correctly, then the content should be same in both the location, as the back is same.</div><div>Checking at horizon I also see that Volume is showing attached to both the VMs.</div><div><br></div><div><br></div><div><img src="cid:ii_l7ec9hck1" alt="image.png" width="543" height="183"><br></div><div><br></div><div>Document followed to create this:</div><div><a href="https://docs.openstack.org/cinder/latest/admin/volume-multiattach.html" target="_blank" rel="noreferrer">https://docs.openstack.org/cinder/latest/admin/volume-multiattach.html</a><br></div><div><br></div><div>Please advice</div><div><br></div>-- <br><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr">~ Lokendra<br></div><div>skype: lokendrarathour</div><div dir="ltr"><img src="https://ci3.googleusercontent.com/mail-sig/AIorK4zyd6LpJOGqagxmzUlY59eMQx0-FN0t8HtjdtGE7VLZSKIxBUz3bI7z-MBqbgDVg1-XbtvHgN_ATJ10N6bonyO-JSGTtl5s_mNSbDoXBg" width="200" height="41"><br></div><div dir="ltr"><br></div></div></div></div></div></div></div>
</blockquote></div><br clear="all"><div><br></div>-- <br><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr">~ Lokendra<br></div><div>skype: lokendrarathour</div><div dir="ltr"><img src="https://ci3.googleusercontent.com/mail-sig/AIorK4zyd6LpJOGqagxmzUlY59eMQx0-FN0t8HtjdtGE7VLZSKIxBUz3bI7z-MBqbgDVg1-XbtvHgN_ATJ10N6bonyO-JSGTtl5s_mNSbDoXBg" width="200" height="41"><br></div><div dir="ltr"><br></div></div></div></div>
</blockquote></div>
</blockquote></div>