<div dir="ltr"><div>Hello, thank you for the answer.</div><div>I am using os-brick 2.3.8 but I got same issues on stein with os.brick 2.8</div><div>For explain better the situation I send you the output of multipath -ll on a compute node:</div><div>root@podvc-kvm01 ansible]# multipath -ll<br>Oct 14 18:50:01 | sdbg: alua not supported<br>Oct 14 18:50:01 | sdbe: alua not supported<br>Oct 14 18:50:01 | sdbd: alua not supported<br>Oct 14 18:50:01 | sdbf: alua not supported<br>360060160f0d049007ab7275f743d0286 dm-11 DGC     ,VRAID           <br>size=30G features='1 retain_attached_hw_handler' hwhandler='1 alua' wp=rw<br>|-+- policy='round-robin 0' prio=0 status=enabled<br>| |- 15:0:0:71  sdbg 67:160 failed faulty running<br>| `- 12:0:0:71  sdbe 67:128 failed faulty running<br>`-+- policy='round-robin 0' prio=0 status=enabled<br>  |- 11:0:0:71  sdbd 67:112 failed faulty running<br>  `- 13:0:0:71  sdbf 67:144 failed faulty running<br>360060160f0d049004cdb615f52343fdb dm-8 DGC     ,VRAID           <br>size=80G features='2 queue_if_no_path retain_attached_hw_handler' hwhandler='1 alua' wp=rw<br>|-+- policy='round-robin 0' prio=50 status=active<br>| |- 15:0:0:210 sdau 66:224 active ready running<br>| `- 12:0:0:210 sdas 66:192 active ready running<br>`-+- policy='round-robin 0' prio=10 status=enabled<br>  |- 11:0:0:210 sdar 66:176 active ready running<br>  `- 13:0:0:210 sdat 66:208 active ready running<br>360060160f0d0490034aa645fe52265eb dm-12 DGC     ,VRAID           <br>size=100G features='2 queue_if_no_path retain_attached_hw_handler' hwhandler='1 alua' wp=rw<br>|-+- policy='round-robin 0' prio=50 status=active<br>| |- 12:0:0:177 sdbi 67:192 active ready running<br>| `- 15:0:0:177 sdbk 67:224 active ready running<br>`-+- policy='round-robin 0' prio=10 status=enabled<br>  |- 11:0:0:177 sdbh 67:176 active ready running<br>  `- 13:0:0:177 sdbj 67:208 active ready running<br>360060160f0d04900159f225fd6126db9 dm-6 DGC     ,VRAID           <br>size=40G features='2 queue_if_no_path retain_attached_hw_handler' hwhandler='1 alua' wp=rw<br>|-+- policy='round-robin 0' prio=50 status=active<br>| |- 11:0:0:26  sdaf 65:240 active ready running<br>| `- 13:0:0:26  sdah 66:16  active ready running<br>`-+- policy='round-robin 0' prio=10 status=enabled<br>  |- 12:0:0:26  sdag 66:0   active ready running<br>  `- 15:0:0:26  sdai 66:32  active ready running<br>Oct 14 18:50:01 | sdba: alua not supported<br>Oct 14 18:50:01 | sdbc: alua not supported<br>Oct 14 18:50:01 | sdaz: alua not supported<br>Oct 14 18:50:01 | sdbb: alua not supported<br>360060160f0d049007eb7275f93937511 dm-10 DGC     ,VRAID           <br>size=40G features='1 retain_attached_hw_handler' hwhandler='1 alua' wp=rw<br>|-+- policy='round-robin 0' prio=0 status=enabled<br>| |- 12:0:0:242 sdba 67:64  failed faulty running<br>| `- 15:0:0:242 sdbc 67:96  failed faulty running<br>`-+- policy='round-robin 0' prio=0 status=enabled<br>  |- 11:0:0:242 sdaz 67:48  failed faulty running<br>  `- 13:0:0:242 sdbb 67:80  failed faulty running<br>360060160f0d049003a567c5fb72201e8 dm-7 DGC     ,VRAID           <br>size=40G features='2 queue_if_no_path retain_attached_hw_handler' hwhandler='1 alua' wp=rw<br>|-+- policy='round-robin 0' prio=50 status=active<br>| |- 12:0:0:57  sdbq 68:64  active ready running<br>| `- 15:0:0:57  sdbs 68:96  active ready running<br>`-+- policy='round-robin 0' prio=10 status=enabled<br>  |- 11:0:0:57  sdbp 68:48  active ready running<br>  `- 13:0:0:57  sdbr 68:80  active ready running<br>360060160f0d04900c120625f802ea1fa dm-9 DGC     ,VRAID           <br>size=25G features='2 queue_if_no_path retain_attached_hw_handler' hwhandler='1 alua' wp=rw<br>|-+- policy='round-robin 0' prio=50 status=active<br>| |- 11:0:0:234 sdav 66:240 active ready running<br>| `- 13:0:0:234 sdax 67:16  active ready running<br>`-+- policy='round-robin 0' prio=10 status=enabled<br>  |- 15:0:0:234 sday 67:32  active ready running<br>  `- 12:0:0:234 sdaw 67:0   active ready running<br>360060160f0d04900b8b0615fb14ef1bd dm-3 DGC     ,VRAID           <br>size=50G features='2 queue_if_no_path retain_attached_hw_handler' hwhandler='1 alua' wp=rw<br>|-+- policy='round-robin 0' prio=50 status=active<br>| |- 11:0:0:11  sdan 66:112 active ready running<br>| `- 13:0:0:11  sdap 66:144 active ready running<br>`-+- policy='round-robin 0' prio=10 status=enabled<br>  |- 12:0:0:11  sdao 66:128 active ready running<br>  `- 15:0:0:11  sdaq 66:160 active ready running</div><div><br></div><div>The active running are related to running virtual machines.</div><div>The faulty are related to virtual macnines migrated on other kvm nodes.</div><div>Every volume has 4 path because iscsi on unity needs two different vlans, each one with 2 addresses.</div><div>I think this issue can be related to os-brick because when I migrate a virtual machine from host A host B in the cova compute log on host A I read:</div><div>2020-10-13 10:31:02.769 118727 DEBUG os_brick.initiator.connectors.iscsi [req-771ede8c-6e1b-4f3f-ad4a-1f6ed820a55c 66adb965bef64eaaab2af93ade87e2ca 85cace94dcc7484c85ff9337eb1d0c4c - default default] <b><span style="color:red">Disconnecting from: []</span></b></div><div><br></div>Ignazio<br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Il giorno mer 14 ott 2020 alle ore 13:41 Gorka Eguileor <<a href="mailto:geguileo@redhat.com">geguileo@redhat.com</a>> ha scritto:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On 09/10, Ignazio Cassano wrote:<br>
> Hello Stackers, I am using dell emc iscsi driver on my centos 7 queens<br>
> openstack. It works and instances work as well but on compute nodes I got a<br>
> lot a faulty device reported by multipath il comand.<br>
> I do know why this happens, probably attacching and detaching volumes and<br>
> live migrating instances do not close something well.<br>
> I read this can cause serious performances problems on compute nodes.<br>
> Please, any workaround and/or patch is suggested ?<br>
> Regards<br>
> Ignazio<br>
<br>
Hi,<br>
<br>
There are many, many, many things that could be happening there, and<br>
it's not usually trivial doing the RCA, so the following questions are<br>
just me hoping this is something "easy" to find out.<br>
<br>
What os-brick version from Queens are you running?  Latest (2.3.9), or<br>
maybe one older than 2.3.3?<br>
<br>
When you say you have faulty devices reported, are these faulty devices<br>
alone in the multipath DM? Or do you have some faulty ones with some<br>
that are ok?<br>
<br>
If there are some OK and some that aren't, are they consecutive devices?<br>
(as in /dev/sda /dev/sdb etc).<br>
<br>
Cheers,<br>
Gorka.<br>
<br>
</blockquote></div>