<html><head></head><body>I'm afraid we didn't, we're still struggling with some VMs with this problem. Sorry!<br><br><div class="gmail_quote">On 9 December 2014 14:09:32 GMT+00:00, "André Aranha" <andre.f.aranha@gmail.com> wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<div dir="ltr">Hi,<div><br /></div><div>We are with the same issue here, and already try some solutions that didn't work at all. Did you solved this problem?</div><div><br /></div><div>Thank you,</div><div>Andre Aranha</div></div><div class="gmail_extra"><br /><div class="gmail_quote">On 27 August 2014 at 08:17, Hannah Fordham <span dir="ltr"><<a href="mailto:hfordham@radiantworlds.com" target="_blank">hfordham@radiantworlds.com</a>></span> wrote:<br /><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div lang="EN-GB" link="blue" vlink="purple"><div><p class="MsoNormal">I’ve been trying to figure this one out for a while, so I’ll try and be as thorough as possible in this post but apologies if I miss anything pertinent out.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">First off, I’m running a set up with one control node and 5 compute nodes, all created using the Stackgeek scripts
- <a href="http://www.stackgeek.com/guides/gettingstarted.html" target="_blank">http://www.stackgeek.com/guides/gettingstarted.html</a>. The first two (compute1 and compute 2) were created at the same time, compute3, 4 and 5 were added as needed later. My VMs are predominantly CentOS, while my Openstack nodes are Ubuntu 14.04.1<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><b>The symptom: </b>irregular high latency/packet loss to VMs on all compute boxes except compute3. Mostly a pain when trying to do anything via ssh on a VM because the lag makes it difficult to do anything, but it shows itself quite nicely through pings as well:<u></u><u></u></p><p class="MsoNormal">--- 10.0.102.47 ping statistics ---<u></u><u></u></p><p class="MsoNormal">111 packets transmitted, 103 received, 7% packet loss, time 110024ms<u></u><u></u></p><p class="MsoNormal">rtt min/avg/max/mdev = 0.096/367.220/5593.100/1146.920 ms, pipe 6<u></u><u></u></p><p
class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><br /><b>I have tested these pings:<u></u><u></u></b></p><p class="MsoNormal">VM to itself (via its external IP) seems fine<u></u><u></u></p><p class="MsoNormal">VM to another VM is not fine<u></u><u></u></p><p class="MsoNormal">Hosting compute node to VM is not fine<u></u><u></u></p><p class="MsoNormal">My PC to VM is not fine (however the other way round works fine)<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><b>Top on a (32 core) compute node with laggy VMs:<u></u><u></u></b></p><p class="MsoNormal">top - 12:09:20 up 33 days, 21:35,  1 user,  load average: 2.37, 4.95, 6.23<u></u><u></u></p><p class="MsoNormal">Tasks: 431 total,   2 running, 429 sleeping,   0 stopped,   0 zombie<u></u><u></u></p><p class="MsoNormal">%Cpu(s):  0.6 us,  3.4 sy,  0.0 ni, 96.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st<u></u><u></u></p><p
class="MsoNormal">KiB Mem:  65928256 total, 44210348 used, 21717908 free,   341172 buffers<u></u><u></u></p><p class="MsoNormal">KiB Swap:  7812092 total,  1887864 used,  5924228 free.  7134740 cached Mem<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><b>And for comparison, on the one compute node that doesn’t seem to be suffering from this:<u></u><u></u></b></p><p class="MsoNormal">top - 12:12:20 up 33 days, 21:38,  1 user,  load average: 0.28, 0.18, 0.15<u></u><u></u></p><p class="MsoNormal">Tasks: 399 total,   3 running, 396 sleeping,   0 stopped,   0 zombie<u></u><u></u></p><p class="MsoNormal">%Cpu(s):  0.3 us,  0.1 sy,  0.0 ni, 98.9 id,  0.6 wa,  0.0 hi,  0.0 si,  0.0 st<u></u><u></u></p><p class="MsoNormal">KiB Mem:  65928256 total, 49986064 used, 15942192 free,   335788 buffers<u></u><u></u></p><p class="MsoNormal">KiB Swap:  7812092 total,   919392 used,  6892700 free. 39272312 cached Mem<u></u><u></u></p><p
class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><b>Top on a laggy VM:<u></u><u></u></b></p><p class="MsoNormal">top - 11:02:53 up 27 days, 33 min,  3 users,  load average: 0.00, 0.00, 0.00<u></u><u></u></p><p class="MsoNormal">Tasks:  91 total,   1 running,  90 sleeping,   0 stopped,   0 zombie<u></u><u></u></p><p class="MsoNormal">Cpu(s):  0.2%us,  0.1%sy,  0.0%ni, 99.5%id,  0.1%wa,  0.0%hi,  0.0%si,  0.0%st<u></u><u></u></p><p class="MsoNormal">Mem:   1020400k total,   881004k used,   139396k free,   162632k buffers<u></u><u></u></p><p class="MsoNormal">Swap:  1835000k total,    14984k used,  1820016k free,   220644k cached<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><a href="http://imgur.com/blULjDa" target="_blank">http://imgur.com/blULjDa</a> shows the hypervisor panel of Horizon. As you can see, Compute 3 has fewer resources used, but none of the compute nodes should be anywhere near overloaded from
what I can tell.<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Any ideas? Let me know if I’m missing anything obvious that would help with figuring this out! <u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal">Hannah<u></u><u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p><p class="MsoNormal"><u></u> <u></u></p></div><br />
<br />
***********<br /><br />Radiant Worlds Limited is registered in England (company no: 07822337). This message is intended solely for the addressee and may contain confidential information. If you have received this message in error please send it back to us and immediately and permanently delete it from your system. Do not use, copy or disclose the information contained in this message or in any attachment. Please also note that transmission cannot be guaranteed to be secure or error-free.<br />
</div>
<br />_______________________________________________<br />
Mailing list: <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br />
Post to     : <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br />
Unsubscribe : <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br />
<br /></blockquote></div><br /></div>
</blockquote></div><br>
-- <br>
Sent from my Android device with K-9 Mail. Please excuse my brevity.<BR />
<BR />
***********<br><br>Radiant Worlds Limited is registered in England (company no: 07822337). This message is intended solely for the addressee and may contain confidential information. If you have received this message in error please send it back to us and immediately and permanently delete it from your system. Do not use, copy or disclose the information contained in this message or in any attachment. Please also note that transmission cannot be guaranteed to be secure or error-free.<BR />
</body></html>