<html><head><meta http-equiv="Content-Type" content="text/html charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; ">I saw some old references to MPI_Test running out of memory with fragmentation if I read the post correctly.  They had to tune the <span style="font-family: verdana, arial, helvetica; font-size: 12px; background-color: rgb(255, 255, 255); ">btl_openib_free_list_max MCA parameter.</span><div><a href="http://www.open-mpi.org/community/lists/users/2008/05/5601.php">http://www.open-mpi.org/community/lists/users/2008/05/5601.php</a><div><br></div><div><div>On May 15, 2013, at 9:38 AM, Reza Bakhshayeshi <reza.b2008@gmail.com> wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div dir="ltr"><div class="gmail_default" style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">Thank Lorin for your reply<br><br></div><div class="gmail_default" style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">

Yes, instances are able to ping/ssh each other.<br></div><div class="gmail_default" style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">I've used either Open MPI and MPICH, as you know, they use ssh to perform tasks.<br>

</div><div class="gmail_default" style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">even I'm able to execute example programs, here is the output of mpich cpi on two instances:<br><br>localadmin@ubuntu-benchmark01:<div class="gmail_default">

~$ mpiexec -f ./hosts2 -n 2 ./cpi<br>Process 0 of 2 is on ubuntu-benchmark01<br>
Process 1 of 2 is on ubuntu-benchmark02<br>pi is approximately 3.1415926544231318, Error is 0.0000000008333387<br>wall clock time = 0.050358<br><br></div><div class="gmail_default">but HPCC is much more complex than these ones.<br>

</div><div class="gmail_default">I can perform HPCC on a single instance.<br></div><div class="gmail_default">I've setup everything similiar to my virtual cluster, but here I think something prevent the test.<br></div>

<div class="gmail_default">as soon as hpcc process start to execute on the second instance, it killed unexpectedly.<br></div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On 15 May 2013 17:51, Lorin Hochstein <span dir="ltr"><<a href="mailto:lorin@nimbisservices.com" target="_blank">lorin@nimbisservices.com</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Reza:<div><br></div><div>You should be able to run MPI programs across OpenStack instances as long as your setup is configured so that instances are allowed to communicate with each other over the fixed IPs, and your security group settings allow traffic across the ports that your MPI implementation is using. </div>


<div><br></div><div>(OpenStack doesn't provide a distributed file system, so if you need to do MPI-IO stuff you have to add the shared file system part yourself)</div><div><br></div><div>Are you able to ping/ssh from one instance to another on the fixed IPs?</div>


<div><br></div><div>Lorin</div><div><br></div><div class="gmail_extra"><br><div class="gmail_quote"><div><div class="h5">On Wed, May 15, 2013 at 9:08 AM, Reza Bakhshayeshi <span dir="ltr"><<a href="mailto:reza.b2008@gmail.com" target="_blank">reza.b2008@gmail.com</a>></span> wrote:<br>


</div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5"><div dir="ltr"><div style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">Hi <br><br>

</div><div style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">
I want to perform a MPI program across the instances. I've already done it on a traditional and virtual cluster, so I'm pretty sure about the healthiness of my installation.<br>

</div><div style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">Unfortunately I can't perform it on a cluster of OpenStack instances.<br></div><div style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">

My MPI program is HPCC, it stops at the begging of MPIRandomAccess.<br><br></div><div style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">I would be so grateful if anyone had a similar experience or can guess some possibilities and solutions.<br>




<br></div><div style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">Regards,<br></div><div style="font-family:tahoma,sans-serif;color:rgb(0,0,102)">Reza<br></div></div>
<br></div></div>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><span class="HOEnZb"><font color="#888888"><br><br clear="all"><div><br></div>-- <br><div dir="ltr">Lorin Hochstein<br><div>Lead Architect - Cloud Services</div><div>Nimbis Services, Inc.</div><div>

<a href="http://www.nimbisservices.com/" target="_blank">www.nimbisservices.com</a></div>
</div>
</font></span></div></div>
</blockquote></div><br></div>
_______________________________________________<br>OpenStack-operators mailing list<br>OpenStack-operators@lists.openstack.org<br>http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators<br></blockquote></div><br></div></body></html>