<div dir="ltr">Hi Shyam,<div><br></div><div>If I am reading your ring output correctly, it looks like only the devices in node .202 have a weight set, and thus why all of your objects are going to that one node.  You can update the weight of the other devices, and rebalance, and things should get distributed correctly.</div>
<div><br></div><div>--</div><div>Chuck</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, May 1, 2014 at 5:28 AM, Shyam Prasad N <span dir="ltr"><<a href="mailto:nspmangalore@gmail.com" target="_blank">nspmangalore@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div>Hi,<br><br></div>I created a swift cluster and configured the rings like this...<br><br>swift-ring-builder object.builder create 10 3 1<br>
<br>ubuntu-202:/etc/swift$ swift-ring-builder object.builder <br>
object.builder, build version 12<br>1024 partitions, 3.000000 replicas, 1 regions, 4 zones, 12 devices, 300.00 balance<br>The minimum number of hours before a partition can be reassigned is 1<br>Devices:    id  region  zone      ip address  port  replication ip  replication port      name weight partitions balance meta<br>

             0       1     1      10.3.0.202  6010      10.3.0.202              6010      xvdb   1.00       1024  300.00 <br>             1       1     1      10.3.0.202  6020      10.3.0.202              6020      xvdc   1.00       1024  300.00 <br>

             2       1     1      10.3.0.202  6030      10.3.0.202              6030      xvde   1.00       1024  300.00 <br>             3       1     2      10.3.0.212  6010      10.3.0.212              6010      xvdb   1.00          0 -100.00 <br>

             4       1     2      10.3.0.212  6020      10.3.0.212              6020      xvdc   1.00          0 -100.00 <br>             5       1     2      10.3.0.212  6030      10.3.0.212              6030      xvde   1.00          0 -100.00 <br>

             6       1     3      10.3.0.222  6010      10.3.0.222              6010      xvdb   1.00          0 -100.00 <br>             7       1     3      10.3.0.222  6020      10.3.0.222              6020      xvdc   1.00          0 -100.00 <br>

             8       1     3      10.3.0.222  6030      10.3.0.222              6030      xvde   1.00          0 -100.00 <br>             9       1     4      10.3.0.232  6010      10.3.0.232              6010      xvdb   1.00          0 -100.00 <br>

            10       1     4      10.3.0.232  6020      10.3.0.232              6020      xvdc   1.00          0 -100.00 <br>            11       1     4      10.3.0.232  6030      10.3.0.232              6030      xvde   1.00          0 -100.00 <br>

<br clear="all"><div><div>Container and account rings have a similar configuration.<br></div><div>Once the rings were created and all the disks were added to the rings like above, I ran rebalance on each ring. (I ran rebalance after adding each of the node above.)<br>

</div><div>Then I immediately scp the rings to all other nodes in the cluster.<br><br></div><div>I now observe that the objects are all going to 10.3.0.202. I don't see the objects being replicated to the other nodes. So much so that 202 is approaching 100% disk usage, while other nodes are almost completely empty.<br>

</div><div>What am I doing wrong? Am I not supposed to run rebalance operation after addition of each disk/node?<br><br></div><div>Thanks in advance for the help.<span class="HOEnZb"><font color="#888888"><br></font></span></div>
<span class="HOEnZb"><font color="#888888"><div><br></div><div>-- <br>-Shyam
</div></font></span></div></div>
<br>_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
<br></blockquote></div><br></div>