<p dir="ltr"><br>
On 11/10/2015 6:25 PM, "Clint Byrum" <<a href="mailto:clint@fewbar.com">clint@fewbar.com</a>> wrote:<br>
><br>
> Excerpts from Boris Pavlovic's message of 2015-10-11 00:02:39 -0700:<br>
> > 2Everybody,<br>
> ><br>
> > Just curios why we need such complexity.<br>
> ><br>
> ><br>
> > Let's take a look from other side:<br>
> > 1) Information about all hosts (even in case of 100k hosts) will be less<br>
> > then 1 GB<br>
> > 2) Usually servers that runs scheduler service have at least 64GB RAM and<br>
> > more on the board<br>
> > 3) math.log(100000) < 12¬† (binary search per rule)<br>
> > 4) We have less then 20 rules for scheduling<br>
> > 5) Information about hosts is updated every 60 seconds (no updates host is<br>
> > dead)</p>
<p dir="ltr">[Snip]</p>
<p dir="ltr">><br>
> I'm in, except I think this gets simpler with an intermediary service<br>
> like ZK/Consul to keep track of this 1GB of data and replace the need<br>
> for 6, and changes the implementation of 5 to "updates its record and<br>
> signals its presence".</p>
<p dir="ltr">I have to agree,¬† something like ZK looks like it'd make things simpler and they're in general well proven technology¬† (esp ZK)<br>
They handle the centralized coordination well and all the hard resiliency is thrown in.</p>
<p dir="ltr">Geoff<br>
</p>