<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Nov 24, 2015 at 7:39 AM, Jim Rollenhagen <span dir="ltr"><<a href="mailto:jim@jimrollenhagen.com" target="_blank">jim@jimrollenhagen.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On Mon, Nov 23, 2015 at 03:35:58PM -0800, Shraddha Pandhe wrote:<br>
> Hi,<br>
><br>
> I would like to know how everyone is using maintenance mode and what is<br>
> expected from admins about nodes in maintenance. The reason I am bringing<br>
> up this topic is because, most of the ironic operations, including manual<br>
> cleaning are not allowed for nodes in maintenance. Thats a problem for us.<br>
><br>
> The way we use it is as follows:<br>
><br>
> We allow users to put nodes in maintenance mode (indirectly) if they find<br>
> something wrong with the node. They also provide a maintenance reason along<br>
> with it, which gets stored as "user_reason" under maintenance_reason. So<br>
> basically we tag it as user specified reason.<br>
><br>
> To debug what happened to the node our operators use manual cleaning to<br>
> re-image the node. By doing this, they can find out all the issues related<br>
> to re-imaging (dhcp, ipmi, image transfer, etc). This debugging process<br>
> applies to all the nodes that were put in maintenance either by user, or by<br>
> system (due to power cycle failure or due to cleaning failure).<br>
<br>
</span>Interesting; do you let the node go through cleaning between the user<br>
nuking the instance and doing this manual cleaning stuff?<br></blockquote><div><br></div><div>Do you mean automated cleaning? If so, yes we let that go through since thats allowed in maintenance mode. </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
At Rackspace, we leverage the fact that maintenance mode will not allow<br>
the node to proceed through the state machine. If a user reports a<br>
hardware issue, we maintenance the node on their behalf, and when they<br>
delete it, it boots the agent for cleaning and begins heartbeating.<br>
Heartbeats are ignored in maintenance mode, which gives us time to<br>
investigate the hardware, fix things, etc. When the issue is resolved,<br>
we remove maintenance mode, it goes through cleaning, then back in the<br>
pool.</blockquote><div> </div><div>What is the provision state when maintenance mode is removed? Does it automatically go back into the available pool? How does a user report a hardware issue?</div><div><br></div><div>Due to large scale, we can't always assure that someone will take care of the node right away. So we have some automation to make sure that user's quota is freed.</div><div><br></div><div>1. If a user finds some problem with the node, the user calls our break-fix extension (with reason for break-fix) which deletes the instance for the user and frees the quota.</div><div>2. Internally nova deletes the instance and calls destroy on virt driver. This follows the normal delete flow with automated cleaning.</div><div>3. We have an automated tool called Reparo which constantly monitors the node list for nodes in maintenance mode.</div><div>4. If it finds any nodes in maintenance, it runs one round of manual cleaning on it to check if the issue was transient.</div><div>5. If cleaning fails, we need someone to take a look at it.</div><div>6. If cleaning succeeds, we put the node back in available pool.</div><div><br></div><div>This is only way we can scale to hundreds of thousands of nodes. If manual cleaning was not allowed in maintenance mode, our operators would hate us :)</div><div><br></div><div>If the provision state of the node is such a way that the node cannot be picked up by the scheduler, we can remove maintenance mode and run manual cleaning.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
We used to enroll nodes in maintenance mode, back when the API put them<br>
in the available state immediately, to avoid them being scheduled to<br>
until we knew they were good to go. The enroll state solved this for us.<br>
<br>
Last, we use maintenance mode on available nodes if we want to<br>
temporarily pull them from the pool for a manual process or some<br>
testing. This can also be solved by the manageable state.<br>
<br>
// jim<br>
<br>
__________________________________________________________________________<br>
OpenStack Development Mailing List (not for usage questions)<br>
Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" rel="noreferrer" target="_blank">OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</blockquote></div><br></div></div>