<!DOCTYPE html>
<html>
<head>
<title></title>
</head>
<body><div><br></div>
<div><br></div>
<div><br></div>
<div>On Fri, Aug 26, 2016, at 11:01 AM, John Griffith wrote:<br></div>
<blockquote type="cite"><div dir="ltr"><div style="font-family:monospace, monospace;"><br></div>
<div><div><br></div>
<div defang_data-gmailquote="yes"><div>On Fri, Aug 26, 2016 at 7:37 AM, Andrew Laski <span dir="ltr"><<a href="mailto:andrew@lascii.com" defang_rel="noreferrer" defang_data-ss1472225079="1">andrew@lascii.com</a>></span> wrote:<br></div>
<blockquote style="margin-top:0px;margin-right:0px;margin-bottom:0px;margin-left:0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204, 204, 204);padding-left:1ex;" defang_data-gmailquote="yes"><div><br></div>
<div><br></div>
<div>On Fri, Aug 26, 2016, at 03:44 AM,<a href="mailto:Kostiantyn.Volenbovskyi@swisscom.com" defang_rel="noreferrer" defang_data-ss1472225079="1">Kostiantyn.Volenbovskyi@<wbr>swisscom.com</a><br></div>
<div> wrote:<br></div>
<div> <span>> Hi,<br> > option 1 (=that's what patches suggest) sounds totally fine.<br> > Option 3 > Allow block device mappings, when present, to mostly determine<br> > instance  packing<br> > sounds like option 1+additional logic (=keyword 'mostly')<br> > I think I miss to understand the part of 'undermining the purpose of the<br> > flavor'<br> > Why new behavior might require one more parameter to limit number of<br> > instances of host?<br> > Isn't it that those VMs will be under control of other flavor<br> > constraints, such as CPU and RAM anyway and those will be the ones<br> > controlling 'instance packing'?<br> <br> </span>Yes it is possible that CPU and RAM could be controlling instance</div>
<div> packing. But my understanding is that since those are often<br></div>
<div> oversubscribed<br></div>
</blockquote><div><div style="font-family:monospace, monospace;display:inline;">I don't understand why the oversubscription ratio matters here?<br></div>
<div style="font-family:monospace, monospace;display:inline;"><br></div>
</div>
</div>
</div>
</div>
</blockquote><div><br></div>
<div>My experience is with environments where the oversubscription was used to be a little loose with how many vCPUs were allocated or how much RAM was allocated but disk was strictly controlled.</div>
<div><br></div>
<blockquote type="cite"><div dir="ltr"><div><div defang_data-gmailquote="yes"><div><div style="font-family:monospace, monospace;display:inline;">  <br></div>
</div>
<div><div style="font-family:monospace, monospace;display:inline;"><br></div>
<div> <br></div>
</div>
<blockquote style="margin-top:0px;margin-right:0px;margin-bottom:0px;margin-left:0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204, 204, 204);padding-left:1ex;" defang_data-gmailquote="yes"><div>while disk is not that it's actually the disk amounts<br></div>
<div> that control the packing on some environments.<br></div>
</blockquote><div><div style="font-family:monospace, monospace;display:inline;">Maybe an explanation of what you mean by "packing" here.  Customers that I've worked with over the years have used CPU and Mem as their levers and the main thing that they care about in terms of how many Instances go on a Node.  I'd like to learn more about why that's wrong and that disk space is the mechanism that deployers use for this.<br></div>
</div>
<div><div style="font-family:monospace, monospace;display:inline;"><br></div>
</div>
</div>
</div>
</div>
</blockquote><div><br></div>
<div>By packing I just mean the various ways that different flavors fit on a host. A host may be designed to hold 1 xlarge, or 2 large, or 4 mediums, or 1 large and 2 mediums, etc... The challenge I see here is that the constraint can be managed by using CPU or RAM or disk or some combination of the three. For deployers just using disk the above patches will change behavior for them.</div>
<div><br></div>
<div>It's not wrong to use CPU/RAM, but it's not what everyone is doing. One purpose of this email was to gauge if it would be acceptable to only use CPU/RAM for packing.<br></div>
<div><br></div>
<div><br></div>
<blockquote type="cite"><div dir="ltr"><div><div defang_data-gmailquote="yes"><div><div style="font-family:monospace, monospace;display:inline;"><br></div>
<div> <br></div>
</div>
<blockquote style="margin-top:0px;margin-right:0px;margin-bottom:0px;margin-left:0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204, 204, 204);padding-left:1ex;" defang_data-gmailquote="yes"><div>But that is a sub option<br></div>
<div> here, just document that disk amounts should not be used to determine<br></div>
<div> flavor packing on hosts and instead CPU and RAM must be used.<br></div>
<div> <span><br> > Does option 3 covers In case someone relied on eg. flavor root disk for<br> > disk volume booted from volume - and now instance packing will change<br> > once patches are implemented?<br> <br> </span>That's the goal. In a simple case of having hosts with 16 CPUs, 128GB of</div>
<div> RAM and 2TB of disk and a flavor with VCPU=4, RAM=32GB, root_gb=500GB,<br></div>
<div> swap/ephemeral=0 the deployer is stating that they want only 4 instances<br></div>
<div> on that host.<br></div>
</blockquote><div><div style="font-family:monospace, monospace;display:inline;">How do you arrive at that logic?  What if they actually wanted a single VCPU=4,RAM=32GB,root_gb=500 but then they wanted the remaining resources split among Instances that were all 1 VCPU, 1 G ram and a 1 G root disk?  <br></div>
</div>
</div>
</div>
</div>
</blockquote><div><br></div>
<div>My example assumes the one stated flavor. But if they have a smaller flavor then more than 4 instances would fit.</div>
<div><br></div>
<blockquote type="cite"><div dir="ltr"><div><div defang_data-gmailquote="yes"><div><br></div>
<blockquote style="margin-top:0px;margin-right:0px;margin-bottom:0px;margin-left:0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204, 204, 204);padding-left:1ex;" defang_data-gmailquote="yes"><div>If there is CPU and RAM oversubscription enabled then by<br></div>
<div> using volumes a user could end up with more than 4 instances on that<br></div>
<div> host. So a max_instances=4 setting could solve that. However I don't<br></div>
<div> like the idea of adding a new config, and I think it's too simplistic to<br></div>
<div> cover more complex use cases. But it's an option.<br></div>
</blockquote><div><div style="font-family:monospace, monospace;display:inline;"><br></div>
</div>
<div style="font-family:monospace, monospace;">I would venture to guess that most Operators would be sad to read that.  So rather than give them an explicit lever that does exactly what they want clearly and explicitly we should make it as complex as possible and have it be the result of a 4 or 5 variable equation?  Not to mention it's completely dynamic (because it seems like <br></div>
<div style="font-family:monospace, monospace;">lots of clouds have more than one flavor).<br></div>
</div>
</div>
</div>
</blockquote><div><br></div>
<div>Is that lever exactly what they want? That's part of what I'd like to find out here. But currently it's possible to setup a situation where 1 large flavor or 4 small flavors fit on a host. So would the max_instances=4 setting be desired? Keeping in mind that if the above patches merged 4 large flavors could be put on that host if they only use remote volumes and aren't using proper CPU/RAM limits.<br></div>
<div><br></div>
<div>I probably was not clear enough in my original description or made some bad assumptions. The concern I have is that if someone is currently relying on disk sizes for their instance limits then the above patches change behavior for them and affect capacity limits and planning. Is this okay and if not what do we do?</div>
<div><br></div>
<div><br></div>
<blockquote type="cite"><div dir="ltr"><div><div defang_data-gmailquote="yes"><div style="font-family:monospace, monospace;"><br></div>
<div style="font-family:monospace, monospace;">All I know is that the current state is broken.  It's not just the scheduling problem, I could live with that probably since it's too hard to fix... but keep in mind that you're reporting the complete wrong information for the Instance in these cases.  My flavor says it's 5G, but in reality it's 200 or whatever.  Rather than make it perfect we should just fix it.  Personally I thought the proposals for a scheduler check and the addition of the Instances/Node option was a win win for everyone.  What am I <br></div>
<div style="font-family:monospace, monospace;">missing?  Would you rather a custom filter scheduler so it wasn't a config option? <br></div>
</div>
</div>
</div>
</blockquote><div><br></div>
<div>There is another effort in progress to address the reporting issue. If you poke around Nova specs or conversations you'll hear it referred to as Resource Providers, though it's actually a series of specs with various names. There's certainly a conversation that can be had about waiting for that effort vs trying to address resource tracking in a backportable manner, but that's not what I wanted to get into here.</div>
<div><br></div>
<blockquote type="cite"><div dir="ltr"><div><div defang_data-gmailquote="yes"><div style="font-family:monospace, monospace;"><br></div>
<blockquote style="margin-top:0px;margin-right:0px;margin-bottom:0px;margin-left:0.8ex;border-left-width:1px;border-left-style:solid;border-left-color:rgb(204, 204, 204);padding-left:1ex;" defang_data-gmailquote="yes"><div><div><div><br></div>
<div>><br></div>
<div> > BR,<br></div>
<div> > Konstantin<br></div>
<div> ><br></div>
<div> > > -----Original Message-----<br></div>
<div> > > From: Andrew Laski [mailto:<a href="mailto:andrew@lascii.com" defang_rel="noreferrer" defang_data-ss1472225079="1">andrew@lascii.com</a>]<br></div>
<div> > > Sent: Thursday, August 25, 2016 10:20 PM<br></div>
<div> > > To: <a href="mailto:openstack-dev@lists.openstack.org" defang_rel="noreferrer" defang_data-ss1472225079="1">openstack-dev@lists.openstack.<wbr>org</a><br></div>
<div> > > Cc: <a href="mailto:openstack-operators@lists.openstack.org" defang_rel="noreferrer" defang_data-ss1472225079="1">openstack-operators@lists.<wbr>openstack.org</a><br></div>
<div> > > Subject: [Openstack-operators] [Nova] Reconciling flavors and block device<br></div>
<div> > > mappings<br></div>
<div> > ><br></div>
<div> > > Cross posting to gather some operator feedback.<br></div>
<div> > ><br></div>
<div> > > There have been a couple of contentious patches gathering attention recently<br></div>
<div> > > about how to handle the case where a block device mapping supersedes flavor<br></div>
<div> > > information. Before moving forward on either of those I think we should have a<br></div>
<div> > > discussion about how best to handle the general case, and how to handle any<br></div>
<div> > > changes in behavior that results from that.<br></div>
<div> > ><br></div>
<div> > > There are two cases presented:<br></div>
<div> > ><br></div>
<div> > > 1. A user boots an instance using a Cinder volume as a root disk, however the<br></div>
<div> > > flavor specifies root_gb = x where x > 0. The current behavior in Nova is that the<br></div>
<div> > > scheduler is given the flavor root_gb info to take into account during scheduling.<br></div>
<div> > > This may disqualify some hosts from receiving the instance even though that disk<br></div>
<div> > > space  is not necessary because the root disk is a remote volume.<br></div>
<div> > > <a href="https://review.openstack.org/#/c/200870/" defang_rel="noreferrer" defang_data-ss1472225079="1">https://review.openstack.org/#<wbr>/c/200870/</a><br></div>
<div> > ><br></div>
<div> > > 2. A user boots an instance and uses the block device mapping parameters to<br></div>
<div> > > specify a swap or ephemeral disk size that is less than specified on the flavor.<br></div>
<div> > > This leads to the same problem as above, the scheduler is provided information<br></div>
<div> > > that doesn't match the actual disk space to be consumed.<br></div>
<div> > > <a href="https://review.openstack.org/#/c/352522/" defang_rel="noreferrer" defang_data-ss1472225079="1">https://review.openstack.org/#<wbr>/c/352522/</a><br></div>
<div> > ><br></div>
<div> > > Now the issue: while it's easy enough to provide proper information to the<br></div>
<div> > > scheduler on what the actual disk consumption will be when using block device<br></div>
<div> > > mappings that undermines one of the purposes of flavors which is to control<br></div>
<div> > > instance packing on hosts. So the outstanding question is to what extent should<br></div>
<div> > > users have the ability to use block device mappings to bypass flavor constraints?<br></div>
<div> > ><br></div>
<div> > > One other thing to note is that while a flavor constrains how much local disk is<br></div>
<div> > > used it does not constrain volume size at all. So a user can specify an<br></div>
<div> > > ephemeral/swap disk <= to what the flavor provides but can have an arbitrary<br></div>
<div> > > sized root disk if it's a remote volume.<br></div>
<div> > ><br></div>
<div> > > Some possibilities:<br></div>
<div> > ><br></div>
<div> > > Completely allow block device mappings, when present, to determine instance<br></div>
<div> > > packing. This is what the patches above propose and there's a strong desire for<br></div>
<div> > > this behavior from some folks. But changes how many instances may fit on a<br></div>
<div> > > host which could be undesirable to some.<br></div>
<div> > ><br></div>
<div> > > Keep the status quo. It's clear that is undesirable based on the bug reports and<br></div>
<div> > > proposed patches above.<br></div>
<div> > ><br></div>
<div> > > Allow block device mappings, when present, to mostly determine instance<br></div>
<div> > > packing. By that I mean that the scheduler only takes into account local disk that<br></div>
<div> > > would be consumed, but we add additional configuration to Nova which limits<br></div>
<div> > > the number of instance that can be placed on a host. This is a compromise<br></div>
<div> > > solution but I fear that a single int value does not meet the needs of deployers<br></div>
<div> > > wishing to limit instances on a host. They want it to take into account cpu<br></div>
<div> > > allocations and ram and disk, in short a flavor :)<br></div>
<div> > ><br></div>
<div> > > And of course there may be some other unconsidered solution. That's where<br></div>
<div> > > you, dear reader, come in.<br></div>
<div> > ><br></div>
<div> > > Thoughts?<br></div>
<div> > ><br></div>
<div> > > -Andrew<br></div>
<div> > ><br></div>
<div> > ><br></div>
<div> > > ______________________________<wbr>_________________<br></div>
<div> > > OpenStack-operators mailing list<br></div>
<div> > > <a href="mailto:OpenStack-operators@lists.openstack.org" defang_rel="noreferrer" defang_data-ss1472225079="1">OpenStack-operators@lists.<wbr>openstack.org</a><br></div>
<div> > > <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" defang_rel="noreferrer" defang_data-ss1472225079="1">http://lists.openstack.org/<wbr>cgi-bin/mailman/listinfo/<wbr>openstack-operators</a><br></div>
<div> <br></div>
<div> ______________________________<wbr>______________________________<wbr>______________<br></div>
<div> OpenStack Development Mailing List (not for usage questions)<br></div>
<div> Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" defang_rel="noreferrer" defang_data-ss1472225079="1">OpenStack-dev-request@lists.<wbr>openstack.org?subject:<wbr>unsubscribe</a><br></div>
<div> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" defang_rel="noreferrer" defang_data-ss1472225079="1">http://lists.openstack.org/<wbr>cgi-bin/mailman/listinfo/<wbr>openstack-dev</a><br></div>
</div>
</div>
</blockquote></div>
</div>
</div>
<div><u>__________________________________________________________________________</u><br></div>
<div>OpenStack Development Mailing List (not for usage questions)<br></div>
<div>Unsubscribe: OpenStack-dev-request@lists.openstack.org?subject:unsubscribe<br></div>
<div><a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" defang_rel="noreferrer" defang_data-ss1472225079="1">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br></div>
</blockquote><div><br></div>
</body>
</html>