<div dir="ltr"><div><div><div>Thanks Solly and Alessandro!<br><br>@Solly,<br><br></div>Yes, I also want to make the code change not VMWare-specific, but perhaps we can consider of what @Alessandro said, we are going to have hyper-V cluster support in next cycle, and maybe Power HMC in the future. All of them can be managed in cluster level and one cluster can have multiple hypervisors.<br>
<br></div>So I think that it might be a time to enhance live migration to handle not only the case of single hypervisor but also multiple hypervisors managed by one cluster.<br><br></div><div>Hope we can also get some comments from VMWare guys.<br>
</div><div><br></div>Thanks.<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">2014-04-01 6:57 GMT+08:00 Alessandro Pilotti <span dir="ltr"><<a href="mailto:apilotti@cloudbasesolutions.com" target="_blank">apilotti@cloudbasesolutions.com</a>></span>:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class=""><br>
On 31 Mar 2014, at 18:13, Solly Ross <<a href="mailto:sross@redhat.com">sross@redhat.com</a>> wrote:<br>
<br>
> Building on what John said, I'm a bit wary of introducing semantics into the Conductor's live migration code<br>
> that are VMWare-specific.  The conductor's live-migration code is supposed to be driver-agnostic.  IMHO, it<br>
> would be much better if we could handle this at a level where the code was already VMWare-specific.<br>
><br>
<br>
</div>In terms of driver specific features, we’re evaluating cluster support for Hyper-V in the next cycle which would encounter the same issue for live migration.<br>
Hyper-V does not require clustering for supporting live migration (it’s already available since Grizzly), but various users are requesting Windows clustering support<br>
for supporting specific scenarios, which requires a separate Nova Hyper-V failover clustering driver with resemblances to the VCenter driver in terms of<br>
cells / hosts management. Note: this is not related to Microsoft System Center.<br>
<br>
Evaluating such a feature solely in base of blueprints barely under drafting for other drivers and never discussed for approval isn’t obviously requested, but it might be<br>
useful to consider the possibility that VMWare’s might not be the only Nova driver with this requirement in the relatively short term future.<br>
<br>
Thanks,<br>
<br>
Alessandro<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
> Best Regards,<br>
> Solly Ross<br>
><br>
> ----- Original Message -----<br>
> From: "Jay Lau" <<a href="mailto:jay.lau.513@gmail.com">jay.lau.513@gmail.com</a>><br>
> To: "OpenStack Development Mailing List (not for usage questions)" <<a href="mailto:openstack-dev@lists.openstack.org">openstack-dev@lists.openstack.org</a>><br>
> Sent: Monday, March 31, 2014 10:36:17 AM<br>
> Subject: Re: [openstack-dev] [OpenStack-Dev][Nova][VMWare] Enable live migration with one nova compute<br>
><br>
> Thanks John. Yes, I also think that this should be a bp as it is going to make some changes to enable live migration with only one nova compute, will file a blueprint later.<br>
><br>
> For your proposal "specify the same host as the instance", this can resolve the issue of live migration with target host, but what about the case of live migration without target host? If we still allow "specify the same host as the instance", the the live migration will goes to dead loop.<br>

><br>
> So it seems we definitely need to find a way to specify the node for live migration, hope someone else can show some light here.<br>
><br>
> Of course, I will file bp and go through the new bp review process for this feature.<br>
><br>
> Thanks!<br>
><br>
><br>
> 2014-03-31 21:02 GMT+08:00 John Garbutt < <a href="mailto:john@johngarbutt.com">john@johngarbutt.com</a> > :<br>
><br>
><br>
><br>
> On 31 March 2014 10:11, Jay Lau < <a href="mailto:jay.lau.513@gmail.com">jay.lau.513@gmail.com</a> > wrote:<br>
>> Hi,<br>
>><br>
>> Currently with VMWare VCDriver, one nova compute can manage multiple<br>
>> clusters/RPs, this caused cluster admin cannot do live migration between<br>
>> clusters/PRs if those clusters/PRs managed by one nova compute as the<br>
>> current live migration logic request at least two nova computes.<br>
>><br>
>> A bug [1] was also filed to trace VMWare live migration issue.<br>
>><br>
>> I'm now trying the following solution to see if it is acceptable for a fix,<br>
>> the fix wants enable live migration with one nova compute:<br>
>> 1) When live migration check if host are same, check both host and node for<br>
>> the VM instance.<br>
>> 2) When nova scheduler select destination for live migration, the live<br>
>> migration task should put (host, node) to attempted hosts.<br>
>> 3) Nova scheduler needs to be enhanced to support ignored_nodes.<br>
>> 4) nova compute need to be enhanced to check host and node when doing live<br>
>> migration.<br>
>><br>
>> I also uploaded a WIP patch [2] for you to review the idea of the fix and<br>
>> hope can get some comments from you.<br>
>><br>
>> [1] <a href="https://bugs.launchpad.net/nova/+bug/1192192" target="_blank">https://bugs.launchpad.net/nova/+bug/1192192</a><br>
>> [2] <a href="https://review.openstack.org/#/c/84085" target="_blank">https://review.openstack.org/#/c/84085</a><br>
><br>
> Long term, finding a way to unify how cells and the VMware driver<br>
> manages multiple hosts, seems like the best way forward. It would be a<br>
> shame for this API to be different between cells and VMware, although<br>
> right now, that might not work too well :(<br>
><br>
> A better short term fix, might be to allow you to specify the same<br>
> host as the instance, and the scheduling of the node could be<br>
> delegated to the VMware driver, which might just delegate that to<br>
> vCenter. I assume we still need some way to specify the node, and I<br>
> can't immediately think of a good way forward.<br>
><br>
> I feel this should really be treated as a blueprint, and go through<br>
> the new blueprint review process. That should help decide the right<br>
> approach to take.<br>
><br>
> John<br>
><br>
> _______________________________________________<br>
> OpenStack-dev mailing list<br>
> <a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
><br>
><br>
><br>
> --<br>
> Thanks,<br>
><br>
> Jay<br>
><br>
> _______________________________________________<br>
> OpenStack-dev mailing list<br>
> <a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
><br>
> _______________________________________________<br>
> OpenStack-dev mailing list<br>
> <a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
<br>
<br>
_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br><div dir="ltr"><div>Thanks,<br><br></div>Jay<br></div>
</div>