<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">On Tue, Jul 11, 2017 at 6:51 AM, James Slagle <span dir="ltr"><<a href="mailto:james.slagle@gmail.com" target="_blank">james.slagle@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="m_8816298072965440203gmail-m_5607084550831418636HOEnZb"><div class="m_8816298072965440203gmail-m_5607084550831418636h5">On Mon, Jul 10, 2017 at 11:37 AM, Lars Kellogg-Stedman <<a href="mailto:lars@redhat.com" target="_blank">lars@redhat.com</a>> wrote:<br>
> On Fri, Jul 7, 2017 at 1:50 PM, James Slagle <<a href="mailto:james.slagle@gmail.com" target="_blank">james.slagle@gmail.com</a>> wrote:<br>
>><br>
>> There are also some ideas forming around pulling the Ansible playbooks<br>
>><br>
>> and vars out of Heat so that they can be rerun (or run initially)<br>
>> independently from the Heat SoftwareDeployment delivery mechanism:<br>
><br>
><br>
> I think the closer we can come to "the operator runs ansible-playbook to<br>
> configure the overcloud" the better, but not because I think Ansible is<br>
> inherently a great tool: rather, I think the many layers of indirection in<br>
> our existing model make error reporting and diagnosis much more complicated<br>
> that it needs to be.  Combined with Puppet's "fail as late as possible"<br>
> model, this means that (a) operators waste time waiting for a deployment<br>
> that is ultimately going to fail but hasn't yet, and (b) when it does fail,<br>
> they need relatively intimate knowledge of our deployment tools to backtrack<br>
> through logs and find the root cause of the failure.<br>
><br>
> If we can offer a deployment mode that reduces the number of layers between<br>
> the operator and the actions being performed on the hosts I think we would<br>
> win on both fronts: faster failures and reporting errors as close as<br>
> possible to the actual problem will result in less frustration across the<br>
> board.<br>
><br>
> I do like Steve's suggestion of a split model where Heat is responsible for<br>
> instantiating OpenStack resources while Ansible is used to perform host<br>
> configuration tasks.  Despite all the work done on Ansible's OpenStack<br>
> modules, they feel inflexible and frustrating to work with when compared to<br>
> Heat's state-aware, dependency ordered deployments.  A solution that allows<br>
> Heat to output configuration that can subsequently be consumed by Ansible --<br>
> either running manually or perhaps via Mistral for API-driven-deployments --<br>
> seems like an excellent goal.  Using Heat as a "front-end" to the process<br>
> means that we get to keep the parameter validation and documentation that is<br>
> missing in Ansible, while still following the Unix philosophy of giving you<br>
> enough rope to hang yourself if you really want it.<br>
<br>
</div></div>This is excellent input, thanks for providing it.<br>
<br>
I think it lends itself towards suggesting that we may like to persue<br>
(again) adding native Ironic resources to Heat. If those were written<br>
in a way that also addressed some of the feedback about TripleO and<br>
the baremetal deployment side, then we could continue to get the<br>
advantages from Heat that you mention.<br>
<br>
My personal opinion to date is that Ansible's os_ironic* modules are<br>
superior in some ways to the Heat->Nova->Ironic model. However, just a<br>
Heat->Ironic model may work in a way that has the advantages of both.<br>
<div class="m_8816298072965440203gmail-m_5607084550831418636HOEnZb"><div class="m_8816298072965440203gmail-m_5607084550831418636h5"></div></div></blockquote></div><br></div><div class="gmail_extra">I too would dearly like to get nova out of the picture. Our placement needs mean the scheduler is something we need to work around, and it discards basically all context for the operator when ironic can't deploy for some reason.</div><div class="gmail_extra"><br></div><div class="gmail_extra">Whether we use a mistral workflow[1], a heat resource, or ansible os_ironic, there will still need to be some python logic to build the config drive ISO that injects the ssh keys and os-collect-config bootstrap.</div><div class="gmail_extra"><br></div><div class="gmail_extra">Unfortunately ironic iPXE boot from iSCSI[2] doesn't support config-drive (still?) so the only option to inject ssh keys is the nova ec2-metadata service (or equivalent). I suspect if we can't make every ironic deployment method support config-drive then we're stuck with nova.</div><div class="gmail_extra"><br></div><div class="gmail_extra">I don't have a strong preference for a heat resource vs mistral vs ansible os_ironic, but given there is some python logic required anyway, I would lean towards a heat resource. If the resource is general enough we could propose it to heat upstream, otherwise we could carry it in tripleo-common.</div><div class="gmail_extra"><br></div><div class="gmail_extra">Alternatively, we can implement a config-drive builder in tripleo-common and invoke that from mistral or ansible.</div><div class="gmail_extra"><br></div><div class="gmail_extra">[1] <a href="https://review.openstack.org/#/c/313048/1" target="_blank">https://review.openstack.<wbr>org/#/c/313048/1</a></div><div class="gmail_extra">[2] <a href="http://specs.openstack.org/openstack/ironic-specs/specs/approved/boot-from-volume-reference-drivers.html#scenario-1-ipxe-boot-from-iscsi-volume" target="_blank">http://specs.openstack.<wbr>org/openstack/ironic-specs/<wbr>specs/approved/boot-from-<wbr>volume-reference-drivers.html#<wbr>scenario-1-ipxe-boot-from-<wbr>iscsi-volume</a></div></div>