<div dir="ltr"><br><br><div class="gmail_quote"><div dir="ltr">On Fri, Jul 20, 2018 at 4:20 AM Giulio Fidente <<a href="mailto:gfidente@redhat.com">gfidente@redhat.com</a>> wrote:</div><div dir="ltr">[...]</div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
I have started experimenting with edge deployments to help out on the<br>
split-controplane spec [1], which Steven started addressing<br>
<br>
I was able to deploy multiple stacks and isolated Ceph clusters, there<br>
are some bits missing to provision a working configuration for<br>
nova-compute to the edge services, but we could probably collect/export<br>
the necessary outputs from the parent stack (eg. rabbit connection<br>
infos) and feed the edge stacks with those.<br></blockquote><div><br></div><div>Indeed, I faced the exact same problems. I could hardcode the rabbit password and memcache IP via hieradata extraconfig, James showed me AllNodesExtraMapData done via <a href="https://review.openstack.org/#/c/581080/">https://review.openstack.org/#/c/581080/</a> which I'll probably give a try.</div><div>However I couldn't set keystone url for nova / neutron (they are taken from ServiceNetMap).</div><div>James pointed out to me this patch: <a href="https://review.openstack.org/#/c/521929/">https://review.openstack.org/#/c/521929/</a> - Do you think we should re-use the service net map from the central node, on the edge compute node?</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
A much bigger challenge seems to me that for some services (eg. glance<br>
or cinder) we need to "refresh" the configuration of the controlplane<br>
nodes to push the details of the newly deployed ceph clusters (backends)<br>
of the edge nodes as backends for the controlplane services.<br></blockquote><div><br></div><div>Yeah I thought about this one too but I didn't have this challenge since I just wanted nova-compute & neutron-ovs-agent running on the edge.</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
Alternatively, we could opt for the deployment of cinder-volume<br>
instances on the edge nodes, but we would still have the same problem<br>
for glance and possibly other services.<br></blockquote><div><br></div><div>For now the only thing I see is to manually update the config on the central node and run the deployment again, which should reconfigure the containers.</div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
I'd like to discuss further this topic at the PTG to gether more<br>
feedback so I added a bullet to the pad with the Stein PTG topics [2].</blockquote><div><br></div><div>It would be awesome to spend time on this topic! Thanks for bringing this blueprint up! Indeed I hope we'll make progress on this one at the PTG, which is why I sent this email really early to groom some ideas.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
1. <a href="https://blueprints.launchpad.net/tripleo/+spec/split-controlplane" rel="noreferrer" target="_blank">https://blueprints.launchpad.net/tripleo/+spec/split-controlplane</a><br>
2. <a href="https://etherpad.openstack.org/p/tripleo-ptg-stein" rel="noreferrer" target="_blank">https://etherpad.openstack.org/p/tripleo-ptg-stein</a></blockquote><div><br></div><div>Thanks, </div></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr">Emilien Macchi<br></div></div></div>