Hi Michael,<br><br>Oh ok! That config-drive trick was the missing part! Thanks a lot! Is there a release target for the API vs config-drive thing? I’ll have a look at an instance as soon as I’ll be able to log into one of my amphora.<br><br>By the way, three sub-questions remains:<br><br>1°/ - What is the best place to push some documentation improvement ?<br>2°/ - Is the amphora-agent an auto-generated file at image build time or do I need to create one and give it to the diskimage-builder process?<br>3°/ - The amphora agent source-code is available at <a href="https://github.com/openstack/octavia/tree/master/octavia/amphorae/backends/agent">https://github.com/openstack/octavia/tree/master/octavia/amphorae/backends/agent</a> isn’t? <br><br>Sorry for the questions volume, but I prefer to really understand the underlying mechanisms before we goes live with the solution.<br><br>G.<br><br><div class="gmail_quote"><div dir="ltr">Le mer. 1 août 2018 à 02:36, Michael Johnson <<a href="mailto:johnsomor@gmail.com">johnsomor@gmail.com</a>> a écrit :<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Flint,<br>
<br>
Happy to help.<br>
<br>
Right now the list of controller endpoints is pushed at boot time and<br>
loaded into the amphora via config drive/nova.<br>
In the future we plan to be able to update this list via the amphora<br>
API, but it has not been developed yet.<br>
<br>
I am pretty sure centos is getting the config file as our gate job<br>
that runs with centos 7 amphora has been passing. It should be in the<br>
same /etc/octavia/amphora-agent.conf location as the ubuntu based<br>
amphora.<br>
<br>
Michael<br>
<br>
<br>
<br>
On Tue, Jul 31, 2018 at 10:05 AM Flint WALRUS <<a href="mailto:gael.therond@gmail.com" target="_blank">gael.therond@gmail.com</a>> wrote:<br>
><br>
> Hi Michael, thanks a lot for that explanation, it’s actually how I envisioned the flow.<br>
><br>
> I’ll have to produce a diagram for my peers understanding, I maybe can share it with you.<br>
><br>
> There is still one point that seems to be a little bit odd to me.<br>
><br>
> How the amphora agent know where to find out the healthManagers and worker services? Is that because the worker is sending the agent some catalog informations or because we set that at diskimage-create time?<br>
><br>
> If so, I think the Centos based amphora is missing the agent.conf because currently my vms doesn’t have any.<br>
><br>
> Once again thanks for your help!<br>
> Le mar. 31 juil. 2018 à 18:15, Michael Johnson <<a href="mailto:johnsomor@gmail.com" target="_blank">johnsomor@gmail.com</a>> a écrit :<br>
>><br>
>> Hi Flint,<br>
>><br>
>> We don't have a logical network diagram at this time (it's still on<br>
>> the to-do list), but I can talk you through it.<br>
>><br>
>> The Octavia worker, health manager, and housekeeping need to be able<br>
>> to reach the amphora (service VM at this point) over the lb-mgmt-net<br>
>> on TCP 9443. It knows the amphora IP addresses on the lb-mgmt-net via<br>
>> the database and the information we save from the compute driver (I.e.<br>
>> what IP was assigned to the instance).<br>
>><br>
>> The Octavia API process does not need to be connected to the<br>
>> lb-mgmt-net at this time. It only connects the the messaging bus and<br>
>> the Octavia database. Provider drivers may have other connectivity<br>
>> requirements for the Octavia API.<br>
>><br>
>> The amphorae also send UDP packets back to the health manager on port<br>
>> 5555. This is the heartbeat packet from the amphora. It contains the<br>
>> health and statistics from that amphora. It know it's list of health<br>
>> manager endpoints from the configuration file<br>
>> "controller_ip_port_list"<br>
>> (<a href="https://docs.openstack.org/octavia/latest/configuration/configref.html#health_manager.controller_ip_port_list" rel="noreferrer" target="_blank">https://docs.openstack.org/octavia/latest/configuration/configref.html#health_manager.controller_ip_port_list</a>).<br>
>> Each amphora will rotate through that list of endpoints to reduce the<br>
>> chance of a network split impacting the heartbeat messages.<br>
>><br>
>> This is the only traffic that passed over this network. All of it is<br>
>> IP based and can be routed (it does not require L2 connectivity).<br>
>><br>
>> Michael<br>
>><br>
>> On Tue, Jul 31, 2018 at 2:00 AM Flint WALRUS <<a href="mailto:gael.therond@gmail.com" target="_blank">gael.therond@gmail.com</a>> wrote:<br>
>> ><br>
>> > Hi Folks,<br>
>> ><br>
>> > I'm currently deploying the Octavia component into our testing environment which is based on KOLLA.<br>
>> ><br>
>> > So far I'm quite enjoying it as it is pretty much straight forward (Except for some documentation pitfalls), but I'm now facing a weird and hard to debug situation.<br>
>> ><br>
>> > I actually have a hard time to understand how Amphora are communicating back and forth with the Control Plan components.<br>
>> ><br>
>> > From my understanding, as soon as I create a new LB, the Control Plan is spawning an instance using the configured Octavia Flavor and Image type, attach it to the LB-MGMT-NET and to the user provided subnet.<br>
>> ><br>
>> > What I think I'm misunderstanding is the discussion that follows between the amphora and the different components such as the HealthManager/HouseKeeper, the API and the Worker.<br>
>> ><br>
>> > How is the amphora agent able to found my control plan? Is the HealthManager or the Octavia Worker initiating the communication to the Amphora on port 9443 and so give the agent the API/Control plan internalURL?<br>
>> ><br>
>> > If anyone have a diagram of the workflow I would be more than happy ^^<br>
>> ><br>
>> > Thanks a lot in advance to anyone willing to help :D<br>
>> ><br>
>> > _______________________________________________<br>
>> > OpenStack-operators mailing list<br>
>> > <a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br>
>> > <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
</blockquote></div>