<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
<style type="text/css" style="display:none;"> P {margin-top:0;margin-bottom:0;} </style>
</head>
<body dir="ltr">
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
aha, your script helped a lot <span id="🙂">🙂</span></div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
<span><br>
</span></div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
<span>I see that the lb management lan needs to be external, and routable from the machines running openstack control nodes.</span></div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
<span><br>
</span></div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
<span>I need my network guys to allocate an extra external network, so I can put that as the lb management network. I'll try tomorrow and let you know if I succeed.</span></div>
<div id="appendonsend"></div>
<hr style="display:inline-block;width:98%" tabindex="-1">
<div id="divRplyFwdMsg" dir="ltr"><font face="Calibri, sans-serif" style="font-size:11pt" color="#000000"><b>From:</b> Oliver Weinmann <oliver.weinmann@me.com><br>
<b>Sent:</b> 22 May 2022 20:01<br>
<b>To:</b> Thomas Goirand <zigo@debian.org><br>
<b>Cc:</b> openstack-discuss@lists.openstack.org <openstack-discuss@lists.openstack.org><br>
<b>Subject:</b> Re: Octavia Amphora staying in PENDING_CREATE forever.</font>
<div> </div>
</div>
<div class="BodyFragment"><font size="2"><span style="font-size:11pt;">
<div class="PlainText">Sorry I meant control nodes. This term is used in kolla-ansible. I never deployed Openstack from scratch. I always used some tool like packstack, tripleo or now kolla-ansible. To me it seems a lot easier as kolla-ansible can do all the
 magic. You simply enable Octavia, set some parameters and you are set.<br>
<br>
Von meinem iPhone gesendet<br>
<br>
> Am 22.05.2022 um 18:47 schrieb Thomas Goirand <zigo@debian.org>:<br>
> <br>
> ï»¿On 5/22/22 16:54, Russell Stather wrote:<br>
>> Hi<br>
>> igadmin@ig-umh-maas:~$ openstack loadbalancer amphora list<br>
>> +--------------------------------------+--------------------------------------+---------+------+-----------------------------------------+-------+<br>
>> | id                                   | loadbalancer_id                       | status  | role | lb_network_ip                           | ha_ip |<br>
>> +--------------------------------------+--------------------------------------+---------+------+-----------------------------------------+-------+<br>
>> | 5364e993-0f3b-477f-ac03-07fb6767480f | 962204f0-516a-4bc5-886e-6ed27f98efad | BOOTING | None | fc00:e3bf:6573:9272:f816:3eff:fe57:6acf | None  |<br>
>> +--------------------------------------+--------------------------------------+---------+------+-----------------------------------------+-------+<br>
>> This gives me an IPv6 address. What do you mean by the controller nodes? The node running octavia itself?<br>
> <br>
> OpenStack has no "controller" but this therm is usually used for the servers running the API and workers.<br>
> <br>
> In this case, you want the nodes running octavia-worker. In the logs of the workers, you should be able to see that it cannot ssh the amphora VMs.<br>
> <br>
> The IPv6 that you saw is the ha_ip, ie the VRRP port. This is *not* the IP of the amphora VMs that are booting. These are supposed to be in "loadbalancer_ip". However, you have nothing in there. So probably you haven't configured Octavia correctly.<br>
> <br>
> Did you create a network especially for octavia, and did you write its ID in /etc/octavia/octavia.conf?<br>
> <br>
> Also, did you:<br>
> - create an ssh key for Octavia?<br>
> - create a PKI for Octavia?<br>
> <br>
> I created this script for the Octavia PKI, that you can simply run on one controller, and then copy the certs in the other nodes running the Octavia services:<br>
> <a href="https://salsa.debian.org/openstack-team/debian/openstack-cluster-installer/-/blob/debian/yoga/utils/usr/bin/oci-octavia-certs">
https://salsa.debian.org/openstack-team/debian/openstack-cluster-installer/-/blob/debian/yoga/utils/usr/bin/oci-octavia-certs</a><br>
> <br>
> This script can be used (though you may want to customize it, especially the IP addresses, vlan, etc.) to create the ssh key, networking, etc.:<br>
> <br>
> <a href="https://salsa.debian.org/openstack-team/debian/openstack-cluster-installer/-/blob/debian/yoga/utils/usr/bin/oci-octavia-amphora-secgroups-sshkey-lbrole-and-network">
https://salsa.debian.org/openstack-team/debian/openstack-cluster-installer/-/blob/debian/yoga/utils/usr/bin/oci-octavia-amphora-secgroups-sshkey-lbrole-and-network</a><br>
> <br>
> I hope this helps,<br>
> Cheers,<br>
> <br>
> Thomas Goirand (zigo)<br>
> <br>
<br>
</div>
</span></font></div>
</body>
</html>