<div dir="ltr"><div>Hi,</div><div><br></div><div>Thanks for the reply.</div><div><br></div><div>Is the analysis of the problem correct?</div><div><br></div><div>We tried this, we created an instance with an interface in the public network, the interface did not get initialized, then we did :</div><div>1 - fix a public IP address on the interface : the instance did not connect to the internet.</div><div>2 - create a vlan interface (vlan 50) with a public ip : the instance did not connect to the internet.</div><div><br></div><div>it seems that the analysis is wrong or we are missing something!!!?<br></div><div><br></div><div>Regards.<br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Le mar. 29 nov. 2022 à 12:02, Eugen Block <<a href="mailto:eblock@nde.ag">eblock@nde.ag</a>> a écrit :<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi,<br>
<br>
this question has been asked multiple times, you should be able to  <br>
find a couple of threads. We use config-drive for provider networks to  <br>
inject the metadata (ip, gateway, etc.) into the instances.<br>
<br>
Regards,<br>
Eugen<br>
<br>
Zitat von wodel youchi <<a href="mailto:wodel.youchi@gmail.com" target="_blank">wodel.youchi@gmail.com</a>>:<br>
<br>
> Hi,<br>
><br>
> We have an HCI deployment with 3 controllers and 9 compute/storage nodes.<br>
> Two of the controllers have the role of neutron server.<br>
> The platform uses two bonded interfaces :<br>
> bond1 : is used for : *neutron_external_interface*<br>
><br>
> bond0 : with many vlans on top of it to segregate the rest of the networks :<br>
>      - bond0 : vlan natif used for nodes deployment (dhcp, tftp, pxeboot)<br>
>      - bond0.10 : vlan 10 ceph public<br>
>      - bond0.20 : vlan 20 ceph cluster<br>
>      - bond0.30 : vlan 30 API<br>
>      - bond0.40 : vlan 40 tunnel<br>
>     * - bond0.50 : vlan 50 Public network, here are the public IPs of the<br>
> 03 controllers, the public horizon VIP interface is created here.*<br>
><br>
> In our configuration we have *"enable_neutron_provider_networks = yes"*,<br>
> which means that an instance can have a public IP directly without using a<br>
> virtual-router + NAT. But it does not work.<br>
><br>
> If we create and instance with a private network, then we attach to it a<br>
> floating IP, the VM is reachable from the Internet, but if we attach the VM<br>
> directly to the public network, it does not get an IP address from the<br>
> public pool, we think it's a dhcp problem but we could not find the source,<br>
> we think it's the *Vlan part.*<br>
><br>
> The controllers are in Vlan 50, if we create a virtual-router it gets its<br>
> public IP without any problem. But if we are not mistaken, if an instance<br>
> is plugged directly into the public network, it uses bond1 to send its dhcp<br>
> requests, but since this interface is not in vlan 50, the requests don't<br>
> get to the controllers, is this right? If yes, is there a solution? can we<br>
> use bond1.50 as an interface for kolla's *neutron_external_interface *<br>
> instead?<br>
><br>
><br>
><br>
> Regards.<br>
<br>
<br>
<br>
<br>
</blockquote></div>