<div dir="ltr">Hi Asma,<div>The enable_plugin is for devstack based deployments, I suppose.</div><div>To tell the truth I am not familiar with kolla, but I found this page which speaks about enabling neutron extensions like sfc or vpnaas:</div><div><a href="https://docs.openstack.org/kolla-ansible/4.0.2/networking-guide.html">https://docs.openstack.org/kolla-ansible/4.0.2/networking-guide.html</a><br></div><div><br></div><div>and these in the group_vars/all.yml:</div><div><a href="https://opendev.org/openstack/kolla-ansible/src/branch/master/ansible/group_vars/all.yml#L819">https://opendev.org/openstack/kolla-ansible/src/branch/master/ansible/group_vars/all.yml#L819</a><br></div><div>So to enable vpnaas: enable_neutron_vpnaas: "yes" I suppose to do all the magic to install and set neutron-vpnaas.</div><div><br></div><div>I can't find neutron-fwaas , but perhaps this is just my lack of experience with kolla.</div><div><br></div><div>To see what is necessary to configure fwaas, I would check the devstack plugin:</div><div><a href="https://opendev.org/openstack/neutron-fwaas/src/branch/master/devstack">https://opendev.org/openstack/neutron-fwaas/src/branch/master/devstack</a><br></div><div><br></div><div>Best wishes.</div><div>Lajos (lajoskatona)</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">Asma Naz Shariq <<a href="mailto:asma.naz@techavenue.biz">asma.naz@techavenue.biz</a>> ezt írta (időpont: 2023. okt. 6., P, 14:37):<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi Openstack Community!<br>
<br>
I have set up OpenStack release 2023.1 antelope with Kolla-Ansible .<br>
However, I noticed that there is no enable_plugin option in the<br>
/etc/kolla/global.yml file. Now, I am trying to install FWaaS<br>
(Firewall-as-a-Service) following the instructions provided in this<br>
OpenStack's Firewall-as-a-Service (FWaaS) v2 scenario documentation.<br>
<br>
The documentation states, On Ubuntu and CentOS, modify the [fwaas] section<br>
in the /etc/neutron/fwaas_driver.ini file instead of<br>
/etc/neutron/neutron.conf. Unfortunately, I cannot find the fwaas_driver.ini<br>
file in the neutron-server, neutron-l3-agent, or neutron-openvswitch-agent<br>
containers<br>
<br>
Can someone guide me on how to properly install FWaaS in a Kolla environment<br>
using the information from the provided link?<br>
<br>
Best,<br>
<br>
-----Original Message-----<br>
From: <a href="mailto:openstack-discuss-request@lists.openstack.org" target="_blank">openstack-discuss-request@lists.openstack.org</a><br>
<<a href="mailto:openstack-discuss-request@lists.openstack.org" target="_blank">openstack-discuss-request@lists.openstack.org</a>> <br>
Sent: Friday, October 6, 2023 1:27 PM<br>
To: <a href="mailto:openstack-discuss@lists.openstack.org" target="_blank">openstack-discuss@lists.openstack.org</a><br>
Subject: openstack-discuss Digest, Vol 60, Issue 10<br>
<br>
Send openstack-discuss mailing list submissions to<br>
        <a href="mailto:openstack-discuss@lists.openstack.org" target="_blank">openstack-discuss@lists.openstack.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
<br>
<a href="https://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-discuss" rel="noreferrer" target="_blank">https://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-discuss</a><br>
<br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:openstack-discuss-request@lists.openstack.org" target="_blank">openstack-discuss-request@lists.openstack.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:openstack-discuss-owner@lists.openstack.org" target="_blank">openstack-discuss-owner@lists.openstack.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific than<br>
"Re: Contents of openstack-discuss digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. Re: [ops] [nova] "invalid argument: shares xxx must be in<br>
      range [1, 10000]" after 1:25.2.0 to 1.25.2.1. update<br>
      (Massimo Sgaravatto)<br>
   2. [TC][Monasca] Proposal to mark Monasca as an inactive project<br>
      (S?awek Kap?o?ski)<br>
   3. [neutron] Neutron drivers meeting cancelled<br>
      (Rodolfo Alonso Hernandez)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Fri, 6 Oct 2023 09:10:47 +0200<br>
From: Massimo Sgaravatto <<a href="mailto:massimo.sgaravatto@gmail.com" target="_blank">massimo.sgaravatto@gmail.com</a>><br>
To: Franciszek Przewo?ny <<a href="mailto:fprzewozny@opera.com" target="_blank">fprzewozny@opera.com</a>><br>
Cc: OpenStack Discuss <<a href="mailto:openstack-discuss@lists.openstack.org" target="_blank">openstack-discuss@lists.openstack.org</a>>,<br>
        <a href="mailto:smooney@redhat.com" target="_blank">smooney@redhat.com</a><br>
Subject: Re: [ops] [nova] "invalid argument: shares xxx must be in<br>
        range [1, 10000]" after 1:25.2.0 to 1.25.2.1. update<br>
Message-ID:<br>
        <<a href="mailto:CALaZjRGh6xnzX12cMgDTYx2yJYddUD9X3oh60JWnrB33ZdEf_Q@mail.gmail.com" target="_blank">CALaZjRGh6xnzX12cMgDTYx2yJYddUD9X3oh60JWnrB33ZdEf_Q@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Thanks a lot  Franciszek !<br>
I was indeed seeing the problem with a VM big 56 vcpus while I didn't see<br>
the issue with a tiny instance<br>
<br>
Thanks again !<br>
<br>
Cheers, Massimo<br>
<br>
On Fri, Oct 6, 2023 at 8:58?AM Franciszek Przewo?ny <<a href="mailto:fprzewozny@opera.com" target="_blank">fprzewozny@opera.com</a>><br>
wrote:<br>
<br>
> Hi Massimo,<br>
><br>
> We are using Ubuntu for our environments and we experienced the same <br>
> issue during upgrade from Yoga/Focal to Yoga/Jammy. On Yoga/Focal <br>
> cgroups_v1 were used, and cpu_shares parameter value was cpu count * <br>
> 1024. From Jammy<br>
> cgroups_v2 have been implemented, and cpu_shares value has been set by <br>
> default to 100. It has hard limit of 10000, so flavors with more than <br>
> 9vCPUs won't fit. If you need to fix this issue without stopping VMs, <br>
> you can set cpu_shares with libvirt command: virsh schedinfo $domain <br>
> --live<br>
> cpu_shares=100<br>
> for more details about virsh schedinfo visit:<br>
> <a href="https://libvirt.org/manpages/virsh.html#schedinfo" rel="noreferrer" target="_blank">https://libvirt.org/manpages/virsh.html#schedinfo</a><br>
><br>
> BR,<br>
> Franciszek<br>
><br>
> On 5 Oct 2023, at 21:17, <a href="mailto:smooney@redhat.com" target="_blank">smooney@redhat.com</a> wrote:<br>
><br>
> On Thu, 2023-10-05 at 16:53 +0200, Massimo Sgaravatto wrote:<br>
><br>
> Dear all<br>
><br>
> We have recently updated openstack nova on some AlmaLinux9 compute <br>
> nodes running Yoga from 1:25.2.0 to 1.25.2.1. After this operation <br>
> some VMs don't start anymore. In the log it is reported:<br>
><br>
> libvirt.libvirtError: invalid argument: shares \'57344\' must be in <br>
> range [1, 10000]\n'}<br>
><br>
> libvirt version is 9.0.0-10.3<br>
><br>
><br>
> A quick google search suggests that it is something related to cgroups <br>
> and it is fixed in libvirt >= 9.1 (which is not yet in the almalinux9<br>
repos).<br>
> Did I get it right ?<br>
><br>
> not quite<br>
><br>
> it is reated to cgroups but the cause is that in cgroups_v1 the <br>
> maxvlaue of shares i.e. cpu_shares changed form make int to 10000 in <br>
> cgroups_v2 so the issue is teh vm requested a cpu share value of 57344 <br>
> which is not vlaid on an OS that is useing cgroups_v2 libvirt will not <br>
> clamp the value nor will nova.<br>
> you have to change the volue in your flavor and resize the vm.<br>
><br>
><br>
><br>
><br>
> Thanks, Massimo<br>
><br>
><br>
><br>
><br>
><br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL:<br>
<<a href="https://lists.openstack.org/pipermail/openstack-discuss/attachments/20231006/62a848f5/attachment-0001.htm" rel="noreferrer" target="_blank">https://lists.openstack.org/pipermail/openstack-discuss/attachments/2023100<br>
6/62a848f5/attachment-0001.htm</a>><br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Fri, 06 Oct 2023 09:49:45 +0200<br>
From: S?awek Kap?o?ski <<a href="mailto:skaplons@redhat.com" target="_blank">skaplons@redhat.com</a>><br>
To: "<a href="mailto:openstack-discuss@lists.openstack.org" target="_blank">openstack-discuss@lists.openstack.org</a>"<br>
        <<a href="mailto:openstack-discuss@lists.openstack.org" target="_blank">openstack-discuss@lists.openstack.org</a>><br>
Subject: [TC][Monasca] Proposal to mark Monasca as an inactive project<br>
Message-ID: <8709827.GXAFRqVoOG@p1gen4><br>
Content-Type: text/plain; charset="us-ascii"<br>
<br>
Hi,<br>
<br>
I just proposed patch [1] to mark Monasca as inactive project. It was<br>
discussed during last TC meeting on 03.10.2023. Reasons for that are<br>
described in the commit message of the [1] but I will also put all of it<br>
here:<br>
<br>
previous cycle there wasn't almost any contributions to that project and<br>
most active contributors in last 180 days were Elod Illes and Dr. Jens<br>
Harbott who were fixing some Zuul configuration issues only.<br>
Here are detailed statistics about Monasca projects:<br>
<br>
Validating Gerrit...<br>
 * There are 7 ready for review patches generated within 180 days<br>
 * There are 2 not reviewed patches generated within 180 days<br>
 * There are 5 merged patches generated within 180 days<br>
 * Unreviewed patch rate for patches generated within 180 days is 28.0 %<br>
 * Merged patch rate for patches generated within 180 days is 71.0 %<br>
 *  Here's top 10 owner for patches generated within 180 days<br>
(Name/Account_ID: Percentage):<br>
    -  Dr. Jens Harbott :  42.86%<br>
    -  Joel Capitao :  28.57%<br>
    -  Elod Illes :  28.57%<br>
 Validate Zuul...<br>
 Set buildsets fetch size to 500<br>
 * Repo: openstack/monasca-log-api gate job builds success rate: 82%<br>
 * Repo: openstack/monasca-statsd gate job builds success rate: 95%<br>
 * Repo: openstack/monasca-tempest-plugin gate job builds success rate: 81%<br>
 * Repo: openstack/monasca-common gate job builds success rate: 84%<br>
 * Repo: openstack/monasca-kibana-plugin gate job builds success rate: 83%<br>
 * Repo: openstack/monasca-ceilometer gate job builds success rate: 100%<br>
 * Repo: openstack/monasca-events-api gate job builds success rate: 83%<br>
 * Repo: openstack/monasca-ui gate job builds success rate: 88%<br>
 * Repo: openstack/monasca-specs gate job builds success rate: 100%<br>
 * Repo: openstack/monasca-grafana-datasource gate job builds success rate:<br>
100%<br>
 * Repo: openstack/monasca-persister gate job builds success rate: 98%<br>
 * Repo: openstack/monasca-notification gate job builds success rate: 93%<br>
 * Repo: openstack/monasca-thresh gate job builds success rate: 100%<br>
 * Repo: openstack/monasca-api gate job builds success rate: 76%<br>
 * Repo: openstack/monasca-agent gate job builds success rate: 98%<br>
 * Repo: openstack/python-monascaclient gate job builds success rate: 100%<br>
 * Repo: openstack/monasca-transform gate job builds success rate: 100%<br>
<br>
What's next?<br>
According to the "Emerging and inactive projects" document [2] if there will<br>
be no volunteers who will step up and want to maintain this project before<br>
Milestone-2 of the 2024.1 cycle (week of Jan 08 2024) there will be no new<br>
release of Monasca in the 2024.1 cycle and TC will discuss if project should<br>
be retired.<br>
<br>
So if You are interested in keeping Monasca alive and active, please reach<br>
out to the TC to discuss that ASAP. Thx in advance.<br>
<br>
[1] <a href="https://review.opendev.org/c/openstack/governance/+/897520" rel="noreferrer" target="_blank">https://review.opendev.org/c/openstack/governance/+/897520</a><br>
[2]<br>
<a href="https://governance.openstack.org/tc/reference/emerging-technology-and-inactive-projects.html" rel="noreferrer" target="_blank">https://governance.openstack.org/tc/reference/emerging-technology-and-inacti<br>
ve-projects.html</a><br>
<br>
--<br>
Slawek Kaplonski<br>
Principal Software Engineer<br>
Red Hat<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL:<br>
<<a href="https://lists.openstack.org/pipermail/openstack-discuss/attachments/20231006/138c13c0/attachment-0001.htm" rel="noreferrer" target="_blank">https://lists.openstack.org/pipermail/openstack-discuss/attachments/2023100<br>
6/138c13c0/attachment-0001.htm</a>><br>
-------------- next part --------------<br>
A non-text attachment was scrubbed...<br>
Name: signature.asc<br>
Type: application/pgp-signature<br>
Size: 488 bytes<br>
Desc: This is a digitally signed message part.<br>
URL:<br>
<<a href="https://lists.openstack.org/pipermail/openstack-discuss/attachments/20231006/138c13c0/attachment-0001.sig" rel="noreferrer" target="_blank">https://lists.openstack.org/pipermail/openstack-discuss/attachments/2023100<br>
6/138c13c0/attachment-0001.sig</a>><br>
<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Fri, 6 Oct 2023 10:26:49 +0200<br>
From: Rodolfo Alonso Hernandez <<a href="mailto:ralonsoh@redhat.com" target="_blank">ralonsoh@redhat.com</a>><br>
To: openstack-discuss <<a href="mailto:openstack-discuss@lists.openstack.org" target="_blank">openstack-discuss@lists.openstack.org</a>><br>
Subject: [neutron] Neutron drivers meeting cancelled<br>
Message-ID:<br>
        <<a href="mailto:CAECr9X7LBMRJQyi1sejTCKQopW%2BPkVA0JUfMh4i4QRD0Z7-eRw@mail.gmail.com" target="_blank">CAECr9X7LBMRJQyi1sejTCKQopW+PkVA0JUfMh4i4QRD0Z7-eRw@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Hello Neutrinos:<br>
<br>
Due to the lack of agenda [1], today's meeting is cancelled.<br>
<br>
Have a nice weekend.<br>
<br>
[1]<a href="https://wiki.openstack.org/wiki/Meetings/NeutronDrivers" rel="noreferrer" target="_blank">https://wiki.openstack.org/wiki/Meetings/NeutronDrivers</a><br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL:<br>
<<a href="https://lists.openstack.org/pipermail/openstack-discuss/attachments/20231006/cc1d43b0/attachment.htm" rel="noreferrer" target="_blank">https://lists.openstack.org/pipermail/openstack-discuss/attachments/2023100<br>
6/cc1d43b0/attachment.htm</a>><br>
<br>
------------------------------<br>
<br>
Subject: Digest Footer<br>
<br>
_______________________________________________<br>
openstack-discuss mailing list<br>
<a href="mailto:openstack-discuss@lists.openstack.org" target="_blank">openstack-discuss@lists.openstack.org</a><br>
<br>
<br>
------------------------------<br>
<br>
End of openstack-discuss Digest, Vol 60, Issue 10<br>
*************************************************<br>
<br>
<br>
</blockquote></div>