<html><head><meta http-equiv="content-type" content="text/html; charset=utf-8"></head><body dir="auto">Hi Vega,<div><br></div><div>Please check the document. Some jobs were migrated with incorrect nodesets and have to be switched to multinode in the job definition in openstack-zuul-jobs</div><div><br></div><div>Good luck</div><div>Mohammed</div><div><br><div id="AppleMailSignature">Sent from my iPhone</div><div><br>On Sep 30, 2017, at 7:35 AM, Vega Cai <<a href="mailto:luckyvega.g@gmail.com">luckyvega.g@gmail.com</a>> wrote:<br><br></div><blockquote type="cite"><div><div dir="ltr">Hi,<div><br></div><div><div>In Tricircle we use the "multinode" topology to setup a test environment with three regions, "CentralRegion" and "RegionOne" in one node, and "RegionTwo" in the other node. I notice that the job definition has been migrated to openstack-zuul-jobs/blob/master/playbooks/legacy/tricircle-dsvm-multiregion/run.yaml, but the job fails with the error that "public endpoint for image service in RegionTwo region not found", so I guess the node of "RegionTwo" is not correctly running. Since the original log folder for the second "subnode-2/" is missing in the job report, I also cannot figure out what the wrong is with the second node.</div></div><div><br></div><div>Any hints to debug this problem?</div><div><br></div></div><br><div class="gmail_quote"><div dir="ltr">On Fri, 29 Sep 2017 at 22:59 Monty Taylor <<a href="mailto:mordred@inaugust.com">mordred@inaugust.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hey everybody!<br>
<br>
tl;dr - If you're having issues with your jobs, check the FAQ, this<br>
email and followups on this thread for mentions of them. If it's an<br>
issue with your job and you can spot it (bad config) just submit a patch<br>
with topic 'zuulv3'. If it's bigger/weirder/you don't know - we'd like<br>
to ask that you send a follow up email to this thread so that we can<br>
ensure we've got them all and so that others can see it too.<br>
<br>
** Zuul v3 Migration Status **<br>
<br>
If you haven't noticed the Zuul v3 migration - awesome, that means it's<br>
working perfectly for you.<br>
<br>
If you have - sorry for the disruption. It turns out we have a REALLY<br>
complicated array of job content you've all created. Hopefully the pain<br>
of the moment will be offset by the ability for you to all take direct<br>
ownership of your awesome content... so bear with us, your patience is<br>
appreciated.<br>
<br>
If you find yourself with some extra time on your hands while you wait<br>
on something, you may find it helpful to read:<br>
<br>
   <a href="https://docs.openstack.org/infra/manual/zuulv3.html" rel="noreferrer" target="_blank">https://docs.openstack.org/infra/manual/zuulv3.html</a><br>
<br>
We're adding content to it as issues arise. Unfortunately, one of the<br>
issues is that the infra manual publication job stopped working.<br>
<br>
While the infra manual publication is being fixed, we're collecting FAQ<br>
content for it in an etherpad:<br>
<br>
   <a href="https://etherpad.openstack.org/p/zuulv3-migration-faq" rel="noreferrer" target="_blank">https://etherpad.openstack.org/p/zuulv3-migration-faq</a><br>
<br>
If you have a job issue, check it first to see if we've got an entry for<br>
it. Once manual publication is fixed, we'll update the etherpad to point<br>
to the FAQ section of the manual.<br>
<br>
** Global Issues **<br>
<br>
There are a number of outstanding issues that are being worked. As of<br>
right now, there are a few major/systemic ones that we're looking in to<br>
that are worth noting:<br>
<br>
* Zuul Stalls<br>
<br>
If you say to yourself "zuul doesn't seem to be doing anything, did I do<br>
something wrong?", we're having an issue that jeblair and Shrews are<br>
currently tracking down with intermittent connection issues in the<br>
backend plumbing.<br>
<br>
When it happens it's an across the board issue, so fixing it is our<br>
number one priority.<br>
<br>
* Incorrect node type<br>
<br>
We've got reports of things running on trusty that should be running on<br>
xenial. The job definitions look correct, so this is also under<br>
investigation.<br>
<br>
* Multinode jobs having POST FAILURE<br>
<br>
There is a bug in the log collection trying to collect from all nodes<br>
while the old jobs were designed to only collect from the 'primary'.<br>
Patches are up to fix this and should be fixed soon.<br>
<br>
* Branch Exclusions being ignored<br>
<br>
This has been reported and its cause is currently unknown.<br>
<br>
Thank you all again for your patience! This is a giant rollout with a<br>
bunch of changes in it, so we really do appreciate everyone's<br>
understanding as we work through it all.<br>
<br>
Monty<br>
<br>
__________________________________________________________________________<br>
OpenStack Development Mailing List (not for usage questions)<br>
Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" rel="noreferrer" target="_blank">OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</blockquote></div><div dir="ltr">-- <br></div><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">BR<div>Zhiyuan</div></div></div>
</div></blockquote><blockquote type="cite"><div><span>__________________________________________________________________________</span><br><span>OpenStack Development Mailing List (not for usage questions)</span><br><span>Unsubscribe: <a href="mailto:OpenStack-dev-request@lists.openstack.org">OpenStack-dev-request@lists.openstack.org</a>?subject:unsubscribe</span><br><span><a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a></span><br></div></blockquote></div></body></html>