<p dir="ltr"> I simply call for analysis. Contributing factors could be anything. A lot of people around here think distros are bad. Could be that. Could be something else. Could be verticals, vendors or almost anything.</p>
<p dir="ltr">I haven't the foggiest.</p>
<p dir="ltr">I would counsel against focus on prod<br>
 NPS deltas. Both prod and dev/qa scored badly, and we will want to examine the broad spectrum of results: what worked, what didn't.</p>
<p dir="ltr">Repeatability of the analysis would be useful too, from the perspective of reducing costs over multiple surveys.</p>
<p dir="ltr">Roland</p>
<br><div class="gmail_quote"><div dir="ltr">On Wed, 18 Nov 2015 23:58 Lauren Sell <<a href="mailto:lauren@openstack.org">lauren@openstack.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div style="word-wrap:break-word"><div>I doubt anyone would argue against more data analysis :) </div><div><br></div><div>I’d like to ask the independent analyst (who helped produce the report) to dig into production stage deployments with low NPS scores and see if there are any other correlations.</div><div><br></div><div>Jon and I also threw out a few ideas on the list - release version, cloud size, projects used - are there any other factors you are specifically interested in analyzing?</div><div><br></div><div>Cheers,</div><div>Lauren</div><div><br></div><div><br></div><div><blockquote type="cite"></blockquote></div></div><div style="word-wrap:break-word"><div><blockquote type="cite"><div>On Nov 17, 2015, at 2:50 PM, Roland Chan <<a href="mailto:roland@aptira.com" target="_blank">roland@aptira.com</a>> wrote:</div><br></blockquote></div></div><div style="word-wrap:break-word"><div><blockquote type="cite"><div><p dir="ltr">That's exactly the sort of analysis required.</p><p dir="ltr">Distribution of the data is only needed if the people who currently have access to it are unable to perform the analysis for some reason.</p><p dir="ltr">First though, the committee must resolve that the analysis is needed. Once that is done we can investigate what needs to happen.</p><p dir="ltr">Do we have agreement on whether further analysis is warranted?</p><p dir="ltr">Roland</p>

<br><div class="gmail_quote"><div dir="ltr">On Wed, 18 Nov 2015 02:28 Jonathan Proulx <<a href="mailto:jon@csail.mit.edu" target="_blank">jon@csail.mit.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
Perhaps it would be valuable to take a couple more cuts of the<br>
deployment data (size, release, projects used etc) by promoters and<br>
detractors?<br>
<br>
That might be informative without requiring further distribution of<br>
raw data.  Are there any other specific comparisions people think<br>
might be useful?<br>
<br>
Remembering that this is a vouluntary survey mostly announced through<br>
chennels frequented by people involved in the community to some extent<br>
I'd expect to see a relatively strong positive bias in results, so if<br>
anyone has actionable ideas on how to get deeeper I'm for it, but I'm<br>
also not sure I put too much importance on that metric by itself for<br>
reasons others have mentioned.<br>
<br>
-Jon<br>
<br>
--<br>
</blockquote></div></div></blockquote></div></div><div style="word-wrap:break-word"><div><blockquote type="cite"><div>
_______________________________________________</div></blockquote></div></div><div style="word-wrap:break-word"><div><blockquote type="cite"><div><br>User-committee mailing list<br><a href="mailto:User-committee@lists.openstack.org" target="_blank">User-committee@lists.openstack.org</a><br><a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/user-committee" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/user-committee</a><br></div></blockquote></div></div></blockquote></div>