<div dir="ltr"><div><div><div><div><div><div>Hi,<br><br>following our docs/workflow plus writing rspec tests for every new option we add/modify in our manifests could help with regressions. For example:<br><ul><li>we add new keystone config option in openstack::keystone class - keystone_config {'cache/backend': value => 'keystone.cache.memcache_pool';}</li><li>we create new test for openstack::keystone class, something like this:</li><ul><li>should contain_keystone_config("cache/backend").with_value('keystone.cache.memcache_pool')</li></ul></ul></div></div>So with such test, if for some reason we lose keystone_config("cache/backend") option, 'rake spec' would alert us about it right away and we'll get "-1" from CI. Of course we should also implement 'rake spec' CI gate for this.<br><br>But from the other hand, if someone changes option in manifests and updates rspec tests accordingly, then such commit will pass 'rake spec' test and we can still lose some specific option.<br><br></div>> We should speed up development of some modular testing framework that 
will check that corresponding change affects only particular pieces.<br><br></div>Such test would not catch this particular regressions with "keystone_config {'cache/backend': value => 'keystone.cache.memcache_pool';}", because even with regression (i.e. dogpile backend) keystone was working OK. It has passed several BVTs and custom system tests, because 'dogpile' cache backend was working just fine while all memcached servers are up and running. So it looks like we need some kind of tests that will ensure that particular config options (or particular puppet resources) have some particular values (like "backend = keystone.cache.memcache_pool" in [cache] block of keystone.conf).<br><br></div><div>So I would go with rspec testing for specific resources but I would write them in 'openstack' module. Those tests should check that needed (nova/cinder/keystone/glance)_config resources have needed values in the puppet catalog. Since we're not going to sync 'openstack' module with the upstream, such tests will remain intact until we change them, and they won't be affected by other modules sync/merge (keystone, cinder, nova, etc).<br></div><div><br>--<br></div>Regards,<br></div>Aleksandr Didenko<br><br></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Nov 19, 2014 at 5:45 PM, Vladimir Kuklin <span dir="ltr"><<a href="mailto:vkuklin@mirantis.com" target="_blank">vkuklin@mirantis.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Fuelers<div><br></div><div>I am writing that we had a really sad incident - we noticed that after we merged upstream keystone module we lost modifications (<a href="https://review.openstack.org/#/q/Idfe4b54caa0d96a93e93bfff12d8b6216f83e2f1,n,z" target="_blank">Change-Id: Idfe4b54caa0d96a93e93bfff12d8b6216f83e2f1</a>) for memcached dogpile driver which are crucial for us. And here I can see 2 problems:</div><div><br></div><div>1) how can we ensure that we did not lose anything else?</div><div>2) how can we ensure that this will never happen again?</div><div><br></div><div>Sadly, it seems that the first question implies that we recheck all the upstream merge/adaptation commits by hand and check that we did not lose anything.</div><div><br></div><div>Regarding question number 2 we do already have established process for upstream code merge: <a href="http://docs.mirantis.com/fuel-dev/develop/module_structure.html#contributing-to-existing-fuel-library-modules" target="_blank">http://docs.mirantis.com/fuel-dev/develop/module_structure.html#contributing-to-existing-fuel-library-modules</a>. It seems that this process had  not been established when keystone code was reviewed. I see two ways here:<a></a></div><div><br></div><div>1) We should enforce code review workflow and specifically say that upstream merges can be accepted only after we have 2 '+2s' from core reviewers after they recheck that corresponding change does not introduce any regressions.</div><div>2) We should speed up development of some modular testing framework that will check that corresponding change affects only particular pieces. It seems much easier if we split deployment into stages (oh my, I am again talking about granular deployment feature) and each particular commit affects only one of the stages, so that we can see the difference and catch regressions eariler.</div><div><br></div><div><br></div><div><br></div><div><br clear="all"><div><br></div>-- <br><div><div dir="ltr">Yours Faithfully,<br>Vladimir Kuklin,<br>Fuel Library Tech Lead,<br>Mirantis, Inc.<br><a href="tel:%2B7%20%28495%29%20640-49-04" value="+74956404904" target="_blank">+7 (495) 640-49-04</a><br><a href="tel:%2B7%20%28926%29%20702-39-68" value="+79267023968" target="_blank">+7 (926) 702-39-68</a><br>Skype kuklinvv<br>45bk3, Vorontsovskaya Str.<br>Moscow, Russia,<br><a href="http://www.mirantis.ru/" target="_blank">www.mirantis.com</a><br><a href="http://www.mirantis.ru/" target="_blank">www.mirantis.ru</a><br><a href="mailto:vkuklin@mirantis.com" target="_blank">vkuklin@mirantis.com</a></div></div>
</div></div>
<br>_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
<br></blockquote></div><br></div>