<div dir="ltr">It would, yes, but I think your caveat trumps that idea. Having x nodes be able to work with a shared _base directory is great for saving space and centrally using images. As an example, one of my OpenStack's _base directory is 650gb in size. It's currently shared via NFS. If it was not shared or used a _base_$host scheme, that would be 650gb per compute node. 10 nodes and you're already at 6.5TB.<div>
<br></div><div>There was a <a href="http://www.gossamer-threads.com/lists/openstack/dev/24749" target="_blank">recent discussion</a> that is kind of related (supplemental?). One idea I saw in that thread was to combine Glance and _base. That would be extremely dangerous since removal / corruption of a _base image would affect Glance as well.</div>

</div><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Mar 13, 2013 at 4:27 PM, Nathanael Burton <span dir="ltr"><<a href="mailto:nathanael.i.burton@gmail.com" target="_blank">nathanael.i.burton@gmail.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">If using NFS, if base_dir_name was set such that each host used a separate directory like base_dir_name=_base_$host, wouldn't the image cache manager perform the desired behavior? (albeit worst case using up to #hosts times as much storage in the cache).<br>

<br>Thanks,<br><br>Nate<br></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Mar 13, 2013 at 4:58 PM, Lorin Hochstein <span dir="ltr"><<a href="mailto:lorin@nimbisservices.com" target="_blank">lorin@nimbisservices.com</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Michael:<div><br></div><div>Is this related to the remove_unused_base_images flag? </div><div><br></div>

<div>cf</div><div><a href="https://review.openstack.org/#/c/22040/" target="_blank">https://review.openstack.org/#/c/22040/</a></div>
<div><a href="https://bugs.launchpad.net/nova/+bug/1126375" target="_blank">https://bugs.launchpad.net/nova/+bug/1126375</a><br></div><div><br></div><div>If so, I think this is a strong argument for changing the default.</div>


<div><br></div></div><div class="gmail_extra"><div><div><br><br><div class="gmail_quote">On Wed, Mar 13, 2013 at 1:47 PM, Michael Still <span dir="ltr"><<a href="mailto:mikal@stillhq.com" target="_blank">mikal@stillhq.com</a>></span> wrote:<br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div>On Wed, Mar 13, 2013 at 10:38 AM, Conor Glynn <<a href="mailto:cglynn@sportingindex.com" target="_blank">cglynn@sportingindex.com</a>> wrote:<br>



> by the way, yes both compute nodes were using that shared NFS storage...<br>
<br>
</div>Ok, I think that is likely to have caused base images to go missing.<br>
If that's the case, you should be able to rescue the images from<br>
snapshots if you have that enabled on your netapp device. If you don't<br>
have snapshots or backups, then I think we could tool up a refect from<br>
glance, although I suspect that might involve writing code (and<br>
therefore delay).<br>
<br>
Please do let me know how you go with recovering.<br>
<div><div><br>
Michael<br>
<br>
_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div></div></div><span><font color="#888888">-- <br><div dir="ltr">Lorin Hochstein<br><div>Lead Architect - Cloud Services</div><div>Nimbis Services, Inc.</div>

<div><a href="http://www.nimbisservices.com" target="_blank">www.nimbisservices.com</a></div>
</div>
</font></span></div>
<br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org" target="_blank">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><br></div>
</div></div><br>_______________________________________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org">OpenStack-operators@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
<br></blockquote></div><br><br clear="all"><div><br></div>-- <br>Joe Topjian<div>Systems Administrator</div><div>Cybera Inc.</div><div><br></div><div><a href="http://www.cybera.ca" target="_blank">www.cybera.ca</a></div>
<div><br></div><div><font color="#666666"><span>Cybera</span><span> is a not-for-profit organization that works to spur and support innovation, for the economic benefit of Alberta, through the use of cyberinfrastructure.</span></font></div>

</div>