<div dir="ltr">I may of course be entirely wrong :) which would be cool if this is achievable / on the roadmap.<div><br></div><div style>At the very least if this is not already in discussion I'd raise it on launchpad as a potential feature.</div>
<div style><br></div><div style><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Dec 20, 2012 at 3:19 PM, Andrew Holway <span dir="ltr"><<a href="mailto:a.holway@syseleven.de" target="_blank">a.holway@syseleven.de</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Ah shame. You can specify different storage domains in oVirt.<br>
<div class="HOEnZb"><div class="h5"><br>
On Dec 20, 2012, at 4:16 PM, David Busby wrote:<br>
<br>
> Hi Andrew,<br>
><br>
> An interesting idea, but I am unaware if nova supports storage affinity in any way, it does support host affinity iirc, as a kludge you could have say some nova compute nodes using your "slow mount" and reserve the "fast mount" nodes as required, perhaps even defining separate zones for deployment?<br>

><br>
> Cheers<br>
><br>
> David<br>
><br>
><br>
><br>
><br>
><br>
> On Thu, Dec 20, 2012 at 2:53 PM, Andrew Holway <<a href="mailto:a.holway@syseleven.de">a.holway@syseleven.de</a>> wrote:<br>
> Hi David,<br>
><br>
> It is for nova.<br>
><br>
> Im not sure I understand. I want to be able to say to openstack; "openstack, please install this instance (A) on this mountpoint and please install this instance (B) on this other mountpoint." I am planning on having two NFS / Gluster based stores, a fast one and a slow one.<br>

><br>
> I probably will not want to say please every time :)<br>
><br>
> Thanks,<br>
><br>
> Andrew<br>
><br>
> On Dec 20, 2012, at 3:42 PM, David Busby wrote:<br>
><br>
> > Hi Andrew,<br>
> ><br>
> > Is this for glance or nova ?<br>
> ><br>
> > For nova change:<br>
> ><br>
> > state_path = /var/lib/nova<br>
> > lock_path = /var/lib/nova/tmp<br>
> ><br>
> > in your nova.conf<br>
> ><br>
> > For glance I'm unsure, may be easier to just mount gluster right onto /var/lib/glance (similarly could do the same for /var/lib/nova).<br>
> ><br>
> > And just my £0.02 I've had no end of problems getting gluster to "play nice" on small POC clusters (3 - 5 nodes, I've tried nfs tried glusterfs, tried 2 replica N distribute setups with many a random glusterfs death), as such I have opted for using ceph.<br>

> ><br>
> > ceph's rados can also be used with cinder from the brief reading I've been doing into it.<br>
> ><br>
> ><br>
> > Cheers<br>
> ><br>
> > David<br>
> ><br>
> ><br>
> ><br>
> ><br>
> ><br>
> > On Thu, Dec 20, 2012 at 1:53 PM, Andrew Holway <<a href="mailto:a.holway@syseleven.de">a.holway@syseleven.de</a>> wrote:<br>
> > Hi,<br>
> ><br>
> > If I have /nfs1mount and /nfs2mount or /nfs1mount and /glustermount can I control where openstack puts the disk files?<br>
> ><br>
> > Thanks,<br>
> ><br>
> > Andrew<br>
> ><br>
> > _______________________________________________<br>
> > Mailing list: <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
> > Post to     : <a href="mailto:openstack@lists.launchpad.net">openstack@lists.launchpad.net</a><br>
> > Unsubscribe : <a href="https://launchpad.net/~openstack" target="_blank">https://launchpad.net/~openstack</a><br>
> > More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
> ><br>
><br>
><br>
><br>
<br>
<br>
</div></div></blockquote></div><br></div>