<div dir="ltr">Dims, it might be overkill to introduce multi-Keystone + federation (I just quickly skimmed the PDF so apologies if I have the wrong end of it)?<div><br></div><div>Jon, you could just have multiple cinder-volume services and backends. We do this in the Nectar cloud - each site has cinder AZs matching nova AZs. By default the API won't let you attach a volume to a host in a non-matching AZ, maybe that's enough for you(?), but you could probably take it further with other cinder scheduler filters.</div></div><div class="gmail_extra"><br><div class="gmail_quote">On 22 March 2017 at 12:03, Davanum Srinivas <span dir="ltr"><<a href="mailto:davanum@gmail.com" target="_blank">davanum@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Oops, Hit send before i finished<br>
<br>
<a href="https://info.massopencloud.org/wp-content/uploads/2016/03/Workshop-Resource-Federation-in-a-Multi-Landlord-Cloud.pdf" rel="noreferrer" target="_blank">https://info.massopencloud.<wbr>org/wp-content/uploads/2016/<wbr>03/Workshop-Resource-<wbr>Federation-in-a-Multi-<wbr>Landlord-Cloud.pdf</a><br>
<a href="https://git.openstack.org/cgit/openstack/mixmatch" rel="noreferrer" target="_blank">https://git.openstack.org/<wbr>cgit/openstack/mixmatch</a><br>
<br>
Essentially you can do a single cinder proxy that can work with<br>
multiple cinder backends (one use case)<br>
<br>
Thanks,<br>
Dims<br>
<div class="HOEnZb"><div class="h5"><br>
On Tue, Mar 21, 2017 at 8:59 PM, Davanum Srinivas <<a href="mailto:davanum@gmail.com">davanum@gmail.com</a>> wrote:<br>
> Jonathan,<br>
><br>
> The folks from Boston University have done some work around this idea:<br>
><br>
> <a href="https://github.com/openstack/mixmatch/blob/master/doc/source/architecture.rst" rel="noreferrer" target="_blank">https://github.com/openstack/<wbr>mixmatch/blob/master/doc/<wbr>source/architecture.rst</a><br>
><br>
><br>
> On Tue, Mar 21, 2017 at 7:33 PM, Jonathan Mills <<a href="mailto:jonmills@gmail.com">jonmills@gmail.com</a>> wrote:<br>
>> Friends,<br>
>><br>
>> I’m reaching out for assistance from anyone who may have confronted the<br>
>> issue of dealing with ITAR data in an OpenStack cloud being used in some<br>
>> department of the Federal Gov.<br>
>><br>
>> ITAR (<a href="https://www.pmddtc.state.gov/regulations_laws/itar.html" rel="noreferrer" target="_blank">https://www.pmddtc.state.gov/<wbr>regulations_laws/itar.html</a>) is a less<br>
>> restrictive level of security than classified data, but it has some thorny<br>
>> aspects to it, particularly where media is concerned:<br>
>><br>
>> * you cannot co-mingle ITAR and non-ITAR data on the same physical hard<br>
>> drives, and any drive, once it has been “tainted” with any ITAR data, is now<br>
>> an ITAR drive<br>
>><br>
>> * when ITAR data is destroyed, a DBAN is insufficient — instead, you<br>
>> physically shred the drive.  No need to elaborate on how destructive this<br>
>> can get if you accidentally mingle ITAR with non-ITAR<br>
>><br>
>> Certainly the multi-tenant model of OpenStack holds great promise in Federal<br>
>> agencies for supporting both ITAR and non-ITAR worlds, but great care must<br>
>> be taken that *somehow* things like Glance and Cinder don’t get mixed up.<br>
>> One must ensure that the ITAR tenants can only access Glance/Cinder in ways<br>
>> such that their backend storage is physically separate from any non-ITAR<br>
>> tenants.  Certainly I understand that Glance/Cinder can support multiple<br>
>> storage backend types, such as File & Ceph, and maybe that is an avenue to<br>
>> explore to achieving the physical separation.  But what if you want to have<br>
>> multiple different File backends?<br>
>><br>
>> Do the ACLs exist to ensure that non-ITAR tenants can’t access ITAR<br>
>> Glance/Cinder backends, and vice versa?<br>
>><br>
>> Or…is it simpler to just build two OpenStack clouds….?<br>
>><br>
>> Your thoughts will be most appreciated,<br>
>><br>
>><br>
>> Jonathan Mills<br>
>><br>
>> NASA Goddard Space Flight Center<br>
>><br>
>><br>
>> ______________________________<wbr>_________________<br>
>> OpenStack-operators mailing list<br>
>> <a href="mailto:OpenStack-operators@lists.openstack.org">OpenStack-operators@lists.<wbr>openstack.org</a><br>
>> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" rel="noreferrer" target="_blank">http://lists.openstack.org/<wbr>cgi-bin/mailman/listinfo/<wbr>openstack-operators</a><br>
>><br>
><br>
><br>
><br>
> --<br>
> Davanum Srinivas :: <a href="https://twitter.com/dims" rel="noreferrer" target="_blank">https://twitter.com/dims</a><br>
<br>
<br>
<br>
--<br>
Davanum Srinivas :: <a href="https://twitter.com/dims" rel="noreferrer" target="_blank">https://twitter.com/dims</a><br>
<br>
______________________________<wbr>_________________<br>
OpenStack-operators mailing list<br>
<a href="mailto:OpenStack-operators@lists.openstack.org">OpenStack-operators@lists.<wbr>openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" rel="noreferrer" target="_blank">http://lists.openstack.org/<wbr>cgi-bin/mailman/listinfo/<wbr>openstack-operators</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature" data-smartmail="gmail_signature">Cheers,<br>~Blairo</div>
</div>