i agreed with Jason<br><br><br><div class="gmail_quote">On Tue, May 1, 2012 at 7:47 PM, Jason Cannavale <span dir="ltr"><<a href="mailto:jason.cannavale@rackspace.com" target="_blank">jason.cannavale@rackspace.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Duncan,<br>
<br>
I think it would be a great idea to get a larger set of architectures for<br>
easy review, let me see what I can do.<br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
Jason<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
On 5/1/12 2:26 PM, "Duncan McGreggor" <<a href="mailto:duncan@dreamhost.com">duncan@dreamhost.com</a>> wrote:<br>
<br>
>Jason,<br>
><br>
>Folks from CERN and NeCTAR [1] have expressed interest in sharing<br>
>their cloud architectures and reference materials.<br>
><br>
>Should they go through you, and get their data/images put up on<br>
><a href="http://www.referencearchitecture.org/" target="_blank">http://www.referencearchitecture.org/</a> ?<br>
><br>
>d<br>
><br>
><br>
>[1] Associated with the University of Melbourne, <a href="http://nectar.org.au/" target="_blank">http://nectar.org.au/</a><br>
><br>
>On Tue, May 1, 2012 at 8:20 AM, Jason Cannavale<br>
><<a href="mailto:jason.cannavale@rackspace.com">jason.cannavale@rackspace.com</a>> wrote:<br>
>> Hi Igor, Vivek,<br>
>><br>
>> Apologies for the confusion. This site was put together quite some time<br>
>>ago<br>
>> (between Cactus and Diablo releases) and only took into consideration<br>
>>the<br>
>> nova and swift projects, and has not been updated since that time.<br>
>> Unfortunately, there was no consideration for nova-volumes, however your<br>
>> assumption is correct that the huge local storage on the compute nodes<br>
>>was<br>
>> for the image download from glance to the compute node, booting the<br>
>>image,<br>
>> and providing some local storage for the instances themselves.<br>
>><br>
>><br>
>> In the case of images and snapshots the document makes the assumption<br>
>>that<br>
>> swift was the backend for glance. In this case you would have<br>
>>glance-api and<br>
>> glance-registry running on the controller node with the swift<br>
>>middleware and<br>
>> would follow the swift portion of the reference architecture.<br>
>><br>
>><br>
>> Jason<br>
>><br>
>> From: Vivek Singh Raghuwanshi <<a href="mailto:vivekraghuwanshi@gmail.com">vivekraghuwanshi@gmail.com</a>><br>
>> Date: Tuesday, May 1, 2012 12:59 PM<br>
>> To: Igor Laskovy <<a href="mailto:igor.laskovy@gmail.com">igor.laskovy@gmail.com</a>><br>
>> Cc: "<a href="mailto:openstack-operators@lists.openstack.org">openstack-operators@lists.openstack.org</a>"<br>
>> <<a href="mailto:openstack-operators@lists.openstack.org">openstack-operators@lists.openstack.org</a>><br>
>> Subject: Re: [Openstack-operators] Question regarding to<br>
>> <a href="http://referencearchitecture.org" target="_blank">referencearchitecture.org</a><br>
>><br>
>> Yes and to store images and snapshorts<br>
>><br>
>> On Tue, May 1, 2012 at 5:11 PM, Igor Laskovy <<a href="mailto:igor.laskovy@gmail.com">igor.laskovy@gmail.com</a>><br>
>>wrote:<br>
>>><br>
>>> Hi all!<br>
>>><br>
>>> I am new to the openstack. I have question regarding to<br>
>>> <a href="http://www.referencearchitecture.org/physical-deployment/" target="_blank">http://www.referencearchitecture.org/physical-deployment/</a> .<br>
>>> This design shown a two controller nodes, one brand iSCSI DAS and a<br>
>>> lot of compute nodes. Controller nodes has small local storages and<br>
>>> connectivity to iSCSI DAS. Compute nodes, according to "Rule of<br>
>>> Thumb): 4 to 8 GB RAM and 1 Spindle Per Core", has a lot of local<br>
>>> spaces each one.<br>
>>> So how work Nova-volumes here? It is running on controller node and<br>
>>> use VG "nova-volumes" which based on disk via attached iSCSI DAS?<br>
>>> After that euca-create-volume create volume and will expose it to the<br>
>>> compute node via iSCSI again? If it is correct, what is the point to<br>
>>> use huge local storages at compute nodes, for boot image of instances<br>
>>> only?<br>
>>><br>
>>> Igor Laskovy<br>
>>> _______________________________________________<br>
>>> Openstack-operators mailing list<br>
>>> <a href="mailto:Openstack-operators@lists.openstack.org">Openstack-operators@lists.openstack.org</a><br>
>>> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
>><br>
>><br>
>><br>
>><br>
>> --<br>
>> ViVek Raghuwanshi<br>
>> Mobile -<a href="tel:%2B91-09595950504" value="+919595950504">+91-09595950504</a><br>
>><br>
>> Skype - vivek_raghuwanshi<br>
>><br>
>><br>
>><br>
>> _______________________________________________<br>
>> Openstack-operators mailing list<br>
>> <a href="mailto:Openstack-operators@lists.openstack.org">Openstack-operators@lists.openstack.org</a><br>
>> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-operators</a><br>
>><br>
<br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>ViVek Raghuwanshi<br>Mobile -+91-09595950504<br>            <br>Skype - vivek_raghuwanshi<br><br><br>