<div dir="auto">Thanks, I'll check it out. </div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Thu, 11 Jul 2019, 20:18 Eugen Block, <<a href="mailto:eblock@nde.ag">eblock@nde.ag</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">> I'm referring this link<br>
> <a href="https://docs.openstack.org/mitaka/admin-guide/compute-images-instances.html" rel="noreferrer noreferrer" target="_blank">https://docs.openstack.org/mitaka/admin-guide/compute-images-instances.html</a><br>
> to understand about root disk. In this it is saying root disk will come<br>
> from compute node. What is the location of root disk on compute node?<br>
<br>
First, use a later release, Mitaka is quite old, Stein is the current release.<br>
<br>
If you use a default configuration without any specific backend for  <br>
your instances they will be located on the compute nodes in  <br>
/var/lib/nova/instances/. The respective base images would reside in   <br>
/var/lib/nova/instances/_base, so your compute nodes should have  <br>
sufficient disk space.<br>
<br>
> If I want to keep all my vms on shared storage . How to configure it ?<br>
<br>
That's up to you, there are several backends supported, so you'll have  <br>
to choose one. Many people including me use Ceph as storage backend  <br>
for Glance, Cinder and Nova.<br>
<br>
> Or If I want to keep all my vms on cinder volume. What will be the<br>
> configuration for it on nova and cinder?<br>
<br>
I recommend to set up a lab environment where you can learn to set up  <br>
OpenStack, then play around and test different backends if required.  <br>
The general configuration requirements are covered in the docs [1]. If  <br>
you don't want to configure every single service you can follow a  <br>
deployment guide [2], but that will require skills in ansible, juju or  <br>
tripleO. I'd recommend the manual way, that way you learn the basics  <br>
and how the different components interact.<br>
<br>
[1] <a href="https://docs.openstack.org/stein/install/" rel="noreferrer noreferrer" target="_blank">https://docs.openstack.org/stein/install/</a><br>
[2] <a href="https://docs.openstack.org/stein/deploy/" rel="noreferrer noreferrer" target="_blank">https://docs.openstack.org/stein/deploy/</a><br>
<br>
<br>
Zitat von Jyoti Dahiwele <<a href="mailto:jyotishri403@gmail.com" target="_blank" rel="noreferrer">jyotishri403@gmail.com</a>>:<br>
<br>
> Thanks for your reply.<br>
> I'm referring this link<br>
> <a href="https://docs.openstack.org/mitaka/admin-guide/compute-images-instances.html" rel="noreferrer noreferrer" target="_blank">https://docs.openstack.org/mitaka/admin-guide/compute-images-instances.html</a><br>
> to understand about root disk. In this it is saying root disk will come<br>
> from compute node. What is the location of root disk on compute node?<br>
><br>
> If I want to keep all my vms on shared storage . How to configure it ?<br>
><br>
> Or If I want to keep all my vms on cinder volume. What will be the<br>
> configuration for it on nova and cinder?<br>
><br>
><br>
> On Thu, 11 Jul 2019, 15:24 Eugen Block, <<a href="mailto:eblock@nde.ag" target="_blank" rel="noreferrer">eblock@nde.ag</a>> wrote:<br>
><br>
>> Hi,<br>
>><br>
>> it's always glance that serves the images, it just depends on how you<br>
>> decide to create the instance, ephemeral or persistent disks. You can<br>
>> find more information about storage concepts in [1].<br>
>><br>
>> If I'm not completely wrong, since Newton release the default in the<br>
>> Horizon settings is to create an instance from volume, so it would be<br>
>> a persistent disk managed by cinder (the volume persists after the<br>
>> instance has been deleted, this is also configurable). The image is<br>
>> downloaded from glance into a volume on your volume server.<br>
>><br>
>> If you change the Horizon behavior or if you launch an instance from<br>
>> the cli you'd get an ephemeral disk by nova, depending on your storage<br>
>> backend this would be a local copy of the image on the compute node(s)<br>
>> or something related in your storage backend, e.g. an rbd object in<br>
>> ceph.<br>
>><br>
>> Does this clear it up a bit?<br>
>><br>
>> Regards,<br>
>> Eugen<br>
>><br>
>> [1]<br>
>><br>
>> <a href="https://docs.openstack.org/arch-design/design-storage/design-storage-concepts.html" rel="noreferrer noreferrer" target="_blank">https://docs.openstack.org/arch-design/design-storage/design-storage-concepts.html</a><br>
>><br>
>><br>
>> Zitat von Jyoti Dahiwele <<a href="mailto:jyotishri403@gmail.com" target="_blank" rel="noreferrer">jyotishri403@gmail.com</a>>:<br>
>><br>
>> > Dear Team,<br>
>> ><br>
>> > Please clear me my following doubts.<br>
>> > When I use image from source option  and mini flavor to create an<br>
>> instace,<br>
>> > from which storage pool instance will get root disk ? From cinder or<br>
>> glance?<br>
>><br>
>><br>
>><br>
>><br>
>><br>
<br>
<br>
<br>
</blockquote></div>