<div dir="ltr"><div>Hi All,<br><br></div>I'm always getting confuse in between ephemeral disk and non-ephemeral disk, can you pl clarify these terms ?<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">
On Sun, Sep 29, 2013 at 5:30 PM,  <span dir="ltr"><<a href="mailto:openstack-request@lists.openstack.org" target="_blank">openstack-request@lists.openstack.org</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div style="color:#777;font-size:12px;font-family:'Lucida Grande',Helvetica,Arial,sans-serif;padding:4px">
<a href="https://www.boxbe.com/overview" style="text-decoration:none;color:#5e96ea" target="_blank"><img alt="Boxbe" style="margin-left:0px;border:none" width="64px"></a>

<img>

  <a href="mailto:openstack@lists.openstack.org" target="_blank">openstack@lists.openstack.org</a> is not on <a style="text-decoration:none;color:#5e96ea" href="https://www.boxbe.com/approved-list?tc_serial=15266935401&tc_rand=685548230&utm_source=stf&utm_medium=email&utm_campaign=ANNO_MWTP&utm_content=001&token=E9kDrU5etrFx554H%2FRuWVEJ8N%2Fhj08GoX9W0SZs6%2BUUchl4IITxhxu8RIKLQUpU5&key=ghQLE3dOtmUydEDWVq0kBEfCd%2FMpc9qpApYHFZVEEYM%3D" target="_blank">your Guest List</a>


    | <a style="text-decoration:none;color:#5e96ea" href="https://www.boxbe.com/anno?tc_serial=15266935401&tc_rand=685548230&utm_source=stf&utm_medium=email&utm_campaign=ANNO_MWTP&utm_content=001&token=E9kDrU5etrFx554H%2FRuWVEJ8N%2Fhj08GoX9W0SZs6%2BUUchl4IITxhxu8RIKLQUpU5&key=ghQLE3dOtmUydEDWVq0kBEfCd%2FMpc9qpApYHFZVEEYM%3D" target="_blank">Approve sender</a>
    | <a style="text-decoration:none;color:#5e96ea" href="https://www.boxbe.com/anno?tc_serial=15266935401&tc_rand=685548230&utm_source=stf&utm_medium=email&utm_campaign=ANNO_MWTP&utm_content=001&dom&token=E9kDrU5etrFx554H%2FRuWVEJ8N%2Fhj08GoX9W0SZs6%2BUUchl4IITxhxu8RIKLQUpU5&key=ghQLE3dOtmUydEDWVq0kBEfCd%2FMpc9qpApYHFZVEEYM%3D" target="_blank">Approve domain</a>
<br>

</div>
<br>Send Openstack mailing list submissions to<br>
        <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:openstack-request@lists.openstack.org">openstack-request@lists.openstack.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:openstack-owner@lists.openstack.org">openstack-owner@lists.openstack.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of Openstack digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1. Re: Flavor files and disk and ephemeral sizes (Shake Chen)<br>
   2. Re: [nova in havana]: vm status update delay when vm process<br>
      is killed... (Jian Wen)<br>
   3. Re: the way of managing the shared block storage. RE:<br>
      Announcing Manila Project (Shared Filesystems     Management) (Qixiaozhen)<br>
   4. I can't access instances by ssh with key (Ma Lei)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Sun, 29 Sep 2013 01:44:22 +0800<br>
From: Shake Chen <<a href="mailto:shake.chen@gmail.com">shake.chen@gmail.com</a>><br>
To: Steven Gessner <<a href="mailto:gessners@us.ibm.com">gessners@us.ibm.com</a>><br>
Cc: "<a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a>" <<a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a>><br>
Subject: Re: [Openstack] Flavor files and disk and ephemeral sizes<br>
Message-ID:<br>
        <<a href="mailto:CAO__-NaGSB5gWY2u1_S9__-odM80tKkNgJOYCXNYXqGQj7Fe0w@mail.gmail.com">CAO__-NaGSB5gWY2u1_S9__-odM80tKkNgJOYCXNYXqGQj7Fe0w@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
I also have  question about Flavor and  ephemeral disk.<br>
<br>
if I choose from ISO install OS , the ephemeral disk would not allow zero<br>
size.<br>
<br>
whether can modify the default setting of the ephemeral disk size in flavor.<br>
<br>
<br>
On Sat, Sep 28, 2013 at 6:11 AM, Steven Gessner <<a href="mailto:gessners@us.ibm.com">gessners@us.ibm.com</a>> wrote:<br>
<br>
> Hi, I hope someone can clarify the questions I have.<br>
><br>
> When I look at the documentation on flavor files:<br>
> <a href="http://docs.openstack.org/grizzly/openstack-compute/admin/content/instance-building-blocks.html#instance-building-blocks-flavors" target="_blank">http://docs.openstack.org/grizzly/openstack-compute/admin/content/instance-building-blocks.html#instance-building-blocks-flavors</a>,<br>

> I see the virtual root disk size shown for the m1.small to m1.xlarge<br>
> flavors remaining constant at 10gig and the ephemeral disk ranging from 20<br>
> to 160gig.  When I look at an OpenStack environment built by a friend, I<br>
> see the ephemeral size always at 0gig and the virtual root disk size<br>
> containing the values 20 to 160gig.<br>
><br>
> I know an admin can modify the values but my friend says he didn't.  In<br>
> addition, I would have expected the virtual root disk to remain constant<br>
> for the flavors in order to allow me to easily choose different size<br>
> virtual machines to hold a Linux image.  Is the documentation showing the<br>
> flavors wrong or has my friend someone incorrectly and unknowingly swapped<br>
> the values in the flavor for virtual root disk size and ephemeral size?<br>
><br>
> Thank you for your time,<br>
> Steve Gessner<br>
><br>
> _______________________________________________<br>
> Mailing list:<br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
> Post to     : <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
> Unsubscribe :<br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
><br>
><br>
<br>
<br>
--<br>
Shake Chen<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.openstack.org/pipermail/openstack/attachments/20130929/c2d55a11/attachment-0001.html" target="_blank">http://lists.openstack.org/pipermail/openstack/attachments/20130929/c2d55a11/attachment-0001.html</a>><br>

<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Sun, 29 Sep 2013 14:06:20 +0800<br>
From: Jian Wen <<a href="mailto:jian.wen@canonical.com">jian.wen@canonical.com</a>><br>
To: Juha Tynninen <<a href="mailto:tyky72@gmail.com">tyky72@gmail.com</a>><br>
Cc: "<a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a>" <<a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a>><br>
Subject: Re: [Openstack] [nova in havana]: vm status update delay when<br>
        vm process is killed...<br>
Message-ID:<br>
        <CAMunoaOAWYUDb=<a href="mailto:f0VkTVtvfLi5ZTQtD7x6daretCHMpzMtrVsg@mail.gmail.com">f0VkTVtvfLi5ZTQtD7x6daretCHMpzMtrVsg@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="iso-8859-1"<br>
<br>
Hello, Juha<br>
<br>
I can't reproduce this bug in a devstack environment freshly installed<br>
today.<br>
<br>
Instance's power state should be synced in a very short delay window since<br>
the following bp.<br>
<a href="https://blueprints.launchpad.net/nova/+spec/compute-driver-events" target="_blank">https://blueprints.launchpad.net/nova/+spec/compute-driver-events</a><br>
<br>
What is the exact version of nova are you using?<br>
Could you file a bug?<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
On Thu, Sep 19, 2013 at 9:04 PM, Juha Tynninen <<a href="mailto:tyky72@gmail.com">tyky72@gmail.com</a>> wrote:<br>
<br>
> Hi,<br>
><br>
> Ok, seems to be I can eliminate the delay by editing the value for the<br>
> nova/compute/manager.py related configuration item in nova.conf:<br>
><br>
> cfg.IntOpt('sync_power_state_interval',<br>
>                default=600,<br>
>                help='interval to sync power states between '<br>
>                     'the database and the hypervisor'),<br>
><br>
> In the grizzly code there is also this default 600 seconds interval<br>
> defined for this check, but still there wasn't this kind of delay<br>
> present... I wonder what has changed.<br>
><br>
> How do you see, is there some negative effects to set the<br>
> sync_power_state_interval very low in havana (e.g. 1s or even lower)...?<br>
><br>
> Thanks,<br>
> -Juha<br>
><br>
><br>
><br>
> On 18 September 2013 12:41, Juha Tynninen <<a href="mailto:tyky72@gmail.com">tyky72@gmail.com</a>> wrote:<br>
><br>
>> Hi,<br>
>><br>
>> Previously in grizzly if I killed the VM process (in case of devstack the<br>
>> relevant qemu-system process) nova<br>
>> almost immediately noticed this and the status of VM was updated to<br>
>> SHUTOFF.<br>
>><br>
>> But now in havana it takes about 5 minutes the VM status to change to<br>
>> SHUTOFF.<br>
>> Anyone knows what causes this delay?<br>
>><br>
>> Thanks,<br>
>> -Juha<br>
>><br>
>><br>
>><br>
><br>
> _______________________________________________<br>
> Mailing list:<br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
> Post to     : <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
> Unsubscribe :<br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
><br>
><br>
<br>
<br>
--<br>
Cheers,<br>
Jian<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.openstack.org/pipermail/openstack/attachments/20130929/ac6e5be2/attachment-0001.html" target="_blank">http://lists.openstack.org/pipermail/openstack/attachments/20130929/ac6e5be2/attachment-0001.html</a>><br>

<br>
------------------------------<br>
<br>
Message: 3<br>
Date: Sun, 29 Sep 2013 08:08:31 +0000<br>
From: Qixiaozhen <<a href="mailto:qixiaozhen@huawei.com">qixiaozhen@huawei.com</a>><br>
To: Caitlin Bestler <<a href="mailto:caitlin.bestler@nexenta.com">caitlin.bestler@nexenta.com</a>><br>
Cc: "<a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a>" <<a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a>><br>
Subject: Re: [Openstack] the way of managing the shared block storage.<br>
        RE: Announcing Manila Project (Shared Filesystems       Management)<br>
Message-ID:<br>
        <<a href="mailto:F3FF02E5B1A52F44A89CA6A3523CE557718263E3@szxema507-mbx.china.huawei.com">F3FF02E5B1A52F44A89CA6A3523CE557718263E3@szxema507-mbx.china.huawei.com</a>><br>
<br>
Content-Type: text/plain; charset="us-ascii"<br>
<br>
<br>
Is there any plan in openstack for managing the shared block storage using only the data plane? Just like the VMFS for VMware and "SPM+LVM2" for Ovirt.<br>
<br>
If the management plane of the SAN was unreachable, how about openstack for this?<br>
<br>
<br>
<br>
Qi Xiaozhen<br>
CLOUD OS PDU, IT Product Line, Huawei Enterprise Business Group<br>
Mobile: <a href="tel:%2B86%2013609283376" value="+8613609283376">+86 13609283376</a>    Tel: <a href="tel:%2B86%2029-89191578" value="+862989191578">+86 29-89191578</a><br>
Email: <a href="mailto:qixiaozhen@huawei.com">qixiaozhen@huawei.com</a><br>
<a href="http://enterprise.huawei.com" target="_blank">enterprise.huawei.com</a><br>
<br>
-----Original Message-----<br>
From: Caitlin Bestler [mailto:<a href="mailto:caitlin.bestler@nexenta.com">caitlin.bestler@nexenta.com</a>]<br>
Sent: Saturday, September 28, 2013 12:08 AM<br>
To: Qixiaozhen<br>
Cc: <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
Subject: Re: the way of managing the shared block storage. RE: [Openstack] Announcing Manila Project (Shared Filesystems Management)<br>
<br>
On 9/26/2013 7:09 PM, Qixiaozhen wrote:<br>
> Hi, all<br>
><br>
> Is there a common way to manage the block storage of an unknown vendor san?<br>
><br>
> For example, a linux server shares its local disks by the target software(iscsitarget, lio and etc.). The computing nodes are connected to the target with iscsi session, and the LUNs are already rescaned.<br>
><br>
> VMFS is introduced in VMware to manage the LUNs shared by the san. Ovirt VDSM organize the metadata of the volumes in the LUN with LVM2 and StoragePoolManager. How about openstack?<br>
><br>
> Best regards,<br>
><br>
<br>
The standard protocols (iSCSI, NFS, CIFS, etc.) generally only address<br>
the user plane and partially the control plane. Standardizing the<br>
management plane is left to the user or vendors. One of the roles<br>
of OpenStack is to fill that gap.<br>
<br>
Cinder addresses block storage.<br>
The proposed Manila project would deal with NAS.<br>
<br>
<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 4<br>
Date: Sun, 29 Sep 2013 17:07:15 +0800<br>
From: "Ma Lei" <<a href="mailto:malei@cn.fujitsu.com">malei@cn.fujitsu.com</a>><br>
To: <<a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a>><br>
Subject: [Openstack] I can't access instances by ssh with key<br>
Message-ID: <000601cebcf3$4a897400$df9c5c00$@<a href="http://fujitsu.com" target="_blank">fujitsu.com</a>><br>
Content-Type: text/plain; charset="us-ascii"<br>
<br>
I have created three instances using ubuntu's official image on my OpenStack<br>
controller node.<br>
<br>
Two of them have run for more than three weeks.<br>
<br>
The third have run for two weeks.<br>
<br>
In the past weeks I used were normal.<br>
<br>
<br>
<br>
Suddenly, all of them can't be accessed by ssh with key.<br>
<br>
And when I ping them, reply "Request time out".<br>
<br>
On the dashboard, the status is active, and the power state is running.<br>
<br>
<br>
<br>
The instance console log is:<br>
<br>
cloudinit startlocal running: Fri, 27 Sep 2013 05:30:33 +0000. up 5.54<br>
seconds<br>
<br>
no instance data found in startlocal<br>
<br>
ciinfo: lo    : 1 127.0.0.1       255.0.0.0       .<br>
<br>
ciinfo: eth0  : 1 10.167.35.142   255.255.255.0   fa:16:3e:31:83:9c<br>
<br>
ciinfo: route0: 0.0.0.0         10.167.35.1     0.0.0.0         eth0   UG<br>
<br>
ciinfo: route1: 10.167.35.0     0.0.0.0         255.255.255.0   eth0   U<br>
<br>
ciinfo: route2: 169.254.169.254 10.167.35.141   255.255.255.255 eth0   UGH<br>
<br>
cloudinit start running: Fri, 27 Sep 2013 05:30:34 +0000. up 6.09 seconds<br>
<br>
found data source: DataSourceEc2<br>
<br>
20130927 05:30:47,626  __init__.py[WARNING]: Unhandled nonmultipart userdata<br>
''<br>
<br>
Skipping profile in /etc/apparmor.d/disable: usr.sbin.rsyslogd<br>
<br>
 * Starting AppArmor profiles       [80G [74G[ OK ]<br>
<br>
landscapeclient is not configured, please run landscapeconfig.<br>
<br>
 * Stopping System V initialisation compatibility[74G[ OK ]<br>
<br>
 * Starting System V runlevel compatibility[74G[ OK ]<br>
<br>
 * Starting save kernel messages[74G[ OK ]<br>
<br>
acpid: starting up with proc fs<br>
<br>
 * Starting ACPI daemon[74G[ OK ]<br>
<br>
 * Starting automatic crash report generation[74G[ OK ]<br>
<br>
 * Starting regular background program processing daemon[74G[ OK ]<br>
<br>
 * Starting deferred execution scheduler[74G[ OK ]<br>
<br>
 * Stopping save kernel messages[74G[ OK ]<br>
<br>
 * Starting CPU interrupts balancing daemon[74G[ OK ]<br>
<br>
acpid: 1 rule loaded<br>
<br>
acpid: waiting for events: event logging is off<br>
<br>
 * Starting MySQL Server[74G[[31mfail[39;49m]<br>
<br>
 * Starting crash report submission daemon[74G[ OK ]<br>
<br>
 * Starting system logging daemon[74G[ OK ]<br>
<br>
 * Starting Handle applying cloudconfig[74G[ OK ]<br>
<br>
 * Stopping Handle applying cloudconfig[74G[ OK ]<br>
<br>
apache2: apr_sockaddr_info_get() failed for webserver<br>
<br>
apache2: Could not reliably determine the server's fully qualified domain<br>
name, using 127.0.0.1 for ServerName<br>
<br>
 * Starting web server apache2       [80G [74G[ OK ]<br>
<br>
 * Stopping System V runlevel compatibility[74G[ OK ]<br>
<br>
 * Starting execute cloud user/final scripts[74G[ OK ]<br>
<br>
cloudinit boot finished at Fri, 27 Sep 2013 05:30:50 +0000. Up 22.48 seconds<br>
<br>
[ 3601.676137] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 3602.155585] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 3722.759789] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 3722.760682] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 3842.760065] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 3842.760815] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 3962.760093] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 3962.760839] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 4082.760060] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 4082.760932] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 4202.760097] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 4202.760985] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 4322.760058] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 4322.760936] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 4442.760085] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 4442.761002] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 4682.760064] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 4682.761029] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
[ 5762.760082] INFO: task jbd2/vdc18:1980 blocked for more than 120 seconds.<br>
<br>
[ 5762.761044] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables<br>
this message.<br>
<br>
<br>
<br>
Thanks.<br>
<br>
<br>
<br>
malei<br>
<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://lists.openstack.org/pipermail/openstack/attachments/20130929/1976a68d/attachment-0001.html" target="_blank">http://lists.openstack.org/pipermail/openstack/attachments/20130929/1976a68d/attachment-0001.html</a>><br>

<br>
------------------------------<br>
<br>
_______________________________________________<br>
Openstack mailing list<br>
<a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
<br>
<br>
End of Openstack Digest, Vol 3, Issue 42<br>
****************************************<br>
<br></blockquote></div><br><br clear="all"><br>-- <br>Thanks and Regards,<div>Jagdish Choudhary</div><div>IBM India Pvt Ltd, Bangalore</div><div>M.No-8971011661</div>
</div>