<div dir="ltr">Problem was in /etc/ceph/ceph.conf on the controller.  It had been updated at some point and had bad perms (root:root, 640).  Thanks for the feedback!<div><br></div><div>--Greg</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Apr 10, 2015 at 1:35 AM, Huang Zhiteng <span dir="ltr"><<a href="mailto:winston.d@gmail.com" target="_blank">winston.d@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Looks like your cinder-volume service (RBD driver actually) has<br>
problem reading {ceph-cluster-name}.conf that it needs.<br>
<div><div class="h5"><br>
On Fri, Apr 10, 2015 at 11:57 AM, Greg Chavez <<a href="mailto:greg.chavez@gmail.com">greg.chavez@gmail.com</a>> wrote:<br>
> I guess the error line that bothers me the most is this one:<br>
><br>
> Stderr: 'global_init: error reading config file.\n'<br>
><br>
><br>
> What config file is is failing to read?  Thanks.<br>
><br>
> --Greg<br>
><br>
> On Thu, Apr 9, 2015 at 4:58 PM, Greg Chavez <<a href="mailto:greg.chavez@gmail.com">greg.chavez@gmail.com</a>> wrote:<br>
>><br>
>> Hi everyone,<br>
>><br>
>> Having trouble deleting ceph volumes. They immediately go into an<br>
>> error_deleting state. In cinder-volume.log, there are repeating error that<br>
>> are exactly the same and slightly different errors when and delete action is<br>
>> made. There are no errors in cinder-api.log.<br>
>><br>
>> Those errors along with our cinder.conf are here:<br>
>> <a href="http://pastebin.com/dbBXtdCJ" target="_blank">http://pastebin.com/dbBXtdCJ</a><br>
>><br>
>> Some background:<br>
>><br>
>> We had a network failure about 4 weeks ago that screwed up our Grizzly<br>
>> OpenStack/Ceph installation something terrible. Eventually we had to move<br>
>> everything to a new set of switches. The controller node has been up for 24<br>
>> days, about two weeks before we moved to the new switches.<br>
>><br>
>> We've been able to get Ceph up and running and get some VMs back, but<br>
>> we've decided to cut our losses and start migrating to our VSphere<br>
>> installation. We'll re-factor our hardware to a newer OpenStack install<br>
>> later, but now we are in the midst of a slow drawdown of Grizzly.<br>
>><br>
>> Any idea what could be going on here? Thanks.<br>
>><br>
>> --<br>
>> \*..+.-<br>
>> --Greg Chavez<br>
>> +//..;};<br>
><br>
><br>
><br>
</div></div>> _______________________________________________<br>
> Mailing list: <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
> Post to     : <a href="mailto:openstack@lists.openstack.org">openstack@lists.openstack.org</a><br>
> Unsubscribe : <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack</a><br>
><br>
<span class="HOEnZb"><font color="#888888"><br>
<br>
<br>
--<br>
Regards<br>
Huang Zhiteng<br>
</font></span></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">\*..+.-<br>--Greg Chavez<br>+//..;};</div>
</div>