<br><br><div class="gmail_quote">On Tue, May 22, 2012 at 12:53 PM, Matt Joyce <span dir="ltr"><<a href="mailto:matt.joyce@cloudscaling.com" target="_blank">matt.joyce@cloudscaling.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
My point of concern.<br>\<br>If an agent is being built into the compute nodes, that would best be a split out project.  <br><br>Two major reasons.  First and foremost sub projects should not be spinning up their own agents.  Secondly, there is a use case of agents outside of metering.  <br>

<br>If an agent is to be built it is a not insignificant change in architecture for openstack.</blockquote><div><br></div><div>This agent will run on the compute host, next to nova-compute, not inside the VM. Is that still a concern?</div>
<div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="HOEnZb"><font color="#888888"><br><br>-Matt</font></span><div class="HOEnZb"><div class="h5"><br>
<br><div class="gmail_quote">On Tue, May 22, 2012 at 7:30 AM, Doug Hellmann <span dir="ltr"><<a href="mailto:doug.hellmann@dreamhost.com" target="_blank">doug.hellmann@dreamhost.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br><br><div class="gmail_quote"><div>On Tue, May 22, 2012 at 4:05 AM, Endre Karlson <span dir="ltr"><<a href="mailto:endre.karlson@gmail.com" target="_blank">endre.karlson@gmail.com</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
If I'm understanding this correctly, the Collector is kind of like a Agent in Qantum (It sits on a machine doing stuff and passing info upstream).<br><br>If you look at the approach they have now in Quantum Agent it's writing directly to the DB. But looking at the next version they seem to be moving to having the Agent send data upstream to the Plugin in Quantum. Why not do something similar?<br>



<br>I mean if you have a MQ cluster in a deployment I think it makes more sense to have 1 thing that handles the db stuff then having each Collector connect to the db..<br></blockquote><div><br></div></div><div>That was the goal, but I may have swapped the terminology around. For ceilometer, the "agent" runs on the compute node and writes only to the message queue. The "collector" runs in a central location and writes to the database. The number of collectors you need will depend on the number of messages being generated, but the architecture supports running several in parallel in a way that each instance does not need to be aware of the others.</div>

<span><font color="#888888">
<div> </div><div>Doug</div></font></span><div><div><div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>Endre.<br><div class="gmail_quote">2012/5/22 Nick Barcet <span dir="ltr"><<a href="mailto:nick.barcet@canonical.com" target="_blank">nick.barcet@canonical.com</a>></span><br>



<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div><div><div>On 05/21/2012 10:52 PM, Doug Hellmann wrote:<br>
> I have written up some of my thoughts on a proposed design for<br>
> ceilometer in the wiki [1]. I'm sure there are missing details, but I<br>
> wanted to start getting ideas into writing so they could be discussed<br>
> here on the list, since I've talked about different parts with a couple<br>
> of you separately.<br>
><br>
> Let me know what you think, and especially if I am not clear or have<br>
> left out any details.<br>
><br>
> Thanks,<br>
> Doug<br>
><br>
> [1] <a href="http://wiki.openstack.org/EfficientMetering/ArchitectureProposalV1" target="_blank">http://wiki.openstack.org/EfficientMetering/ArchitectureProposalV1</a><br>
<br>
</div></div>Thanks a lot for putting this together Doug.<br>
<br>
A few questions:<br>
<br>
* "The collector runs on one or more central management servers to<br>
monitor the message queues (for notifications and for metering data<br>
coming from the agent). Notification messages are processed and turned<br>
into metering messages and sent back out onto the message bus using the<br>
appropriate topic. Metering messages are written to the data store<br>
without modification."<br>
-> Is the reason behind why collectors do not write directly to the<br>
database a way to allow db less implementations as Francis suggested<br>
earlier?  In this case it may be useful to say it explicitly.<br>
<br>
* "Plugins may require configuration options, so when the plugin is<br>
loaded it is asked to add options to the global flags object, and the<br>
results are made available to the plugin before it is asked to do any work."<br>
-> I am not sure where the "global flags object" resides and how option<br>
are populated.  I think it would make sense for this to be globally<br>
controlled, and therefore may require for a simple discovery exchange on<br>
the queue to retrieve values and set defaults if it does not exist yet.<br>
<br>
* "Metering messages are signed using the hmac module in Python's<br>
standard library. A shared secret value can be provided in the<br>
ceilometer configuration settings. The messages are signed by feeding<br>
the message key names and values into the signature generator in sorted<br>
order. Non-string values are converted to unicode and then encoded as<br>
UTF-8. The message signature is included in the message for verification<br>
by the collector."<br>
-> The signature is also kept in the database for future audit<br>
processes, maybe worth mentioning it here.<br>
-> In addition to a signature, I think we would need a sequence number<br>
to be embedded by the agent for each message sent, so that loss of<br>
messages, or forgery of messages, can be detected by the collector and<br>
further audit process.<br>
<br>
Thanks again,<br>
Nick<br>
<br>
<br>
<br></div></div>_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/%7Eopenstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net" target="_blank">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/%7Eopenstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
<br></blockquote></div><br>
<br>_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/%7Eopenstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net" target="_blank">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/%7Eopenstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
<br></blockquote></div></div></div><br>
<br>_______________________________________________<br>
Mailing list: <a href="https://launchpad.net/%7Eopenstack" target="_blank">https://launchpad.net/~openstack</a><br>
Post to     : <a href="mailto:openstack@lists.launchpad.net" target="_blank">openstack@lists.launchpad.net</a><br>
Unsubscribe : <a href="https://launchpad.net/%7Eopenstack" target="_blank">https://launchpad.net/~openstack</a><br>
More help   : <a href="https://help.launchpad.net/ListHelp" target="_blank">https://help.launchpad.net/ListHelp</a><br>
<br></blockquote></div><br>
</div></div></blockquote></div><br>