<br><br><div class="gmail_quote">On Wed, Nov 14, 2012 at 3:48 AM, Jiang, Yunhong <span dir="ltr"><<a href="mailto:yunhong.jiang@intel.com" target="_blank">yunhong.jiang@intel.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im">> I uploaded a patch as <a href="https://review.openstack.org/#/c/15952/" target="_blank">https://review.openstack.org/#/c/15952/</a> for<br>
> discussion/review. Should be "git review -D", but that command failed on my<br>
> environment.<br>
><br>
> There are two issues on the rpc api method as described in the<br>
> patch/comments. The nic/disk metadata possibly is available through<br>
> extending nova-compute rpc_api, but for the instance object, I didn't find a<br>
> clean solution.<br>
<br>
</div>I updated new patchset.<br>
Thanks for Doug's patch for libvirt, which remind me that I don't need pass the real nova instance object, so I faked one. Considering we only depends on one interface from rpcapi, I think it's feasible for us to make sure this faked object is not broken.<br>

<br>
So the issue left is the metadata. Followed is the information we can got from get_diagnostics. Although it provide all the static information that's presented by current libvirt pollster, it does not include any information for the virtual block/nic devices ,like MAC, IP, filter, DHCPSERVER, while is provided by current libvirt pollster. Also I didn't find method to get such information, other than call nova libvirt driver directly.<br>

<br>
So my question is, should we create another rpcapi for this monitor specific purpose? I'd prefer to yes, since that will make life easier.<br></blockquote><div><br></div><div>That would be a new RPC API call in nova, right? Asking the compute agent seems like a cleaner way to collect this information than importing nova code ourselves. That has caused headaches several times already.</div>
<div><br></div><div>Doug</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<br>
+------------------+------------+<br>
| Property         | Value      |<br>
+------------------+------------+<br>
| cpu0_time        | 7580000000 |<br>
| memory           | 524288     |<br>
| vda_errors       | -1         |<br>
| vda_read         | 262144     |<br>
| vda_read_req     | 112        |<br>
| vda_write        | 5606400    |<br>
| vda_write_req    | 367        |<br>
| vnet0_rx         | 1959353    |<br>
| vnet0_rx_drop    | 0          |<br>
| vnet0_rx_errors  | 0          |<br>
| vnet0_rx_packets | 17673      |<br>
| vnet0_tx         | 58983      |<br>
| vnet0_tx_drop    | 0          |<br>
| vnet0_tx_errors  | 0          |<br>
| vnet0_tx_packets | 263        |<br>
+------------------+------------<br>
<br>
<br>
Thanks<br>
--jyh<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
<br>
_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div></div></blockquote></div><br>