<div dir="ltr"><div>Hi Devananda<br><br></div>I have 16 compute nodes, as your suggestion (you should use host aggregates to differentiate the nova-compute 
services configured to use different hypervisor drivers (eg, 
nova.virt.libvirt vs nova.virt.<span class="">ironic</span>) . <br><br>(1)I  can set 4 of them with nova.virt.ironic(for bare metal provision) and left 12 of them with nova.virt.libvirt (for VM provision), they can work well together both for VM provision and Ironic provision ?  of course I should use host aggregates to make 4 nodes as one aggregate and left 12 nodes as another aggregate. <br>
(2 ) should I replace the nova sheduler? the default nova scheduler(Filter Scheduler) can support this?<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">2014-06-06 1:27 GMT+08:00 Devananda van der Veen <span dir="ltr"><<a href="mailto:devananda.vdv@gmail.com" target="_blank">devananda.vdv@gmail.com</a>></span>:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">There is documentation available here:<br>
  <a href="http://docs.openstack.org/developer/ironic/deploy/install-guide.html" target="_blank">http://docs.openstack.org/developer/ironic/deploy/install-guide.html</a><br>
<div class="HOEnZb"><div class="h5"><br>
On Thu, Jun 5, 2014 at 1:25 AM, Jander lu <<a href="mailto:lhcxx0508@gmail.com">lhcxx0508@gmail.com</a>> wrote:<br>
> Hi, Devvananda<br>
><br>
> I searched a lot about the installation of Ironic, but there is little<br>
> metarial about this,  there is only devstack with<br>
> ironic(<a href="http://docs.openstack.org/developer/ironic/dev/dev-quickstart.html" target="_blank">http://docs.openstack.org/developer/ironic/dev/dev-quickstart.html</a>)<br>
><br>
> is there any docs about how to deploy Ironic on production physical node<br>
> enviroment?<br>
><br>
> thx<br>
><br>
><br>
><br>
> 2014-05-30 1:49 GMT+08:00 Devananda van der Veen <<a href="mailto:devananda.vdv@gmail.com">devananda.vdv@gmail.com</a>>:<br>
>><br>
>> On Wed, May 28, 2014 at 8:14 PM, Jander lu <<a href="mailto:lhcxx0508@gmail.com">lhcxx0508@gmail.com</a>> wrote:<br>
>>><br>
>>> Hi, guys, I have two confused part in Ironic.<br>
>>><br>
>>><br>
>>><br>
>>> (1) if I use nova boot api to launch an physical instance, how does nova<br>
>>> boot command differentiate whether VM or physical node provision? From this<br>
>>> article, nova bare metal use "PlacementFilter" instead of FilterScheduler.so<br>
>>> does Ironic use the same method?<br>
>>> (<a href="http://www.mirantis.com/blog/baremetal-provisioning-multi-tenancy-placement-control-isolation/" target="_blank">http://www.mirantis.com/blog/baremetal-provisioning-multi-tenancy-placement-control-isolation/</a>)<br>

>><br>
>><br>
>> That blog post is now more than three releases old. I would strongly<br>
>> encourage you to use Ironic, instead of nova-baremetal, today. To my<br>
>> knowledge, that PlacementFilter was not made publicly available. There are<br>
>> filters available for the FilterScheduler that work with Ironic.<br>
>><br>
>> As I understand it, you should use host aggregates to differentiate the<br>
>> nova-compute services configured to use different hypervisor drivers (eg,<br>
>> nova.virt.libvirt vs nova.virt.ironic).<br>
>><br>
>>><br>
>>><br>
>>> (2)does Ironic only support Flat network? If not, how does Ironic<br>
>>> implement tenant isolation in virtual network? say,if one tenant has two<br>
>>> vritual network namespace,how does the created bare metal node instance send<br>
>>> the dhcp request to the right namespace?<br>
>><br>
>><br>
>> Ironic does not yet perform tenant isolation when using the PXE driver,<br>
>> and should not be used in an untrusted multitenant environment today. There<br>
>> are other issues with untrusted tenants as well (such as firmware exploits)<br>
>> that make it generally unsuitable to untrusted multitenancy (though<br>
>> specialized hardware platforms may mitigate this).<br>
>><br>
>> There have been discussions with Neutron, and work is being started to<br>
>> perform physical network isolation, but this is still some ways off.<br>
>><br>
>> Regards,<br>
>> Devananda<br>
>><br>
>><br>
>> _______________________________________________<br>
>> OpenStack-dev mailing list<br>
>> <a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
>> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
>><br>
><br>
><br>
> _______________________________________________<br>
> OpenStack-dev mailing list<br>
> <a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
> <a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
><br>
<br>
_______________________________________________<br>
OpenStack-dev mailing list<br>
<a href="mailto:OpenStack-dev@lists.openstack.org">OpenStack-dev@lists.openstack.org</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div></div></blockquote></div><br></div>