<html dir="ltr">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
<style id="owaParaStyle" type="text/css">P {margin-top:0;margin-bottom:0;}</style>
</head>
<body ocsi="0" fpstyle="1">
<div style="direction: ltr;font-family: Tahoma;color: #000000;font-size: 10pt;">I think Magnum much is much closer to Sahara or Trove in its workings. Heat's orchestration. Thats what the COE does.<br>
<br>
Sahara is and has plugins to deploy various Hadoopy like clusters, get them assembled into something useful, and has a few abstraction api's like "submit a job to the deployed hadoop cluster queue."<br>
<br>
Trove is and has plugins to deploy various Databasey things. Both SQL and noSQL. It has a few abstractions over all the things for cluster maintenance, backups, db and user creation.<br>
<br>
If all Magnum did was deploy a COE, you could potentially just use Heat to do that.<br>
<br>
What I want to do is have Heat hooked in closely enough through Magnum that Heat templates can deploy COE templates through Magnum Resources. Heat tried to do that with a docker resource driver directly, and its messy, racy, and doesn't work very well. Magnum's
 in a better position to establish a communication channel between Heat and the COE due to its back channel into the vms, bypassing Neutron network stuff.<br>
<br>
Thanks,<br>
Kevin<br>
<div style="font-family: Times New Roman; color: #000000; font-size: 16px">
<hr tabindex="-1">
<div style="direction: ltr;" id="divRpF133217"><font color="#000000" face="Tahoma" size="2"><b>From:</b> Georgy Okrokvertskhov [gokrokvertskhov@mirantis.com]<br>
<b>Sent:</b> Wednesday, April 20, 2016 3:51 PM<br>
<b>To:</b> OpenStack Development Mailing List (not for usage questions)<br>
<b>Subject:</b> Re: [openstack-dev] [magnum][app-catalog][all] Build unified abstraction for all COEs<br>
</font><br>
</div>
<div></div>
<div>
<div dir="ltr">If Magnum will be focused on installation and management for COE it will be unclear how much it is different from Heat and other generic orchestrations.  It looks like most of the current Magnum functionality is provided by Heat. Magnum focus
 on deployment will potentially lead to another Heat-like  API. 
<div>Unless Magnum is really focused on containers its value will be minimal for OpenStack users who already use Heat/Orchestration.
<div><br>
</div>
</div>
</div>
<div class="gmail_extra"><br>
<div class="gmail_quote">On Wed, Apr 20, 2016 at 3:12 PM, Keith Bray <span dir="ltr">
<<a href="mailto:keith.bray@rackspace.com" target="_blank">keith.bray@rackspace.com</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex; border-left:1px #ccc solid; padding-left:1ex">
Magnum doesnıt have to preclude tight integration for single COEs you<br>
speak of.  The heavy lifting of tight integration of the COE in to<br>
OpenStack (so that it performs optimally with the infra) can be modular<br>
(where the work is performed by plug-in models to Magnum, not performed by<br>
Magnum itself. The tight integration can be done by leveraging existing<br>
technologies (Heat and/or choose your DevOps tool of choice:<br>
Chef/Ansible/etc). This allows interested community members to focus on<br>
tight integration of whatever COE they want, focusing specifically on the<br>
COE integration part, contributing that integration focus to Magnum via<br>
plug-ins, without having to actually know much about Magnum, but instead<br>
contribute to the COE plug-in using DevOps tools of choice.   Pegging<br>
Magnum to one-and-only one COE means there will be a Magnum2, Magnum3,<br>
etc. project for every COE of interest, all with different ways of kicking<br>
off COE management.  Magnum could unify that experience for users and<br>
operators, without picking a winner in the COE space ‹ this is just like<br>
Nova not picking a winner between VM flavors or OS types.  It just<br>
facilitates instantiation and management of thins.  Opinion here:  The<br>
value of Magnum is in being a light-weight/thin API, providing modular<br>
choice and plug-ability to COE provisioning and management, thereby<br>
providing operators and users choice of COE instantiation and management<br>
(via the bay concept), where each COE can be as tightly or loosely<br>
integrated as desired by different plug-ins contributed to perform the COE<br>
setup and configurations.  So, Magnum could have two or more swarm plug-in<br>
options contributed to the community.. One overlays generic swarm on VMs.<br>
The other swarm plug-in could instantiate swarm tightly integrated to<br>
neutron, keystone, etc on to bare metal.  Magnum just facilities a plug-in<br>
model with thin API to offer choice of CEO instantiation and management.<br>
The plug-in does the heavy lifting using whatever methods desired by the<br>
curator.<br>
<br>
Thatıs my $0.2.<br>
<span class="HOEnZb"><font color="#888888"><br>
-Keith<br>
</font></span>
<div class="HOEnZb">
<div class="h5"><br>
On 4/20/16, 4:49 PM, "Joshua Harlow" <<a href="mailto:harlowja@fastmail.com" target="_blank">harlowja@fastmail.com</a>> wrote:<br>
<br>
>Thierry Carrez wrote:<br>
>> Adrian Otto wrote:<br>
>>> This pursuit is a trap. Magnum should focus on making native container<br>
>>> APIs available. We should not wrap APIs with leaky abstractions. The<br>
>>> lowest common denominator of all COEs is an remarkably low value API<br>
>>> that adds considerable complexity to Magnum that will not<br>
>>> strategically advance OpenStack. If we instead focus our effort on<br>
>>> making the COEs work better on OpenStack, that would be a winning<br>
>>> strategy. Support and compliment our various COE ecosystems.<br>
><br>
>So I'm all for avoiding 'wrap APIs with leaky abstractions' and 'making<br>
>COEs work better on OpenStack' but I do dislike the part about COEs<br>
>(plural) because it is once again the old non-opinionated problem that<br>
>we (as a community) suffer from.<br>
><br>
>Just my 2 cents, but I'd almost rather we pick one COE and integrate<br>
>that deeply/tightly with openstack, and yes if this causes some part of<br>
>the openstack community to be annoyed, meh, to bad. Sadly I have a<br>
>feeling we are hurting ourselves by continuing to try to be everything<br>
>and not picking anything (it's a general thing we, as a group, seem to<br>
>be good at, lol). I mean I get the reason to just support all the<br>
>things, but it feels like we as a community could just pick something,<br>
>work together on figuring out how to pick one, using all these bright<br>
>leaders we have to help make that possible (and yes this might piss some<br>
>people off, to bad). Then work toward making that something great and<br>
>move on...<br>
><br>
>><br>
>> I'm with Adrian on that one. I've attended a lot of container-oriented<br>
>> conferences over the past year and my main takeaway is that this new<br>
>> crowd of potential users is not interested (at all) in an<br>
>> OpenStack-specific lowest common denominator API for COEs. They want to<br>
>> take advantage of the cool features in Kubernetes API or the versatility<br>
>> of Mesos. They want to avoid caring about the infrastructure provider<br>
>> bit (and not deploy Mesos or Kubernetes themselves).<br>
>><br>
>> Let's focus on the infrastructure provider bit -- that is what we do and<br>
>> what the ecosystem wants us to provide.<br>
>><br>
><br>
>__________________________________________________________________________<br>
>OpenStack Development Mailing List (not for usage questions)<br>
>Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" rel="noreferrer" target="_blank">
OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
><a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
<br>
<br>
__________________________________________________________________________<br>
OpenStack Development Mailing List (not for usage questions)<br>
Unsubscribe: <a href="http://OpenStack-dev-request@lists.openstack.org?subject:unsubscribe" rel="noreferrer" target="_blank">
OpenStack-dev-request@lists.openstack.org?subject:unsubscribe</a><br>
<a href="http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev" rel="noreferrer" target="_blank">http://lists.openstack.org/cgi-bin/mailman/listinfo/openstack-dev</a><br>
</div>
</div>
</blockquote>
</div>
<br>
<br clear="all">
<div><br>
</div>
-- <br>
<div class="gmail_signature">
<div dir="ltr">
<div>
<div dir="ltr"><font color="#999999"><span style="background-color:rgb(255,255,255)">Georgy Okrokvertskhov<br>
Director of Performance Engineering,<br>
<span style="font-family:arial; font-size:small">OpenStack Platform Products,</span><br>
Mirantis</span><br>
<a href="http://www.mirantis.com/" target="_blank">http://www.mirantis.com</a><br>
Tel. +1 650 963 9828<br>
Mob. +1 650 996 3284</font><br>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</div>
</body>
</html>