Une semaine après la KubeCon, la conférence utilisateurs de Kubernetes qui s’est tenue à Copenhague, l’OpenStack Summit s’est ouvert pour toute cette semaine à Vancouver au Canada. La technologie des containers est au centre des débats et il est un peu trop rapide de dire que les jeux sont faits autour de cette technologie et du socle technologique qui la sous-tend.
Si personne ne remet en cause la prééminence de Kubernetes et des containers dans les mois ou années à venir, les scénarios de mises en œuvre et les piles logicielles d’infrastructure sous-jacentes ne sont pas totalement déterminés. En tout cas, la communauté autour d’Open Stack met les bouchées double pour adapter et intégrer les containers dans sa pile d’infrastructure.
Les containers au centre des débats
Ce sont près de 70 sessions techniques qui sont consacrés aux containers lors de l’événement avec comme nouveauté la sortie de Kata Containers V1. La version fusionne les Clear Containers d’Intel et la technologie Run V d’Hyper.sh. Les deux entités appellent les utilisateurs actuels à migrer vers Kata Containers 1.0 pour profiter le plus rapidement possible des avantages de cette nouvelle version.
En pratique le container est embarqué dans une machine virtuelle minimale. Ces éléments ne partagent pas le kernel ce qui est une avancée par rapport à ce qui se fait actuellement avec les machines virtuelles qui réalisent l’isolation au niveau de l’espace de nommage en partageant le kernel. Les bénéfices sont importants en terme de sécurité et la faible empreinte de la machine virtuelle utilisée ne compromet pas les performances avec un overhead estimé à 3 % seulement.
Le projet Kata Containers peut être installé sur tout type de matériel. Le logiciel est compatible avec la spécification Open Container Initiative (OCI) et le container runtime interface (CRI) pour Kubernetes.
Kata Containers 1.0 assume des charges de travail mixtes et la communauté a l’intention d’étendre cette prise en charge au passage des périphériques et accélérateurs dans ses versions postérieures à 1.0. ARM, Dell/EMC, Intel et Red Hat ont annoncé leur soutien financier au projet et les sociétés suivantes participent à celui-ci : 99cloud, AWcloud, Canonical, China Mobile, City Network, CoreOS, EasyStack, Fiberhome, Google, Huawei, JD.com, Mirantis, NetApp, SUSE, Tencent, Ucloud et UnitedStack.
De plus la communauté Open Stack a réalisé de gros efforts d’intégration avec Kubernetes. Les premiers résultats sont qu’Open Stack Cloud est un des cloud cible dans le dernier tableau de bord de la CNCF (Cloud Native Computing Foundation).
L’OpenStack Cloud Provider, le gestionnaire de contrôle externe du cloud pour l’exécution de Kubernetes dans un cluster OpenStack, a un nouveau domicile permanent. Cloud Provider OpenStack donne à Kubernetes un accès direct aux ressources OpenStack telles que les informations d’instance de calcul Nova, le stockage de blocs Cinder et l’équilibrage des charges Neutron et Octavia. Cinder propose maintenant un point d’intégration unique pour plus de 80 options de stockage différentes via une seule API Cinder API avec le choix de pilotes d’interface de stockage (Container Storage Interface ou CSI) Flex ou Container.
La communauté a documenté la manière d’intégrer l’authentification et l’autorisation Keystone à l’aide du contrôle d’accès basé sur le rôle (role-based access control ou RBAC) Kubernetes. Cette approche permet à Kubernetes d’utiliser OpenStack Keystone comme service d’identification.
Enfin, un livre blanc décrit les scénarios de combinaison d’OpenStack et de Kubernetes et donne un aperçu des projets open source d’OpenStack et autres, qui permettent de fournir des applications de containers. En outre, le livre blanc examine la manière dont les membres de la communauté OpenStack utilisent les containers en production pour résoudre les problèmes et débloquer de nouvelles capacités. Vous pouvez le télécharger ici : https://www.openstack.org/containers/whitepaper