Les modèles de Mistral AI disponibles sur Google Cloud

Après l’intégration native de son LLM ouvert dans la plateforme de machine learning de Google, Vertex AI, Mistral AI va s'appuyer sur l’infrastructure cloud du géant pour développer ses prochains LLM.

Quelques jours à peine après avoir bouclé sa levée de fonds à 385 millions d’euros, la licorne française Mistral AI, spécialisée dans l’IA open-source, a annoncé qu’elle utilisera l'infrastructure de Google Cloud pour distribuer et commercialiser ses grands modèles de langage.

« Cet accord non exclusif (Mistral AI pourra être approché par d’autres fournisseurs, ndlr) fait suite à l'intégration native du LLM ouvert 7B de Mistral AI dans le jardin de modèles de Vertex AI. Celle-ci permet aux développeurs et aux entreprises de lancer plus facilement leurs propres applications et services d'intelligence artificielle », ont détaillé les deux partenaires dans un communiqué commun.

Concrètement, Google Cloud va mettre à disposition sa pile matérielle et logicielle à Mistral AI afin qu’elle construise des modèles d'IA open source plus importants et disponibles en plusieurs langues. « Cela nous permettra de déployer des modèles plus facilement accessibles pour tous types d'organisations dans le monde entier », a déclaré Arthur Mensch, PDG et cofondateur de Mistral AI.

Un premier modèle rapidement déployé

Dans le cadre de cet accord, Mistral 7B bénéficiera quant à lui d’un avantage commercial certain, puisque, de par sa taille relativement compacte, il devrait pouvoir être déployé rapidement sur le cloud des clients de Google intéressés.

Ce LLM à 7 milliards de paramètres peut être utilisé pour réaliser des synthèses, structurer des réponses à des questions notamment. Lors de son lancement début octobre, Mistral AI avait affirmé qu’il approchait les performances de CodeLlama 7B de Meta, surclassait Llama 2 13B sur tous les benchmarks et Llama 1 34B « sur de nombreux benchmarks ». Suite à sa dernière levée de fonds, Mistral AI a présenté un nouveau LLM baptisé Mixtral 8x7B qui lui dépasse le LLM de Meta Llama 70B dans plusieurs benchmarks et sera disponible sur la marketplace de Google Cloud.