IA

Pixtral-Large, le LLM signé Mistral qui veut surpasser ChatGPT

Le modèle multimodal Pixtral-Large de Mistral AI, construit sur la base de Mistral Large 2, intègre 124 milliards de paramètres et surpasse les performances de Gemini 1.5 Pro, GPT-4o, et Claude-3.5 Sonnet.

Un peu à la traîne par rapport aux acteurs américains en matière de levée de fonds, l’entreprise française Mistral AI cherche à se distinguer en dépassant les modèles concurrents. Elle a récemment dévoilé Pixtral-Large, un nouveau modèle de langage (LLM) basé sur Mistral Large 2. Avec ses 124 milliards de paramètres, ce modèle multimodal est capable d’analyser non seulement des documents, mais aussi des graphiques et des images.

Pixtral-Large est disponible sous deux types de licences :

- Licence de Recherche Mistral (MRL) : pour des usages éducatifs et de recherche.

- Licence Commerciale Mistral : pour des expérimentations, des tests, et une utilisation en production à des fins commerciales.

Plus puissant que GPT-4o

Fidèle à ses habitudes, Mistral n’a pas hésité à comparer Pixtral-Large à ses concurrents directs (voir tableau comparatif). « Nous avons évalué Pixtral-Large face à des modèles de pointe sur plusieurs benchmarks multimodaux standards, en utilisant une plateforme de test commune. Par exemple, sur MathVista, qui mesure le raisonnement mathématique complexe à partir de données visuelles, Pixtral-Large atteint un score de 69,4 %, surpassant tous les autres modèles », souligne Mistral.

Capture décran 2024 11 19 à 16.18.33 copie

Pixtral-Large dépasse également GPT-4o et Gemini-1.5 Pro dans les tâches de raisonnement appliqué à des graphiques complexes et des documents. Il surpasse Claude-3.5 Sonnet, Gemini-1.5 Pro et GPT-4o sur MM-MT-Bench, un benchmark open-source conçu pour refléter des cas d’utilisation réels de modèles multimodaux.

Mistral prévoit de rendre Pixtral-Large accessible via ses partenaires cloud, en commençant par Google Cloud et Microsoft Azure, d’ici une semaine.