Le fournisseur de solutions d’infrastructure se renforce dans l’IA avec la reprise d’un pionnier dans les logiciels et algorithmes conçus pour accélérer les charges d'inférence d'IA générative (Gen AI). L'expertise en ingénierie des performances des inférences et l'engagement de Neural Magic en faveur du modèle open source sont complètement alignés avec la vision de Red Hat.
Neural Magic a été créée par le MIT en 2018 dans l'optique de créer des logiciels d'inférence performants destinés au deep learning. Grâce à l'expertise de Neural Magic dans la technologie et l'ingénierie des performances, Red Hat entend accélérer sa vision d'avenir pour l'IA en s'appuyant sur le portefeuille technologique Red Hat AI. Neural Magic s'appuie sur son expertise et ses connaissances de la bibliothèque vLLM pour créer une pile d'inférences de niveau entreprise grâce à laquelle ses clients peuvent optimiser, déployer et mettre à l'échelle leurs charges de travail LLM d'un bout à l'autre de leurs environnements de cloud hybrides, avec un contrôle total sur le choix de l'infrastructure, des règles de sécurité et du cycle de vie des modèles. Par ailleurs, Neural Magic mène des recherches concernant l'optimisation des modèles, développe le LLM Compressor (une bibliothèque unifiée d'optimisation des LLM qui comporte des algorithmes de quantification et de parcimonie), et maintient un référentiel de modèles pré-optimisés et prêts à être déployés avec le référentiel vLLM. Cela permettra à l'IA de Red Hat de mieux gérer les déploiements de modèles LLM d'un bout à l'autre des environnements de cloud hybrides avec une pile d'inférences ouverte, prête à l'emploi et hautement optimisée.
La transaction est sujette aux réserves réglementaires applicables et aux conditions de clôture habituelles.