La maison mère de Facebook vient de lever le voile sur la deuxième génération de puces MTIA pour l’intelligence artificielle. Gravée plus finement, elle bénéficie aussi de plus de cache.
Meta dévoile ses nouvelles puces pour l’IA. La maison mère de Facebook vient de présenter la dernière itération de ses processeurs MTIA qui doivent apporter des performances 7 fois supérieures à ce dont étaient capables les précédentes versions sur les charges de travail d’intelligence artificielle. Pour rappel, ces dernières ne sont pas optimisées pour la formation en IA mais se concentrent principalement sur l'inférence ou l’exécution de modèles d'IA en production.
Comme sa prédécesseuse, la nouvelle MTIA comprend 64 modules de calcul baptisés PE, optimisés pour les tâches d'inférence d'IA. Chaque PE dispose d'un cache dédié qu'il peut utiliser pour stocker des données afin d’avoir une mémoire au plus proche des circuits logiques et accélérer ainsi le traitement. Si Meta avait initialement fabriqué ses PE en utilisant le processus de fabrication en 7 nanomètres de Taiwan Semiconductor Manufacturing Company (TSMC), la nouvelle génération bénéficie d’une nouvelle architecture en 5 nanomètres.
Le cache intégré à chaque module de calcul est par ailleurs passé de 128 Ko à 384 Ko. Il s’appuie sur une technologie de mémoire appelée SRAM, plus rapide que la DRAM et donc plus adaptée à l’alimentation de puces hautes performances. Meta a déjà commencé à implémenter ces nouvelles puces au sein de ses datacenters sur des baies au format rack embarquant chacune 2 puces MTIA.