Anthropic, Palantir et Amazon Web Services (AWS) se sont alliés pour offrir un accès aux modèles Claude 3 et 3.5 aux organisations de défense et de renseignements américaines.
Anthropic vient-elle de franchir le Rubicon ? L’entreprise, concurrente d’OpenAI, est désormais partenaire de Palantir et de la filiale cloud d’Amazon pour mettre à disposition des services de renseignement américains la puissance de ses modèles Claude 3 et 3.5.
Concrètement, les trois partenaires fourniront une suite intégrée dans la plateforme d’IA de Palantir (AIP) pour l’utilisation des modèles Claude. Ce partenariat vise à favoriser « une application responsable de l’IA », qui soutiendra les opérations des services de renseignement américains, selon un communiqué. Au menu, des capacités accrues de traitement des données pour renforcer l’analyse des renseignements dans des environnements classifiés, l’identification de motifs et tendances, la révision et la préparation de documents, ainsi que l’aide à la prise de décision dans des situations critiques.
L’éthique en question
En janvier dernier, OpenAI a levé les restrictions relatives à l'utilisation de ses technologies à des fins militaires. Lundi dernier, c’était au tour de Meta d’annoncer que son modèle open source Llama serait mis à disposition pour des applications militaires et de sécurité nationale. Llama va être mis « à la disposition des agences gouvernementales américaines, y compris celles qui travaillent sur des applications de défense et de sécurité nationale, ainsi que des partenaires du secteur privé qui les soutiennent dans leur travail. »
Ce rapprochement entre l’industrie de l’IA et l’armée soulève des questions éthiques autour de la surveillance de masse, du rôle des IA dans la prise de décisions critiques, ainsi que des risques associés à une concentration accrue de pouvoir entre les mains de quelques géants technologiques.