Alors que le manque de régulation et les dérives avérées ou potentielles de l’IA font largement débat dans la société, Google a annoncé la création du Digital Futures Project, un fonds qui doit financer des think tanks et des universitaires afin d’imaginer une IA plus responsable.
Depuis l’avènement de ChatGPT en novembre 2022 et de nombreux concurrents depuis, les critiques se multiplient quant au développement très rapide et parfois anarchique de ces solutions. ChatGPT en a déjà fait les frais en Italie, après avoir été bloqué suite à des soupçons de violation de données personnelles. En France, le chatbot conversationnelle d’OpenAI a fait l’objet de plusieurs dépôts de plainte. Et en Union européenne, le lancement de Bard a longtemps été retardé dans l’attente d’une étude d’impact.
Et les dix premiers bénéficiaires sont…
Et forcément, en face, les géants du secteur tentent de montrer patte blanche et les initiatives se multiplient afin de soulager les inquiétudes des régulateurs et des plus bileux. Lundi 11 septembre, Google a annoncé le lancement du Digital Futures Project, un fonds doté de 20 millions de dollars qui doit soutenir le développement d’une IA responsable. La somme va être distribuée sous forme de subventions « aux principaux groupes de réflexion et institution universitaires du monde entier », promet la firme.
Les premiers bénéficiaires du fonds seront l'Aspen Institute, la Brookings Institution, le Carnegie Endowment for International Peace, le Center for a New American Security, le Center for Strategic and International Studies, l'Institute for Security and Technology, le Leadership Conference Education Fund, le MIT Work for the future, R Street Institute et SeedAI.
Google attend de ces organisations approfondissent les problématiques suivantes : l’impact de l’IA sur la sécurité mondiale et comment peut-elle être utilisée pour renforcer la sécurité des institutions et des entreprises ? ; quel sera l’impact de l’IA sur le travail et l’économie, quelles mesures prendre pour faire évoluer la main-d’œuvre vers les emplois basés sur l’IA ; comment les gouvernements peuvent-ils utiliser l’IA pour stimuler la productivité et la croissance économique ? ; et quels types de structures de gouvernance et d’efforts intersectoriels peuvent le mieux promouvoir une innovation responsable en matière d’IA ?
Une première initiative lancée en juillet cet été
Ce n’est pas la première initiative du genre. En juillet dernier, après une visite à la maison blanche durant laquelle, Google, Microsoft, OpenAI et Anthropic s’étaient engagés à respecter des principes de sûreté, de sécurité et de confiance, les quatre comparses ont entériné la création du Frontier Model Forum, un groupe d'intérêt qui doit accompagner de manière responsable le développement des IA tout en pesant sur l’élaboration du cadre réglementaire. Ils se sont également engagés à tester leurs programmes, lutter contre la fraude et les cyberattaques puis développer des moyens techniques d’authentifier clairement les contenus générés par des IA.