Le site de l'association Future of Life.Une centaine d’experts de la robotique, dont fait partie Elon Musk, alerte l’ONU sur les risques liés aux « robots tueurs autonomes ». Mais il se pourrait bien que ce soit déjà vain.
Vous souvenez-vous de l’histoire de Pierre et le loup ? Celle de ce petit garçon qui fait sans cesse croire aux villageois à une attaque du loup. Mais le jour où ce dernier pointe réellement le bout de son nez, plus personne ne le croit… C’est aussi ce qu’on pourrait appeler « l’effet Elon Musk ». Car aussi brillant que ce soit le monsieur, la multiplication de ses prises de parole et/ou contributions à se méfier de l’essor de l’intelligence artificielle et de la robotique a parfois tendance à provoquer l’effet inverse.
Michel-Edouard Leclerc (oui, celui des magasins) représente ce que l’on décrit ici. Dans un court post sur LinkedIn, il rappelle que si ce sont de vraies problématiques (guerre des robots, IA, épuisement des ressources, etc.), il est « étonné du crédit » porté au « contre-projet » d’Elon Musk. « Je suis d'une génération à laquelle un célèbre Club de Rome a prédit la fin du pétrole en 1990 ! Et ce alors qu'une non moins prestigieuse fondation annonçait une croissance européenne tirée par la France dès les années 1990 », s’amuse-t-il.
Faut-il pour autant ne pas considérer la lettre ouverte d’une centaine de spécialistes de l’IA et de la robotique, réunis au sein de Future of Life, et envoyée à l’ONU ? Certainement pas ! D’autant plus que certains des signataires sont de telles sommités qu’il est difficile de ne pas les prendre en compte : les fondateurs de DeepMind (Demis Hassabis & Mustafa Suleyman), Elon Musk (Tesla, SpaceX) évidemment, Samir Sinha de Robonomics AI et aussi six représentants des entreprises françaises Dibotics, Qucit, Aldebaran Robotics, Heuritech, Enova Robotics, Snips & Ants Open Innovation Labs.
Déjà trop tard ?
Concise, la lettre ouverte va droit au but : c’est un appel à l’ONU pour protéger les citoyens tant qu’il est encore temps. « Les armes létales autonomes (autrement dit, des robots tueurs, NDLR) menacent de devenir la troisième révolution dans les conflits armés. Une fois développées, elles permettront de combattre à une échelle plus grande que jamais, et à des vitesses plus rapides que ce que pourront comprendre les humains. Cela pourrait être des armes de terreur, que des despotes ou des terroristes pourraient utiliser contre des populations innocentes, sans compter que ces armes pourraient être hackées », lit-on dans le texte qui se conclut sur ces mots : « Une fois la boîte de Pandore ouverte, elle sera difficile à refermer ».
Ils finissent aussi par demander à l’ONU de « trouver un moyen de nous protéger tous de ces dangers ». La réflexion qui devrait être engagée est plutôt désormais sur la manière d’empêcher la conception de telles armes létales autonomes si les moyens techniques et technologiques le permettent. Car aussi vénérable soit l’intention de la centaine de chercheurs signataires de la lettre, combien ne l’ont pas signé ?