Google définit les principes d’une IA éthique

Le géant a publié une charte de bonnes pratiques autour de l’intelligence artificielle. Il s’y fixe un certain nombre de limites, s’interdisant le développement de technologies pouvant porter atteinte à la vie ou aux droits humains.


« Don’t be Evil » a disparu de la charte de Google, ce qui n’empêche pas le géant d’affirmer faire le bien... Notamment en termes d’IA. Après avoir annoncé la fin du projet Maven (une collaboration avec le Pentagone) devant la grogne de ses salariés, Mountain View avait promis de fixer par écrit les limites éthiques de ses travaux dans le domaine de l’intelligence artificielle.

C’est désormais chose faite. Sundar Pichai a pris la plume pour décliner les sept grands principes (je ne m’attendais vraiment pas au 6ème) que Google a à cœur de respecter. « Ce ne sont pas des concepts théoriques; ce sont des normes concrètes qui régiront activement notre recherche et notre développement de produits et qui auront une incidence sur nos décisions d'affaires » écrit le CEO de Google.

  1. Être socialement bénéfique
  2. Éviter de créer ou de renforcer des biais injustes.
  3. Être développé et testé pour la sécurité.
  4. Être responsable devant les individus.
  5. Incorporer les principes de privacy by design.
  6. Maintenir des normes élevées d'excellence scientifique.
  7. Être mis à disposition pour des utilisations conformes à ces principes.

Google rend les armes

Ce faisant, Sundar Pichai énumère quatre cas d’utilisation de l’IA que Google ne mettra jamais en œuvre, auxquels il se refusera de participer. Armes et autres technologies potentiellement létales, outils de surveillance de masse, technologies violant les droits humains et les lois internationales : voici les terrains sur lesquels Mountain View n’expérimentera pas. Plus globalement, Google renonce à toute technologie risquant de causer un « préjudice global »… à moins que les bénéfices surpassent l’ampleur du préjudice et qu’il soit possible d’y incorporer des gardes-fous.

Désormais, tout est une question d’interprétation de ce code de conduite dont les frontières sont particulièrement floues. Google ne s’en cache pas, il explique un peu plus bas qu’il continuera de travailler avec les gouvernements et les militaires dans d’autres domaines : la cybersécurité, la formation, le recrutement militaire, les soins de santé des anciens combattants et la recherche et le sauvetage.