IA

Le gouverneur de Californie met son veto sur un projet de régulation de l’IA

Le projet de loi de régulation des systèmes d’intelligence artificielle de l’État de Californie a finalement été bloqué par le gouverneur de l’État, Gavin Newsom. Le texte imposait notamment la mise en place de tests de sécurité, d’audits, ou encore de mécanismes de désactivation des systèmes d’IA en cas de risques importants.

Gavin Newsom s’est rangé du côté des géants de l’IA. Le gouverneur de Californie a annoncé, dimanche 29 septembre, qu’il mettait son veto au projet de réglementation de l'intelligence artificielle générative SB 1047. Un texte pourtant voté par la majorité des élus du Golden State fin août.

Un texte « bien intentionné », mais…

Le motif du refus avancé par le gouverneur démocrate est on ne peut plus clair : il s’agit de préserver le leadership des États-Unis en matière d’intelligence artificielle. « La Californie abrite 32 des 50 principales entreprises d'IA au monde, pionnières dans l'une des avancées technologiques les plus significatives de l'histoire moderne. Nous sommes leaders dans ce domaine grâce à nos institutions de recherche et d'éducation, à notre main-d'œuvre diverse et motivée, et à notre culture libre d'encouragement à la liberté intellectuelle. En tant que gardien et innovateur du futur, je prends au sérieux la responsabilité de réguler cette industrie. », écrit le gouverneur dans son courrier adressé aux membres du Sénat de l'État de Californie.

S’il juge le texte SB1047 « bien intentionné », l’élu estime toutefois qu’il ne prend pas en compte si un système d'IA est déployé dans un environnement à haut risque, s'il implique des prises de décision critiques ou l'utilisation de données sensibles. « Au lieu de cela, le projet de loi applique des normes strictes même aux fonctions les plus basiques, tant qu'un grand système les déploie. Je ne crois pas que ce soit la meilleure approche pour protéger le public contre les véritables menaces posées par cette technologie », poursuit Newsom.

Le gouverneur rappelle que des garde-fous doivent être mis en œuvre, mais selon lui, la réglementation doit suivre le rythme de l’évolution technologique et se baser sur des preuves « empiriques et scientifiques ».

La Silicon Valley vent debout contre le texte

Vivement critiqué par les acteurs du secteur, SB1047 devait imposer aux développeurs d’appliquer des protocoles stricts afin d’éviter que leurs systèmes ne causent des dommages considérables, tels que des cyberattaques, le blocage de réseaux électriques, et même la prolifération d’armes nucléaires. Ils devaient, par exemple, donner la possibilité de désactiver les systèmes d’IA, conserver les documents de sécurité, et autoriser l'accès du Procureur général à ces informations. Le projet de loi prévoyait également des audits annuels par des tiers, des protections pour les lanceurs d'alerte, et autorisait le Procureur général à engager des actions civiles en cas de non-conformité.