
Les délégués républicains réunis cette semaine à Milwaukee se sont engagés à annuler les restrictions fédérales sur l'intelligence artificielle, tandis que d'autres alliés de l'ancien président Donald Trump ont proposé des plans pour des "projets Manhattan" visant à renforcer l'IA militaire.
Cependant, en Californie, la législature de l'État, contrôlée par les démocrates, se déplace dans une direction opposée et débat d'une proposition qui obligerait les plus grandes et mieux financées entreprises à tester leur IA pour détecter les risques "catastrophiques" avant de la lancer au public.
La mesure, rédigée par Scott Wiener, un sénateur d'État démocrate de San Francisco, a provoqué des cris d'alarme de la part des dirigeants de l'industrie technologique, qui soutiennent que cela effraierait les technologues cherchant à construire des outils d'IA dans l'État et ajouterait des tâches bureaucratiques qui pourraient mettre les start-ups en difficulté. Les opposants au projet de loi ont affirmé que cela pourrait même conduire à ce que les développeurs soient envoyés en prison si leur technologie est utilisée pour nuire aux personnes, ce que Wiener a vigoureusement nié.
Après l'approbation du projet de loi par un comité du Sénat de Californie au début de ce mois, la directrice de l'intelligence artificielle et de la politique technologique émergente de Google, Alice Friend, a écrit une lettre au président arguant que ses dispositions "ne sont pas techniquement faisables" et "puniraient les développeurs même s'ils ont agi de manière responsable".
Wiener affirme que la loi est nécessaire pour prévenir les risques potentiels les plus extrêmes de l'IA et instaurer une confiance dans la technologie. Son adoption est urgente, a-t-il déclaré, à la lumière des engagements républicains de défaire l'ordre exécutif de 2023 du président Biden, qui utilise la Loi sur la production de défense pour exiger des entreprises d'IA qu'elles partagent des informations sur les tests de sécurité avec le gouvernement.
“Cette action de Trump rend encore plus important que la Californie agisse pour promouvoir une innovation solide en intelligence artificielle”, a déclaré Wiener sur X la semaine dernière. Le projet de loi a transformé Sacramento en épicentre de la lutte pour la régulation gouvernementale de l'IA. Cela met également en lumière les limites de l'enthousiasme de la Silicon Valley pour la supervision gouvernementale, même si des dirigeants clés comme le CEO d'OpenAI, Sam Altman, exhortent publiquement les décideurs politiques à agir.

En imposant des engagements qui étaient auparavant volontaires, le projet de loi de Wiener va au-delà de ce que les leaders technologiques sont prêts à accepter, a déclaré Nicol Turner Lee, directrice du Centre d'innovation technologique de la Brookings Institution. “Cela suggère que les grandes entreprises technologiques doivent être beaucoup plus responsables,” a déclaré Lee, “et cela n'a pas été bien reçu dans l'industrie.”
Dylan Hoffman, CEO de TechNet pour la Californie et le sud-ouest, a déclaré que la lettre de Friend, ainsi que des lettres précédentes de Meta et Microsoft, montrent le “poids et l'importance” que les entreprises accordent à cette mesure. “C'est un pas assez extraordinaire pour eux... sortir de l'ombre de l'association commerciale et mettre leur nom sur la lettre.”
Les porte-paroles de Google, OpenAI et Meta ont refusé de faire des commentaires. “Microsoft n'a pas pris de position sur le projet de loi et continuera à soutenir la législation fédérale comme principal moyen de réglementer les problèmes qu'elle aborde”, a déclaré Robyn Hines, directrice senior des affaires gouvernementales chez Microsoft.
Avant même que Wiener ne présente son projet de loi en février, la Californie s'était déjà affirmée comme la législature technologique de facto du pays. Après des années de débats au Congrès, la Californie a adopté en 2018 la loi sur la vie privée numérique la plus ambitieuse du pays. Et le Département des véhicules motorisés de Californie est devenu un régulateur clé des véhicules autonomes.
En ce qui concerne l'IA, l'ordre exécutif de Biden d'octobre dernier a marqué l'effort le plus large de Washington pour réguler cette technologie émergente. Mais les républicains ont annoncé qu'ils prévoyaient de révoquer l'ordre s'il remportait le 5 novembre, laissant aux États le banner d'une régulation plus stricte de l'IA.
Selon TechNet, une association commerciale du secteur dont les membres incluent OpenAI et Google, plus de 450 projets de loi liés à l'IA ont été traités cette année dans les sessions législatives des capitales des États à travers le pays. En Californie, il y a plus de 45 projets en attente, bien que beaucoup aient été abandonnés ou soient bloqués dans des comités.
Cependant, le projet de loi de Wiener est le plus en vue et le plus controversé de tous. Il exigerait que toute entreprise d'intelligence artificielle utilisant une certaine quantité de puissance informatique teste si ses modèles pourraient comporter des risques "catastrophiques", comme aider les gens à développer des armes chimiques ou biologiques, pirater des infrastructures clés ou provoquer des coupures dans les réseaux électriques. Les entreprises soumettraient des rapports de sécurité à un nouveau bureau gouvernemental, la Division des modèles frontaliers (FMD), qui aurait le pouvoir de mettre à jour quels modèles d'intelligence artificielle sont couverts par la loi, quelque chose que, selon les opposants, pourrait générer encore plus d'incertitude.

Le projet de loi charge le gouvernement de créer un système de cloud computing pour les chercheurs et les start-ups, leur permettant de développer de l'IA sans dépendre des dépenses massives des grandes entreprises technologiques. Dan Hendrycks, fondateur de l'organisation à but non lucratif Center for AI Safety, a été consultant dans l'élaboration du projet de loi. L'année dernière, il a organisé une lettre ouverte signée par des chercheurs et des cadres de l'IA de premier plan affirmant que l'IA pourrait être aussi dangereuse pour l'humanité que la guerre nucléaire et les pandémies.
D'autres soutiennent que ces risques sont exagérés et qu'il est peu probable qu'ils se matérialisent pendant des années, si jamais cela devait arriver. Les sceptiques du projet de loi soulignent que, même si ces risques sont imminents, il n'existe pas de forme standard pour prouver leur existence. “La taille n'est pas la bonne métrique”, a déclaré Oren Etzioni, chercheur en intelligence artificielle et fondateur de l'organisation à but non lucratif TrueMedia.org, dédiée à la détection de deepfakes avec intelligence artificielle. “Nous pourrions avoir des modèles qui ne sont pas affectés par cela, mais qui sont potentiellement beaucoup plus dangereux.”
L'accent mis sur les risques "catastrophiques" a également frustré certains chercheurs en IA qui disent qu'il existe des dommages plus tangibles causés par l'IA, comme l'injection de biais raciste et sexiste dans les outils technologiques et fournir un autre endroit pour que les entreprises technologiques absorbent les données personnelles des gens, des questions que d'autres projets de loi en cours dans la législature de Californie visent à aborder.
L'accent mis par le projet de loi sur les risques catastrophiques a même amené le responsable de l'intelligence artificielle de Meta, Yann LeCun, à traiter Hendrycks de "gourou de secte apocalyptique". “L'idée que prendre au sérieux les risques à l'échelle sociale posés par l'IA fait de quelqu'un un ‘gourou d'une secte apocalyptique’ est absurde”, a affirmé Hendrycks.
Récemment, Hendrycks a lancé une entreprise appelée Gray Swan, qui crée des logiciels pour évaluer la sécurité des modèles d'IA. Jeudi, le site d'actualités technologiques Pirate Wires a publié un communiqué avec des accusations selon lesquelles l'entreprise représente un conflit d'intérêts pour Hendrycks, car elle pourrait gagner des affaires en aidant les entreprises à se conformer à la loi sur l'IA si elle est adoptée.
“Les critiques m'ont accusé d'être impliqué dans un plan complexe pour gagner de l'argent, alors qu'en réalité j'ai passé ma carrière professionnelle à travailler pour promouvoir des questions de sécurité en IA”, a déclaré Hendrycks. “J'ai révélé ce qui est un conflit d'intérêts théorique dès que j'ai pu, et ce que je peux gagner avec cette petite start-up représente une fraction infime des intérêts économiques qui poussent le comportement de ceux qui s'opposent au projet de loi.”

Bien que Hendrycks ait été récemment critiqué par certains habitants de la Silicon Valley, les dirigeants des entreprises qui s'opposent à la loi ont émis des avertissements similaires sur le danger des modèles d'IA puissants. Les hauts dirigeants de l'IA de Google, Microsoft et OpenAI ont signé la lettre que le groupe de Hendrycks a distribuée en mai dernier avertissant que l'humanité faisait face à un “risque d'extinction à cause de l'IA”. Lors d'une audience au Congrès le même mois, Altman a déclaré que l'IA pourrait “causer des dommages significatifs au monde”.
L'année dernière, OpenAI s'est également joint à la start-up Anthropic, Google et d'autres entreprises technologiques pour créer un groupe industriel visant à développer des normes de sécurité pour de nouveaux modèles d'IA puissants. La semaine dernière, l'association des entreprises technologiques ITI, dont les membres incluent Google et Meta, a publié un ensemble de meilleures pratiques pour les "systèmes d'IA à haut risque" qui incluent des tests proactifs. Pourtant, ces mêmes entreprises s'opposent à l'idée d'inclure des engagements dans la loi.
Dans une lettre du 20 juin organisée par l'incubateur de start-ups Y Combinator, les fondateurs se sont opposés à l'application d'un examen supplémentaire aux projets utilisant une grande puissance de calcul. “Il se peut que ces métriques spécifiques ne reflètent pas adéquatement les capacités ou les risques associés aux modèles futurs”, disait la lettre. “Il est crucial d'éviter une régulation excessive de l'IA”.
Les dirigeants des start-ups s'inquiètent également du fait que le projet de loi rendra plus difficile pour les entreprises de développer et de lancer des technologies de "code ouvert", qui sont disponibles pour que quiconque les utilise et les modifie. Dans une publication de mars sur X, l'actuel candidat républicain à la vice-présidence JD Vance a décrit le code ouvert comme essentiel pour construire des modèles libres du biais politique d'OpenAI et de la technologie de Google.
Wiener a modifié le projet de loi en réponse aux critiques et commentaires de l'industrie, stipulant entre autres que les développeurs de code ouvert ne sont pas responsables des problèmes de sécurité qui surviennent lorsque des tiers modifient leur technologie. Les critiques de l'industrie affirment que ces ajustements ne sont pas suffisants. Pendant ce temps, d'autres projets de loi en cours dans la législature de Californie ont attiré moins d'attention de la part de l'industrie technologique.
La députée Rebecca Bauer-Kahan, démocrate représentant une banlieue de l'est de la Baie de San Francisco, a rédigé plusieurs projets de loi sur l'intelligence artificielle qui sont en cours d'examen dans la chambre, y compris l'un qui exige que les entreprises testent les modèles d'intelligence artificielle pour détecter les biais. Un autre de ses projets de loi interdirait aux développeurs d'utiliser les informations personnelles des enfants pour former leurs modèles d'intelligence artificielle sans le consentement des parents, ce qui pourrait contredire la pratique de l'industrie technologique de collecter des données d'entraînement sur des sites web.
Les projets de loi sur l'IA présentés par d'autres législateurs de Californie exigeraient que les entreprises technologiques publient des résumés décrivant les données utilisées pour développer des modèles d'IA, créent des outils pour détecter le contenu généré par l'IA et appliquent des filigranes numériques pour rendre le contenu généré par l'IA identifiable, comme certaines entreprises, y compris Google, l'ont déjà tenté.
“Nous aimerions que le gouvernement fédéral prenne l'initiative sur ce sujet”, a déclaré Bauer-Kahan. “Mais en l'absence de leur part et de l'adoption de lois comme celle-ci, Sacramento ressent le besoin de faire un pas en avant.”
Nouveau