
OpenAI s'oppose à un projet de loi en Californie qui imposerait de nouvelles exigences de sécurité aux entreprises d' intelligence artificielle, rejoignant un chœur de leaders technologiques et politiques qui se sont récemment prononcés contre la législation controversée.
La startup, basée à San Francisco, affirme que le projet de loi nuirait à l' innovation dans le secteur de l' IA et soutient que la réglementation dans ce domaine devrait venir du gouvernement fédéral et non des états, selon une lettre envoyée mercredi au bureau du sénateur d'État de Californie Scott Wiener et obtenue par Bloomberg News. La lettre exprimait également la préoccupation que le projet de loi, s'il était adopté, pourrait avoir des implications “étendues et significatives” pour la compétitivité des États-Unis en IA et pour la sûreté nationale.
Le projet de loi SB 1047, présenté par Wiener, vise à promulguer ce que son bureau a qualifié de “normes de sécurité de bon sens” pour les entreprises qui fabriquent de grands modèles d' IA dépassant un seuil de taille et de coût spécifiques. Le projet de loi, qui a été approuvé par le Sénat d'État en mai, exigerait des entreprises d' IA qu'elles prennent des mesures pour éviter que leurs modèles ne causent des “dommages critiques”, comme permettre le développement d' armes biologiques susceptibles de provoquer des pertes humaines massives ou contribuer à des dommages financiers supérieurs à 500 millions de dollars.
Selon le projet de loi, les entreprises devraient s'assurer que les systèmes d' intelligence artificielle peuvent être déconnectés, prendre des “précautions raisonnables” pour éviter que les modèles d' IA ne provoquent des catastrophes et soumettre une déclaration de conformité au procureur général de Californie. Si les entreprises ne respectent pas ces exigences, elles pourraient être poursuivies et faire face à des sanctions civiles.

Le projet de loi a reçu une opposition féroce de la part de nombreuses grandes entreprises technologiques, startups et investisseurs en capital-risque qui affirment qu'il s'agit d'une empiètement sur une technologie qui est encore à ses débuts et que cela pourrait étouffer l' innovation technologique dans l'État. Certains opposants à la loi craignent qu'elle puisse chasser les entreprises d' IA de Californie. OpenAI a fait écho à ces préoccupations dans la lettre envoyée au bureau de Wiener.
“La révolution de l'IA ne fait que commencer, et le statut unique de Californie en tant que leader mondial en matière d' IA propulse le dynamisme économique de l'État”, a écrit Jason Kwon, directeur de la stratégie d' OpenAI, dans la lettre. “Le SB 1047 menacerait cette croissance, ralentirait le rythme de l' innovation et conduirait des ingénieurs et des entrepreneurs de classe mondiale de Californie à quitter l'État à la recherche de meilleures opportunités ailleurs.”
OpenAI a suspendu les discussions sur l'expansion de ses bureaux à San Francisco en raison de l'incertitude concernant le paysage réglementaire en Californie, selon une personne familière avec les plans immobiliers de l'entreprise qui a demandé à rester anonyme pour discuter de conversations internes.
Dans un communiqué, Wiener a défendu la législation proposée et a déclaré que la lettre d' OpenAI “ne critique aucune disposition du projet de loi”. Il a également déclaré que l'argument concernant le talent de l'IA qui quitterait l'État “n'a pas de sens” car la loi s'appliquerait à toute entreprise effectuant des affaires en Californie, quelle que soit l'emplacement de ses bureaux. Un représentant du bureau de Wiener a souligné deux experts renommés en sûreté nationale qui ont publiquement soutenu le projet de loi.

“En résumé : Le SB 1047 est un projet de loi très raisonnable qui demande aux grands laboratoires d' IA de faire ce qu'ils se sont déjà engagés à faire, c'est-à-dire tester leurs grands modèles pour détecter les risques de sûreté catastrophiques”, a déclaré Wiener. “Le SB 1047 est bien calibré avec ce que nous savons sur les risques prévisibles de l' IA, et mérite d'être promulgué.”
Les opposants soutiennent que le projet de loi entravera l' innovation en exigeant des entreprises qu'elles présentent des détails sur leurs modèles au gouvernement d'État, en plus d'empêcher les développeurs de code ouvert plus petits de créer des startups par crainte d'être poursuivis.
La semaine dernière, dans un effort pour contrer certaines des critiques, Wiener a modifié la législation proposée pour supprimer la responsabilité pénale des entreprises technologiques qui ne respectent pas la réglementation, a ajouté une protection pour les développeurs de modèles de code ouvert plus petits et a abandonné la nouvelle “Division des Modèles Avancés” proposée.
Auparavant, les développeurs pouvaient encourir des sanctions pénales pour avoir intentionnellement présenté au gouvernement des informations fausses sur leurs plans de sûreté sous peine de parjure. Le concurrent d' OpenAI, Anthropic, qui est réputé être plus orienté vers la sûreté que ses concurrents, avait précédemment déclaré qu'il soutiendrait le projet de loi avec certaines de ces amendements.

Mais même après la présentation des amendements, le projet de loi continue d'accumuler des opposants, y compris l'ancienne présidente de la Chambre des représentants Nancy Pelosi, qui a publié une déclaration le qualifiant de “mal informé”. Un groupe de congressistes démocrates s'est également opposé publiquement au projet de loi.
OpenAI et d'autres entreprises de l' industrie technologique ont engagé des groupes de pression qui ont travaillé sur le projet de loi, selon les archives d'État. Dans la lettre, OpenAI affirme qu'elle a travaillé pendant plusieurs mois avec le bureau de Wiener sur le projet de loi, mais qu'elle ne le soutient finalement pas.
“Nous devons protéger l'avantage de l' IA en États-Unis avec un ensemble de politiques fédérales — plutôt que d'étatiques — qui peuvent fournir clarté et certitude aux laboratoires et développeurs d' IA, tout en préservant la sûreté publique”, selon la lettre.
OpenAI a également déclaré qu'avoir un cadre fédéral clair “aiderait les États-Unis à maintenir leur avantage compétitif face à des pays comme la Chine et à faire avancer la gouvernance et les valeurs démocratiques dans le monde entier.” OpenAI a soutenu que des organismes fédéraux comme la Maison Blanche, Bureau de Politique Scientifique et Technologique, le Département du Commerce et le Conseil de Sécurité Nationale sont plus adaptés à la gouvernance des risques critiques de l' IA que les organismes d'État du gouvernement de Californie.

L'entreprise affirme qu'elle soutient plusieurs propositions législatives fédérales, comme la Lois sur l'avenir de l'innovation en intelligence artificielle (Future of AI Innovation Act), qui prévoit le soutien du Congrès au nouvel Institut de Sûreté en Intelligence Artificielle des États-Unis. “Comme je l'ai dit à plusieurs reprises, je conviens que l'idéal serait que le Congrès s'occupe de cela,” déclare Wiener dans le communiqué. “Cependant, le Congrès ne l'a pas fait et nous sommes sceptiques quant à la probabilité qu'il le fasse.”
Selon l'argument de OpenAI concernant le Congrès, Californie n'aurait jamais approuvé sa loi sur la confidentialité des données, et compte tenu de l'inaction du Congrès, les Californiens n'auraient aucune protection pour leurs données. Le SB 1047 sera voté à l'assemblée de l'État de Californie à un moment donné ce mois-ci. S'il est approuvé, il sera finalement envoyé sur le bureau du gouverneur de Californie, Gavin Newsom. Bien que Newsom n'ait pas indiqué s'il pourrait opposer son veto au projet de loi, il a parlé publiquement de la nécessité de promouvoir l' innovation en IA en Californie tout en atténuant ses risques.
(c) 2024, Bloomberg