
Un projet de loi de l'État de Californie est devenu un point de conflit entre ceux qui pensent que lIA devrait être réglementée pour assurer sa sécurité et ceux qui voient la régulation comme un frein potentiel à l'innovation. Le projet de loi, qui sera soumis à un vote final en août, suscite un débat enflammé et une opposition frénétique parmi les responsables de l'industrie de lIA, y compris parmi certaines entreprises et leaders de lIA qui avaient auparavant appelé à une régulation du secteur. La législation, le Projet de Loi du Sénat de Californie 1047, a pris une plus grande importance alors que les efforts pour réglementer lIA au niveau fédéral se sont avérés évasifs au cours d'une année électorale. Elle vise à limiter le développement et l'utilisation des modèles dIA les plus puissants en exigeant que les développeurs respectent divers critères de sécurité et signalent les incidents de sécurité.
Le discours et la pression autour du projet de loi de Californie, qui a été approuvé par le Sénat de l'État en mai avec 32 votes pour et 1 contre et sera soumis à un vote final en août, ont atteint un point culminant ces dernières semaines. Le sénateur d'État qui a introduit le projet de loi, Scott Wiener, a récemment déclaré à Fortune qu'il compare la lutte, qui oppose des experts en sécurité de lIA à certains des principaux capital-risqueurs de la technologie, à un affrontement 'Jets vs Sharks' – Silicon Valley rencontre West Side Story.
“Je n'avais pas réalisé à quel point la division est toxique,” a-t-il déclaré, quelques jours après avoir publié une lettre publique en réponse à des "déclarations inexactes et incendiaires" de l'incubateur de startups Y Combinator et de la société de capital-risque a16z concernant la législation. La lettre est parue une semaine après que a16z a publié sa propre lettre ouverte affirmant que le projet de loi "freinerait le développement de lIA open source et aurait un effet de refroidissement non seulement sur l'investissement et l'expansion de lIA, mais aussi sur l'entrepreneuriat des petites entreprises qui fait que la Californie est ce qu'elle est aujourd'hui."
Il y a certainement beaucoup de disputes, de discussions et de mèmes sarcastiques sur les réseaux sociaux concernant le SB-1047, dont le titre complet est la Loi sur l'Innovation Sûre et Fiable pour les Modèles de Frontière de l'Intelligence Artificielle. À première vue, le débat pourrait sembler un choc digne de GIFs entre les 'catastrophistes' de lIA — des pessimistes appelant à des régulations contre le prétendu 'risque existentiel' de lIA pour l'humanité — et les 'accélérationnistes' de lIA qui prônent une course effrénée dans le développement de lIA parce qu'ils croient que les avantages de la technologie l'emporteront largement sur tout dommage qu'elle pourrait causer.
Mais le cadre de Wiener — une guerre de gangs entre deux factions rivales disputant un territoire — dilue la gravité des problèmes sous-jacents à la posture politique des deux côtés. Beaucoup considèrent que la régulation de lIA est essentielle pour gérer non seulement les risques connus associés à lIA — des biais et violations de la vie privée jusqu'à la perte d'emplois — mais aussi pour promouvoir des normes éthiques et renforcer la confiance du public. D'un autre côté, certains craignent la capture réglementaire — que la régulation finisse par servir les intérêts de quelques développeurs de modèles dIA, tels que OpenAI, Google, Microsoft, Anthropic et Meta, au détriment d'une concurrence plus large ou des véritables intérêts du public. Beaucoup soupçonnaient lorsque le CEO de OpenAI, Sam Altman, par exemple, a imploré le Congrès de réglementer lIA lors d'une audience en mai 2023. Cependant, le Congrès, qui a tenu de nombreuses audiences sur la régulation de lIA l'année dernière, a principalement renoncé à prendre des mesures jusqu'après les élections de 2024.
Jusqu'à présent, le SB-1047 a rapidement progressé vers l'adoption. Ses rédacteurs se concentrent sur ce qu'ils considèrent comme un objectif assez simple et réduit pour la législation. Seules les entreprises qui dépensent plus de 100 millions USD et utilisent un niveau spécifique et élevé de puissance de calcul pour former les modèles dIA les plus grands et sophistiqués—comme le GPT-5 en développement de OpenAI—seraient obligées de respecter des tests et un suivi de sécurité pour prévenir l'utilisation abusive de 'capacités dangereuses'. Ces capacités incluraient la création d'armes de destruction massive ou l'utilisation de lIA pour lancer des cyberattaques contre des infrastructures critiques.
Les partisans du projet de loi incluent des figures majeures de lIA comme Geoffrey Hinton et Yoshua Bengio, ainsi que des organisations à but non lucratif comme Encode Justice, un mouvement de jeunes pour une IA 'sûre et équitable'. Un autre défenseur est l'analyste de X.ai, Dan Hendrycks, dont l'organisation à but non lucratif, le Centre de Sécurité de l'IA, est financée par Open Philanthropy — connue pour ses liens avec le mouvement controversé de l'Altruisme Efficace (EA) qui se concentre fortement sur le 'risque existentiel' de lIA pour l'humanité.
Dans un récent tweet, le CEO de Y Combinator, Garry Tan, a tourné en dérision le EA. En réponse à une liste d'organisations affiliées au EA qui soutiennent le SB-1047, y compris celles financées par le cofondateur de Skype, Jaan Tallinn, il a écrit : “Le EA faisant des choses de EA.”

En plus de a16z et Y Combinator, les critiques du SB-1047 incluent un large éventail de Big Tech, de capital-risqueurs, de startups et d'organisations open source. Des personnalités de lIA comme l'ancien fondateur de Google Brain, Andrew Ng, la professeure de Stanford, Fei-Fei Li, et le scientifique en chef de Meta, Yann LeCun, se sont également exprimées contre le projet de loi, affirmant que celui-ci est tout sauf simple ou réduit. Au lieu de cela, les opposants insistent sur le fait que le langage du projet de loi est trop vague. Ils affirment que l'approche du projet de loi sur les modèles dIA eux-mêmes, plutôt que sur leur utilisation, a entraîné une incertitude quant à la conformité et a laissé les développeurs craindre d'être légalement responsables de la manière dont les modèles sont mis en œuvre ou modifiés par les clients. Ils soutiennent également que le projet de loi pourrait consolider le pouvoir sur lIA entre les mains de quelques géants technologiques disposant de nombreux ressources, étouffer les efforts des petites startups et développeurs open source, et permettre à la Chine de prendre l'avantage dans le développement de lIA.
“Il existe des propositions sensées pour réglementer lIA,” a déclaré Ng à Fortune. “Malheureusement, SB-1047 n’en fait pas partie.”
Wiener et ses co-défenseurs du projet de loi affirment que c'est une absurdité : “C'est un projet de loi sur la sécurité de base, léger,” a déclaré Wiener. Sunny Madra, vice-présidente des affaires politiques de Encode Justice, co-parrain du projet de loi, a déclaré qu'elle ne s'attendait pas à ce que l'opposition monte une contre-offensive aussi massive. “Nous avons vraiment essayé de nous concentrer sur ce que nous pensons être des problèmes super raisonnables,” a-t-elle déclaré.
Cela n’a cependant pas réduit la résistance au projet de loi, lequel stipule que les développeurs ne peuvent pas lancer des modèles couverts par la loi s'il existe un “risque irrationnel” de “dommages critiques.” Il exige également que les développeurs effectuer des audits annuels du modèle et soumettent un certificat de conformité à une nouvelle section de l'Agence des Opérations Gouvernementales de l'État, “sous peine de parjure.”
“Je ne pense pas que quiconque veuille vraiment qu'une petite commission non élue mette en œuvre des normes de sécurité vagues de manière arbitraire,” a déclaré Daniel Jeffries, CEO de la startup dIA Kentaurus AI. “Pour moi, la législation pratique se concentre sur les cas d'utilisation, sur la sécurité,” a-t-il expliqué. “Discutons des armes autonomes, ou des voitures autonomes, ou de l'utilisation de la technologie pour cloner la voix de votre mère afin de vous arnaquer de cinq mille dollars.”
Mais Yacine Jernite, chercheuse sur la plateforme communautaire open source Hugging Face, a adopté une approche différente : notant que l'intention du SB-1047 de rendre les développeurs dIA plus responsables est “définitivement en ligne avec les positions que nous avons exprimées sur les propositions réglementaires dans le passé.” Cependant, elle a ajouté que la façon dont le projet de loi est rédigé montre un manque de compréhension de l'écosystème technologique. Par exemple, les modèles concernés par le projet de loi peuvent ne pas être formés uniquement par de grandes entreprises souhaitant les intégrer dans leurs produits, mais aussi par des organisations publiques ou philanthropiques, ou des coalitions de chercheurs qui se sont unies pour former des modèles. “Bien que ces modèles aient moins de visibilité publique que ceux qui soutiennent des systèmes dIA de noms connus, ils jouent un rôle indispensable dans la compréhension scientifique et la régulation informée de la technologie,” a déclaré Jernite.
Bien que Hendrycks n'ait pas répondu à une demande de commentaire de Fortune, il a récemment insisté auprès de Bloomberg que les capitalistes de risque seraient probablement opposés au projet de loi “quel que soit son contenu,” et que le projet de loi se concentre sur la sécurité nationale, en particulier en protégeant l'infrastructure critique. La plupart des entreprises effectuent déjà des tests de sécurité, a-t-il dit, pour se conformer à l'Ordre Exécutif sur l'IA promulgué par le président Biden en octobre 2023. “Cela rend simplement la loi, au lieu d'un ordre exécutif qui peut être annulé par une administration future,” a-t-il dit.
Ng a déclaré à Fortune que la communauté technologique “fait beaucoup de travail pour essayer de comprendre quelles applications pourraient être nuisibles” et a salué la participation et le financement du gouvernement à de tels efforts. “Par exemple, j'aimerais voir des réglementations qui mettent fin à la pornographie deep fake non consensuelle,” a-t-il déclaré.

Mais Wiener a expliqué qu'il y a d'autres projets de loi sur lIA en cours d'avancement dans la législature de Californie qui se concentrent sur les risques immédiats et à court terme de lIA, tels que la discrimination algorithmique, les deep fakes et la pornographie vengeante avec lIA. “Vous ne pouvez pas tout faire dans un seul projet de loi,” a-t-il déclaré, en mettant l'accent sur sa volonté continue de collaborer. “Nous avons apporté des changements significatifs en réponse à des commentaires constructifs, et nous continuons d'inviter ces commentaires,” a-t-il déclaré.
Jeffries, cependant, a déclaré qu'il a lu chaque version du projet de loi au fil du temps et que, bien que des changements aient été apportés, “l'essence du projet de loi reste la même,” y compris l'exigence de signer un certificat de conformité sous peine de parjure. “Les règles peuvent changer du jour au lendemain,” a-t-il déclaré. “Ils pourraient déplacer le seuil vers le haut ou vers le bas. Et les normes sont rédigées de manière frustrante vague.”
Dans sa lettre en réponse à a16z et Y Combinator, Wiener a insisté sur le fait que le Procureur Général de Californie ne pourrait intenter une action en justice que si “un développeur d'un modèle couvert (plus de 100 millions USD pour l'entraînement) ne réalise pas d'évaluation de sécurité ou ne prend pas de mesures pour atténuer le risque catastrophique et qu'une catastrophe se produit ensuite.”
Le gouverneur Newsom n'a pas indiqué s'il signera le projet de loi s'il passe par la Chambre de Californie. “Nous sommes en contact avec l'administration comme nous le faisons avec des projets de loi importants ou compliqués,” a déclaré Wiener. “Bien sûr, nous aimerions que le gouverneur fournisse ses retours.”
Même certaines entreprises dIA réputées pour défendre la sécurité de lIA, comme Anthropic, se sont retirées de leur soutien au projet de loi, craignant peut-être qu'il ne restreigne leurs propres efforts pour développer des modèles dIA plus avancés. Le CEO de Anthropic, Dario Amodei, a déclaré lors d'une interview sur le podcast In Good Company en juin que la régulation imaginée dans le SB-1047 est trop précoce, que le consensus de l'industrie sur une “politique de montée en puissance responsable” devrait d'abord être atteint.
Ng a déclaré à Fortune qu'il avait parlé au sénateur Wiener et fourni des retours. “Il n'a pas dit grand-chose pendant notre appel et je ne sens pas que les changements dans le projet de loi aient été réactifs aux préoccupations que beaucoup d'entre nous dans le monde technologique partagent,” a-t-il déclaré.
Pendant ce temps, Wiener insiste pour dire que sa porte reste ouverte pour discuter de changements possibles au SB-1047. “Il y a d'excellents lobbyistes dans le projet de loi que des personnes dans l'industrie ont engagés... qui essaient de participer de manière constructive,” a-t-il déclaré, ainsi que “des personnes de l'industrie qui n'ont pas seulement adopté une position négative et ont été constructives en suggérant des amendements, certains que nous avons intégrés, d'autres avec lesquels nous ne sommes pas d'accord.” Le processus, a-t-il souligné, a “été un processus assez collaboratif, et j'apprécie beaucoup cela.” Quel est son objectif ? “Bien faire les choses.”
(c) 2024, Fortune
Nouveau