
Le média technologique, TechCrunch, a souligné les modifications significatives apportées pour apaiser les critiques. L'un des changements les plus remarquables est la suppression de la peine pour parjure et la création d'une nouvelle entité gouvernementale, initialement prévue comme la Division des Modèles Frontaliers. Désormais, les développeurs devront soumettre leurs mesures de sécurité directement au procureur général.
“Les amendements récents semblent davantage concerner l'apparence que la substance”, a déclaré Russell Wald de l'Université de Stanford, suggérant que les changements n'affectent pas le projet central en tant que tel.

Qu'est-ce que le projet de loi SB 1047
La loi vise à établir des régulations pour les grands modèles d'intelligence artificielle (IA) développés dans l'État. Son objectif principal est de prévenir que ces puissants systèmes d'IA ne causent des dommages critiques, tels que des cyberattaques entraînant des pertes de millions de dollars ou le développement d'armes létales.
Les principales mesures proposées sont :
- Obliger les entreprises développant de grands modèles d'IA (coûtant plus de 100 millions USD à former) à mettre en place des protocoles de sécurité pour éviter les abus.
- Exiger que ces systèmes disposent d'un “bouton d'arrêt d'urgence” permettant de les désactiver complètement s'ils échappent à tout contrôle.
- Interdire la distribution de modèles d'IA pouvant causer des “dommages critiques” tels que définis par la loi.
- Exiger des audits externes annuels pour vérifier la conformité aux protocoles de sécurité.
- Créer un conseil de surveillance pour ces modèles avancés d'IA au sein d'une nouvelle agence d'État.
- Permettre des amendes de millions de dollars aux entreprises qui enfreignent la loi.
Le projet de loi SB 1047 vise à éviter des “dommages critiques” dus à une mauvaise utilisation de grands modèles d'IA, comme la création d'armes ou des cyberattaques causant des pertes significatives. Ces dommages pourraient inclure “l'utilisation par un acteur malveillant d'un modèle d'IA pour créer une arme causant de nombreuses victimes” ou des cyberattaques générant plus de 500 millions de dollars de dommages.

Bien que le projet ait été critiqué pour son approche des scénarios dystopiques, il bénéficie également d'un certain soutien. Dan Hendrycks, du Centre pour la Sécurité de l'IA, a déclaré à TechCrunch que ces sauvegardes sont nécessaires pour éviter des incidents graves qui pourraient entraver de futurs progrès dans l'industrie.
Malgré ce soutien, une lettre signée par huit membres de la Chambre des Représentants de Californie a appelé le gouverneur Gavin Newsom à opposer son veto au projet si celui-ci parvient sur son bureau. Ils soutiennent que ce projet de loi pourrait freiner l'innovation technologique et entrepreneuriale dans l'État.
Certaines voix éminentes, comme Andrew Ng de Stanford, ont indiqué que la loi constitue “une attaque contre le code ouvert”. Un article du magazine américain Fortune a également souligné l'opinion de Fei-Fei Li, qui soutenait que la loi nuirait à l'écosystème naissant de l'IA en Californie.
Pendant ce temps, le sénateur Wiener soutient que, bien que la loi ait subi d'importants changements, elle reste une mesure cruciale pour anticiper d'éventuels dommages technologiques. Le sénateur a déclaré que “nous ne devons pas attendre que quelque chose de mauvais se produise. Il faut simplement agir avant cela”.

L'industrie technologique observe de près comment les événements vont se dérouler. Si elle est approuvée, la loi pourrait établir un cadre réglementaire obligeant les entreprises à mettre en œuvre des protocoles de sécurité et à avoir des audits externes annuels pour évaluer leurs pratiques.
L'équilibre entre réglementation et innovation reste un sujet important. Buffy Wicks, membre de l'Assemblée de l'État de Californie, a affirmé après la réunion du comité : “L'objectif est d'obtenir une réglementation qui offre des protections, mais sans freiner l'innovation ni le développement économique lié à l'intelligence artificielle.”