
Le but de la loi est de réduire le risque que l'IA soit utilisée pour créer de nouvelles menaces à la sécurité publique. Cela inclut la possibilité de développer des armes de destruction massive, telles que des armes biologiques, chimiques et nucléaires, ainsi que des armes avec des capacités cybernétiques offensives.
Le projet de « loi sur l'innovation sécurisée pour les modèles d'intelligence artificielle de pointe », présenté par le sénateur Scott Wiener, classe l'IA comme une « menace persistante avancée » possible.
Cette désignation fait référence à des adversaires hautement sophistiqués qui possèdent des ressources significatives et peuvent utiliser divers moyens d'attaque, tels que cybernétiques, physiques et de tromperie, pour menacer la sécurité.

Ce que vise ce projet de loi
Le projet de loi propose des exigences pour que les développeurs mettent en œuvre des protocoles de sécurité et la capacité d'éteindre complètement les modèles s'ils représentent un risque critique.
Il crée également une nouvelle division au sein de l'Agence des opérations gouvernementales, chargée de superviser la conformité et d'émettre des orientations. De plus, des sanctions civiles et des protections pour les dénonciateurs sont établies.
Le projet de loi SB 1047 propose plusieurs sanctions pour les développeurs de modèles d'intelligence artificielle qui ne respectent pas ses dispositions. Celles-ci incluent :

- Amendes civiles : Jusqu'à 10 % du coût de la puissance de calcul utilisée pour entraîner le modèle lors de la première infraction, et jusqu'à 30 % pour les infractions suivantes.
- Actions civiles : Des mesures telles que la suppression du modèle et la suspension de son utilisation peuvent être imposées s'il représente une menace.
- Dommages monétaires et punitifs : Pour les personnes affectées par des non-conformités.
De plus, des protections pour les employés dénonciateurs sont établies et la possibilité d'intervention judiciaire est prévue pour garantir la conformité aux normes.

Il convient de noter qu'un projet de loi est une proposition législative formelle présentée devant une entité législative dans le but de devenir loi.
Bien qu'il propose de nouvelles règles ou modifications, ce n'est pas encore une loi en soi. Le projet doit passer par un processus de révision, de débat et d'approbation par les législateurs. Ce n'est qu'après ce processus, et s'il reçoit le feu vert final, que le projet devient loi et entre en vigueur.
Quelle est la prochaine étape pour ce projet de loi
Le projet de loi SB 1047 est désormais prêt à être voté par l'ensemble de l'Assemblée de Californie. S'il est approuvé là-bas, il devra revenir au Sénat de Californie pour un autre vote. Si le projet est approuvé dans les deux chambres, il sera envoyé au gouverneur de Californie, Gavin Newsom, qui décidera s'il le signe et le transforme en loi ou s'il le veto.

Apple, Google et d'autres entreprises s'engagent à créer des IA sûres
Apple, Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont signé un engagement volontaire pour promouvoir le développement de modèles d'intelligence artificielle sûrs pour l'humanité. Les points clés de l'accord incluent :
- Effectuer des évaluations internes et externes des modèles et systèmes, abordant l'utilisation abusive, les risques sociaux et les préoccupations de sécurité nationale, telles que la bio-sécurité et la cybersécurité.
- Interdire la création de modèles ayant la capacité de s'auto-répliquer ou de faire des copies d'eux-mêmes.
- Développer des mécanismes permettant aux utilisateurs d'identifier si le contenu audio ou visuel a été généré par l'IA.
- Informer publiquement sur les capacités des modèles ou systèmes.
Cet accord volontaire fait partie d'un décret exécutif émis par le président des États-Unis, Joe Biden. Le document établit des mesures pour atténuer les risques de sécurité associés à l'intelligence artificielle, protéger la vie privée des Américains, promouvoir l'équité et les droits civils, défendre les consommateurs et les travailleurs, et encourager l'innovation et la concurrence.