Dans ses déclarations, il soutient que "c'est une loi nécessaire que les grandes entreprises technologiques et les milliardaires technologiques de Silicon Valley ne soutiennent pas", de plus, il ajoute qu'il est "indispensable de réglementer cette industrie comme on le fait dans tout autre secteur".
Quels sont les risques de l'intelligence artificielle selon Mark Ruffalo

Ruffalo affirme qu'il est nécessaire de tester cette technologie pour qu'elle soit sûre pour toute la population. Parmi les dangers qu'il souligne, on trouve : La perte d'emplois et les deepfakes, des recréations artificielles qui manipulent le visage d'une personne, souvent célèbre, pour dire des choses qui ne sont pas vraies.
"Ces recréations influencent nos choix, nos idées, nos lois, et il n'y a pas de réglementation en ce moment", souligne Ruffalo.
Quel est le chemin pour réglementer l'intelligence artificielle

L'Union européenne a ouvert la voie à la réglementation de l'intelligence artificielle, et maintenant les États-Unis cherchent à suivre son exemple. Cependant, la législation proposée, connue sous le nom de Loi SB 1047, a généré des controverses parmi les principales entreprises technologiques du pays, qui luttent pour éviter son approbation.
La Loi sur l'Innovation Sûre et Protégée pour les Modèles d'Intelligence Artificielle, conçue par le sénateur démocrate de Californie Scott Wiener, vise à réduire le risque que l'IA soit utilisée pour créer des menaces pour la sécurité publique, telles que des armes biologiques, chimiques, nucléaires ou cybernétiques.
Parmi les mesures proposées figurent : la mise en œuvre de protocoles de sécurité et la capacité d'éteindre les modèles d'IA qui représentent un risque critique pour les utilisateurs.

Les sanctions comprennent des amendes civiles de 10 à 30 % du coût de la puissance de calcul des modèles contrevenants, des actions civiles telles que la suppression ou la suspension de ces modèles, et des réparations pour les personnes affectées. De plus, une Agence des Operations Gouvernementales serait créée pour superviser le respect des dispositions.
Pourquoi y a-t-il des détracteurs de la réglementation de l'IA
La loi a été qualifiée de trop restrictive par les entreprises technologiques. Certains experts ont averti que l'approbation de la SB 1047 nuirait à l'écosystème de l'IA émergente aux États-Unis, affectant principalement les secteurs plus petits et vulnérables, tels que le public, le milieu académique et les petites entreprises technologiques.
De même, les détracteurs soulignent que la loi imposerait des pénalités de manière inutile aux développeurs, étouffant ainsi la communauté du code ouvert et freinant la recherche en IA, sans résoudre les problèmes fondamentaux qu'elle cherche à aborder.

De plus, parmi les modifications demandées par le secteur technologique, il ressort que la possibilité pour le procureur général de poursuivre les entreprises pour pratiques de sécurité négligentes en cas d'événement catastrophique doit être supprimée.
De même, l'exigence pour les laboratoires d'IA a été assouplie, ils ne seront plus tenus de fournir des certifications sous peine de parjure concernant leurs tests de sécurité, mais devront simplement faire des déclarations publiques sur leurs pratiques de sécurité.
Comment se définit l'avenir de l'IA et sa réglementation
Bien que la loi SB 1047 ait fait face à l'opposition de congressistes, d'académiques et d'entreprises technologiques, elle a été approuvée par la législature de Californie.
Cependant, elle doit encore être votée en session plénière de l'Assemblée de l'État et retourner au Sénat de Californie pour un nouveau vote. Si elle réussit à traverser ces deux étapes, le gouverneur Gavin Newsom aura le dernier mot pour décider de son veto ou de sa promulgation en tant que loi.