
New York, 4 juin (EFE).- Un groupe d'employés et anciens employés d'entreprises d'intelligence artificielle (IA), telles qu'OpenAI, Google DeepMind et Anthropic, ont dénoncé ce mardi l'opacité des entreprises concernant les risques possibles de la coupe- technologie de pointe lorsqu’ils profitent de l’absence de réglementation internationale.
"Les sociétés d'IA possèdent d'importantes informations non publiques sur les capacités et les limites de leurs systèmes, l'adéquation de leurs mesures de protection et les niveaux de risque de différents types de dommages. Cependant, elles n'ont actuellement que de vagues obligations de partager certaines de ces informations avec gouvernements, et aucun avec la société civile", note le document.
La lettre, signée par 11 travailleurs et anciens travailleurs de l'entreprise qui a créé ChatGPT et deux de Google DeepMind, dont l'un a travaillé auparavant pour Anthropic, souligne que les risques possibles de cette technologie vont "d'une plus grande consolidation des inégalités existantes". par la manipulation et la désinformation, jusqu'à la perte de contrôle des systèmes d'IA autonomes, ce qui pourrait conduire à l'extinction de l'humanité. »
Les experts, dont certains ont signé l'anonymat, disent qu'ils « espèrent que ces risques pourront être atténués de manière adéquate avec des conseils suffisants de la communauté scientifique, des décideurs politiques et du public ».
"Cependant, les sociétés d'IA bénéficient de fortes incitations financières pour éviter une surveillance efficace, et nous ne pensons pas que des structures de gouvernance d'entreprise personnalisées suffiront à changer cela", soulignent-ils.
L'absence de régularisation et de contrats de stricte confidentialité entre les entreprises et leurs salariés compliquent d'éventuelles plaintes contre ces entreprises de pointe, comme l'indique le document.
Parallèlement, les experts demandent que les entreprises « s'engagent » à ne pas conclure d'accords interdisant « les critiques de l'entreprise en raison de préoccupations liées au risque » ; Ils demandent également qu'une procédure anonyme soit établie dans le cadre de laquelle les employés et anciens employés peuvent faire part de « leurs préoccupations liées aux risques au conseil d'administration de l'entreprise, aux régulateurs et à une organisation indépendante appropriée possédant une expérience pertinente ».
OpenAI, qui a débuté comme laboratoire de recherche à but non lucratif et a acquis une grande renommée avec ChatGPT en 2022, travaille à la création d'une intelligence artificielle générale, ou AGI - un programme capable de faire tout ce qu'un humain peut faire - selon la société.
En mars 2023, un groupe d'hommes d'affaires du secteur technologique, d'experts et de politiques ont demandé dans une lettre apocalyptique que les expériences avec une IA très puissante soient suspendues pendant six mois, car ils estiment qu'« elles peuvent présenter des risques profonds pour la société et l'humanité ».
L'un des plus grands concurrents des chatbots OpenAI - soutenus par Microsoft - est désormais Google, mais d'autres sociétés sont également à leurs trousses, comme Anthropic, une société fondée par plusieurs anciens employés d'OpenAI.
Il n’existe actuellement aucune réglementation internationale sur l’intelligence artificielle.
En mars, le Parlement européen a ratifié la loi de l'Union européenne sur l'IA, la première au monde à réglementer cette technologie dans le monde, même si elle n'entrera en vigueur qu'en 2026.
L'ONU, pour sa part, a insisté auprès des États membres sur l'urgence de se mettre d'accord sur un règlement et est allée jusqu'à créer un « conseil des sages » à cet effet, ce qui jusqu'à présent ne s'est pas traduit par des mesures concrètes. résultats.
Nouveau