
Une poignée d'employés actuels et anciens d'éminentes sociétés d'intelligence artificielle ont averti que la technologie présente de graves risques pour l'humanité dans une lettre envoyée mardi 4 juin, appelant les entreprises à s'engager à être plus transparentes et à favoriser une culture de critique qui les rend plus responsables .
La lettre, signée par 13 personnes, dont des employés actuels et anciens d' OpenAI , Anthropic et DeepMind de Google , affirme que l'IA peut exacerber les inégalités , accroître la désinformation et permettre aux systèmes d'IA de devenir autonomes et de causer des décès importants . Bien que ces risques puissent être atténués, les entreprises qui contrôlent le logiciel bénéficient de « fortes incitations financières » pour limiter la surveillance , ont-ils noté.
Cette décision intervient alors qu'OpenAI est confronté à un exode de personnel . De nombreux critiques ont vu les départs très médiatisés – notamment le co-fondateur d’OpenAI, Ilya Sutskever, et le chercheur principal Jan Leike – comme une réprimande envers les dirigeants de l’entreprise, qui, selon certains employés, recherchent des profits au détriment de la sécurité des technologies OpenAI .
Daniel Kokotajlo, un ancien employé d'OpenAI , a déclaré qu'il avait quitté l'entreprise en raison de l'indifférence de l'entreprise face aux risques de l' intelligence artificielle .

"J'ai perdu l'espoir qu'ils agiraient de manière responsable, en particulier dans leur recherche de l'intelligence artificielle générale ", a-t-il déclaré dans un communiqué, faisant référence à un terme très controversé désignant des ordinateurs qui correspondent à la puissance du cerveau humain . "Eux et d'autres ont adhéré à l'approche" aller vite et casser les choses ", et c'est le contraire de ce qui est nécessaire pour une technologie aussi puissante et aussi peu comprise ."
Liz Bourgeois, porte-parole d' OpenAI , a déclaré que l'entreprise convient qu'« un débat rigoureux est crucial compte tenu de l'importance de cette technologie ». Les représentants d' Anthropic et de Google n'ont pas immédiatement répondu à une demande de commentaire.
Les employés ont affirmé qu’en l’absence de contrôle gouvernemental , les travailleurs de l’IA sont les « rares personnes » capables de demander des comptes aux entreprises. Ils ont noté qu'ils sont gênés par de « larges accords de confidentialité » et que les protections ordinaires des lanceurs d'alerte sont « insuffisantes » car elles se concentrent sur les activités illégales et les risques contre lesquels ils mettent en garde ne sont pas encore réglementés.
La lettre demandait aux entreprises d'IA de s'engager sur quatre principes pour permettre une plus grande transparence et une plus grande protection des lanceurs d'alerte .

Ces principes comprennent un engagement à ne pas conclure ou mettre en œuvre des accords interdisant la critique des risques ; l'appel à établir un processus anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations ; soutien à une culture de la critique ; et une promesse de ne pas exercer de représailles contre les employés actuels et anciens qui partagent des informations confidentielles pour tirer la sonnette d’alarme « après l’échec d’autres processus ».
En décembre, le Washington Post a rapporté que de hauts responsables d' OpenAI craignaient des représailles de la part du PDG Sam Altman , avertissements qui ont précédé son limogeage temporaire . Dans une récente interview en podcast, Helen Toner , ancienne membre du conseil d'administration d'OpenAI, a déclaré qu'une partie de la décision de l'organisation à but non lucratif de destituer Altman de son poste de PDG à la fin de l'année dernière était due à son manque de communication franche sur les questions de sécurité .
“Nos dio información inexacta sobre el pequeño número de procesos de seguridad formales que la empresa tenía en marcha, lo que significaba que era básicamente imposible para el consejo saber lo bien que estaban funcionando esos procesos de seguridad”, dijo a “The TED AI Show " en mai.
La lettre a été approuvée par des sommités de l’IA telles que Yoshua Bengio et Geoffrey Hinton , considérés comme les « parrains de l’IA », et par le célèbre informaticien Stuart Russell .
(c) 2024, Le Washington Post
Nouveau