
Un groupe de scientifiques pionniers de l'intelligence artificielle (IA) a lancé une alerte mondiale sur les risques catastrophiques potentiels que le développement rapide de cette technologie pourrait engendrer. Dans leur déclaration la plus récente, ils appellent à la création d'une autorité internationale chargée de superviser et de réglementer l'IA, soulignant l'urgence d'agir face à d'éventuels scénarios dangereux.
La réunion de scientifiques de plusieurs nations, y compris les États-Unis, la Chine, le Canada et Singapour, a eu lieu en septembre à Venise, en Italie, dans le cadre du troisième séminaire des Dialogues Internationaux sur la Sécurité de l'IA, organisés par le Safe AI Forum.
Selon The New York Times, ce forum est un projet de Far.AI, un groupe de recherche à but non lucratif basé aux États-Unis.

Gillian Hadfield, académicienne et professeure de science informatique et de gouvernement à l'Université Johns Hopkins, a exprimé ses inquiétudes concernant la capacité actuelle des nations à gérer une éventuelle catastrophe. La déclaration a également été signée par plusieurs lauréats du Prix Turing, tels que Yoshua Bengio, Andrew Yao et Geoffrey Hinton.
Les préoccupations de ces scientifiques portent sur la possibilité que la technologie qu'ils ont contribué à développer dépasse les capacités humaines, ce qui pourrait entraîner une “perte de contrôle humain ou une utilisation malveillante de ces systèmes d'intelligence artificielle, conduisant à des résultats catastrophiques pour l'humanité tout entière”, a rapporté The New York Times.
Lors de la réunion à Venise, des représentants éminents d'institutions de recherche sur l'IA de Chine, certaines financées par l'État et conseillant le gouvernement, ont également participé. L'ancienne présidente de l'Irlande, Mary Robinson, et Fu Ying, ancienne responsable du Ministère des Affaires Étrangères de Chine, ont également apporté leur soutien à cet effort.

Faisant référence à des événements historiques, Bengio a comparé la situation aux dialogues entre scientifiques américains et soviétiques pendant la Guerre Froide, qui ont contribué à éviter une catastrophe nucléaire. Il a mentionné dans une interview avec The New York Times que “dans les deux cas, les scientifiques ont ressenti l'obligation de fermer la boîte de Pandore ouverte par leur recherche.”
Le mécontentement croissant entre les États-Unis et la Chine dans leur compétition technologique complique davantage la coopération. “Les deux pays se méfient énormément des intentions de l'autre”, a déclaré Matt Sheehan, chercheur à la Fondation Carnegie pour la Paix Internationale, cité par The New York Times. “Ils sont inquiets que si l'un ralentit pour des raisons de sécurité, cela permettra à l'autre de progresser rapidement”, a-t-il ajouté.
The Times a également souligné que ces derniers mois, des technologies puissantes d'IA ont émergé en Chine, parallèlement à celles des États-Unis. Pendant ce temps, les deux gouvernements ont fait des avancées significatives en matière de réglementation.

En juillet, un conclave du Parti Communiste Chinois a proposé un système pour réglementer la sécurité de l'IA, et récemment un groupe influent de normes techniques en Chine a publié un cadre de sécurité pour cette technologie.
Aux États-Unis, l'année dernière, le président Joe Biden a signé un décret exigeant des entreprises qu'elles informent le gouvernement fédéral des risques potentiels que leurs systèmes d'IA pourraient poser, comme la création d'armes de destruction massive ou leur utilisation éventuelle par des terroristes.
Lors d'une réunion, Biden et le leader chinois Xi Jinping ont convenu que leurs fonctionnaires discuteraient de la sécurité de l'IA, la première rencontre ayant lieu à Genève.