
Où qu'il aille, son "sac à dos nucléaire", comme il est connu, l'accompagne. Ce qu'il contient fonctionne comme un interrupteur, un concept inspiré du "bouton nucléaire" du président des États-Unis, Joe Biden.
Tout comme la mallette en cuir noir qui accompagne le président dans tous ses déplacements, contenant les codes et outils nécessaires pour autoriser une attaque nucléaire, le sac à dos d'Altman est conçu pour intervenir en cas de crise extrême. La différence est que, au lieu de détruire, l'objectif est d'éviter un désastre causé par une intelligence artificielle incontrôlée.

Ce qu'il y a dans le sac à dos d'Altman
Le célèbre sac à dos bleu d'Altman, apparemment ordinaire, contient un outil crucial : un MacBook Pro de 14 pouces. Cet appareil n'est pas simplement un outil de travail, mais il est configuré pour éteindre tous les serveurs d'OpenAI en cas d'urgence apocalyptique.
Cette mallette est dotée de matériaux qui lui permettent d'avoir une haute résistance à des conditions extrêmes. Elle est équipée de compartiments spéciaux pour le matériel informatique, ce qui facilite le transport sécurisé de son contenu précieux. À première vue, cela pourrait sembler le sac à dos de n'importe quel professionnel de la technologie, mais à l'intérieur se cache le pouvoir de déconnecter l'une des IA les plus avancées du monde.
Dans ce sac, en plus du MacBook Pro, Altman transporte l'essentiel pour son travail quotidien, comme une tablette et des chargeurs. Cependant, la capacité du MacBook Pro à éteindre les serveurs d'OpenAI en fait un outil unique et vital.

Selon divers médias spécialisés, cet appareil est connecté au réseau d'OpenAI et a la capacité de détruire tous les serveurs qui hébergent son intelligence artificielle, arrêtant toute activité potentiellement dangereuse.
Les préoccupations d'Altman ont une origine. L'histoire de l'IA est pleine d'exemples montrant comment la technologie pourrait se retourner contre ses créateurs. La saga des films Terminator et la redoutée Skynet ont inspiré beaucoup de ces préoccupations, desquelles le PDG d'OpenAI est conscient, en comprenant le risque réel d'une menace de l'IA.
À plusieurs reprises, il a évoqué le "risque d'extinction" et la nécessité de prendre des précautions pour éviter que l'IA ne sorte de contrôle.

Les risques et préoccupations concernant l'IA
L'expert en sécurité de l'intelligence artificielle, Roman Yampolskiy, a lancé un avertissement concernant les risques potentiels que cette technologie émergente pose pour la survie de l'humanité.
Lors d'une interview dans le podcast de Lex Fridman, le spécialiste a estimé qu'"il y a une probabilité de 99,999999 % que l'IA cause une catastrophe existentielle pour l'espèce humaine". Ce chiffre reflète sa profonde inquiétude sur la direction que prend le développement de l'IA dans le monde actuel.
Yampolskiy, dans sa conversation avec Fridman, a été catégorique sur la nécessité de modérer le développement de l'IA. Il a souligné que les avancées, parfois incontrôlées, dans cette technologie s'approchent d'un point où la complexité de ces systèmes devient pratiquement impossible à gérer avec les méthodes de sécurité actuelles.
"La complexité inhérente aux systèmes d'IA avancée représente un défi presque insurmontable pour les méthodes de sécurité contemporaines", a affirmé l'expert. À son avis, une fois que l'IA atteindra des niveaux élevés de sophistication, le contrôle sur ces systèmes sera presque nul, ce qui pourrait déclencher des conséquences dévastatrices pour l'humanité.