
"Nous n'avons certainement pas résolu l'interprétabilité", a déclaré Altman dans des remarques publiées par Observer. L'interprétabilité, en termes d'IA, fait référence à la capacité de comprendre et d'expliquer comment les systèmes d'apprentissage automatique prennent des décisions.

Une énigme non résolue chez OpenAI
Altman a été pressé lors de l'événement par Nicholas Thompson, PDG de The Atlantic, qui s'est demandé si un manque de compréhension ne devrait pas être un argument pour ne pas continuer à lancer de nouveaux modèles plus puissants.
Compte tenu de cela, le responsable a répondu en assurant que les IA sont « généralement considérées comme sûres et robustes ».
Une réponse qui continue de susciter des doutes, dans un domaine qui ne cesse d’émerger et dans lequel les chercheurs peinent depuis longtemps à expliquer la pensée libre et parfois illogique des chatbots IA, qui répondent presque comme par magie à toute requête que vous leur posez.
Cependant, essayer de retracer la sortie jusqu’au matériel source sur lequel l’IA a été formée s’est avéré extrêmement difficile.

Pour illustrer la complexité de la situation, Altman a comparé les modèles d’IA et le cerveau humain. "Nous ne comprenons pas ce qui se passe dans votre cerveau neurone par neurone, et pourtant nous savons que vous pouvez suivre certaines règles et nous pouvons vous demander d'expliquer pourquoi vous pensez quelque chose", a-t-il déclaré lors de la conférence.
En comparant GPT avec le cerveau humain, le responsable a déclaré qu'il y avait une présence de boîte noire, ou un sentiment de mystère derrière sa fonctionnalité. À l’instar du cerveau humain, la technologie d’IA générative telle que GPT crée de nouveaux contenus basés sur des ensembles de données existants et peut soi-disant apprendre au fil du temps.
Bien que GPT n’ait ni intelligence émotionnelle ni conscience humaine, il peut être difficile de comprendre comment les algorithmes (et le cerveau humain) arrivent aux conclusions qu’ils génèrent.
Enfin, il a ajouté que la société a « récemment commencé à former son prochain modèle frontière et nous prévoyons que les systèmes qui en résulteront nous amèneront au prochain niveau de capacités sur notre chemin vers l’AGI (intelligence générale artificielle) ».

Le défi de l’interprétabilité
L’interprétabilité de l’IA est une question fondamentale dans le contexte de l’essor de cette technologie, notamment en ce qui concerne les questions de sécurité et les risques que l’intelligence artificielle générale (AGI) devienne incontrôlable, ce qui, pour certains experts, représente un danger d’extinction pour l’humanité.
Malgré les inquiétudes et les défis, Altman reste optimiste quant à l’avenir et au potentiel de l’IA. "Il me semble que plus nous pouvons comprendre ce qui se passe dans ces modèles, mieux c'est", a-t-il déclaré lors de la conférence. « Je pense que cela peut faire partie de cet ensemble cohérent sur la manière dont nous pouvons formuler et vérifier les déclarations de sécurité.»
Cependant , le PDG a admis qu'OpenAI n'a pas encore atteint ce niveau de compréhension. "Je pense que cela peut faire partie de cet ensemble cohérent sur la manière dont nous pouvons formuler et vérifier les déclarations de sécurité", a-t-il conclu.
Ce qui montre que le chemin vers une intelligence artificielle générale et sûre est complexe et plein d'incertitudes, donc l'utilisation et le développement de ces outils doivent être bien gérés par les utilisateurs pour éviter les risques.
Nouveau