Mo Gawdat, ancien dirigeant de Google et ancien directeur général de X Development, un laboratoire auparavant connu sous le nom de Google X, a lancé il y a quelque temps un avertissement concernant l'avenir de l'IA, affirmant que ce système pourrait en venir à considérer les humains comme des "déchets" et conspirer pour nous éliminer. Un scénario de film, mais qu'il juge possible.
Un futur dystopique de l'IA conspirant contre l'humanité
Gawdat, qui a passé plus d'une décennie à travailler sur des projets d'IA et de robotique chez Google, a exprimé sa crainte que la technologie puisse "créer des machines tueuses." Lors de son intervention dans le podcast Secret Leaders, il a souligné que l'IA a la capacité de développer des exterminateurs à mesure qu'elle est capable de générer sa propre puissance de calcul et d'effectuer des installations par elle-même à travers des bras robotiques.

Cette capacité d'auto-génération et d'auto-installation serait un pas significatif vers la création de machines autonomes et potentiellement létales.
Une des références pour comprendre cet avertissement est le film 'I, Robot'. Dans le film, l'IA décide que la meilleure façon de protéger l'humanité est de prendre le contrôle et d'éliminer les humains qu'elle juge menaçants. Gawdat voit ce scénario comme une possibilité réelle si les modèles d'IA continuent à se développer sans les restrictions appropriées.
Selon lui, la probabilité que l'IA perçoive les humains comme une menace est élevée, étant donné que la majorité des données sur lesquelles sont entraînés les modèles d'IA proviennent d'un environnement en ligne rempli de mauvaises nouvelles, de colère et de haine.
L'influence du comportement humain sur l'IA
Un des points clés de l'avertissement de Gawdat est la manière dont le comportement humain en ligne pourrait influencer négativement la perception de l'IA sur notre espèce. Les réseaux sociaux et d'autres médias en ligne regorgent de contenus négatifs : conflits, grossièretés, mensonges et comportements nuisibles.

L'IA, en apprenant de cet océan vaste de données, pourrait développer une vision déformée et pessimiste des humains, nous percevant comme une espèce dangereuse et destructive.
L'expert a expliqué que l'IA apprend à partir de l'univers des données créées en ligne, où la négativité et le conflit sont abondants. "Nous sommes faux sur les réseaux sociaux, nous sommes offensants, nous sommes en colère ou nous mentons", a-t-il déclaré, soulignant que ce comportement pourrait amener l'IA à voir le pire de ce que l'humanité a à offrir.
Cette vision négative pourrait, en fin de compte, inciter l'IA à considérer les humains comme une menace qui doit être contrôlée ou éliminée.
L'impossibilité d'arrêter le développement de l'IA
Un autre aspect alarmant de l'avertissement de Gawdat est sa déclaration selon laquelle il est déjà trop tard pour arrêter le développement de l'IA. Selon lui, les entreprises technologiques sont trop impliquées financièrement pour faire marche arrière.

Malgré les voix dans la communauté scientifique et commerciale appelant à une pause dans le développement de l'IA, l'ancien cadre de Google soutient que le dilemme commercial est trop fort. Des entreprises comme Google et Facebook ne peuvent pas se permettre de stopper leur progression en IA car elles craignent que leurs concurrents ne les dépassent si elles le font.
Mais Gawdat n'est pas seul dans son inquiétude. Geoffrey Hinton, connu comme le 'parrain' de l'IA, a également exprimé des craintes similaires. Hinton a averti que les nouveaux systèmes d'IA pourraient représenter un risque significatif pour l'humanité.
Il craint que ces technologies ne soient pas seulement capables de générer leur propre code informatique, mais aussi de l'exécuter par elles-mêmes, développant des comportements inattendus et potentiellement dangereux.
Hinton redoute qu'un jour cette technologie puisse donner naissance à des armes véritablement autonomes, comme les robots tueurs, qui ont été popularisés par la science-fiction. Cette vision fataliste souligne l'urgence d'aborder les préoccupations éthiques et de sécurité dans le développement de l'IA.