
La censure ne doit pas être pour les gens, mais pour les algorithmes
“Il y a des entreprises qui inondent la population d'histoires positives et qui tendent à ignorer les dangers”, a déploré Yuval, “ce qui devient une tâche pour des philosophes, des chercheurs et des penseurs comme moi de se concentrer sur la partie sombre”. Une partie qui naît d'une différence élémentaire par rapport aux autres révolutions technologiques : “Avec toute technologie précédente, le pouvoir était entre les mains des êtres humains. La bombe atomique ne pouvait pas décider ni inventer la bombe atomique.” Ce que nous vivons maintenant, n’a pas de comparaison.
L'intelligence artificielle est différente précisément parce que “elle peut prendre des décisions par elle-même”, ce qu'elle a démontré avec un exemple centré sur les médias. “Les décisions les plus importantes sont prises par l'éditeur”, a-t-il souligné en référence à celui qui décide ce qui est publié et ce qui ne l'est pas, ou quelle page occupe une nouvelle dans un journal. “Maintenant, sur certaines des plateformes les plus importantes du monde, comme X ou Facebook, le rôle de l'éditeur a déjà été assumé par l'IA : ce sont les algorithmes qui décident quelle sera l'histoire recommandée ou ce qui se trouvera en haut du fil d'actualités”.
Face à cette situation, Yuval a souligné que l'algorithme ne cherche pas toujours à fournir l'information la plus utile, ni la plus exacte. “Je suis d'accord avec Zuckerberg ou Elon Musk sur le fait que nous devrions être prudents en censurant des utilisateurs humains”, a-t-il commencé à dire, “les gens ont le droit à la stupidité, ont le droit de dire un mensonge, cela fait partie de la liberté d'expression.” Cependant, pour lui, sur des sujets comme la diffusion de théories du complot ou des fake news , l'accent ne devrait pas être mis sur les personnes, mais sur les algorithmes.
“Les algorithmes veulent le plus grand nombre de personnes accrochées à la plateforme le plus de temps possible”. C'est, a argué l'académicien, son modèle économique. Le problème réside dans le fait que tous ces mécanismes d'intelligence artificielle ont “découvert que la manière la plus facile d'attirer l'attention humaine est d'appuyer sur le bouton de la haine ou de la peur ou de la colère dans l'esprit des gens.” Face à cela, “de manière délibérée, ils diffusent fake news et théories du complot”, ce qui fait que les gens non seulement s'impliquent, mais en plus “envoient le lien à leurs amis”.

Les usages actuels de l'IA pour contrôler la population
L'intellectuel a également souligné que le potentiel de l'IA est un potentiel “totalitaire”. Yuval a insisté sur le fait que dans les régimes totalitaires, contrairement aux autoritaires -où le roi ou le tyran ne peut pas savoir ce que fait chaque citoyen ou ce à quoi il pense-, “ils ne voulaient pas contrôler seulement le domaine militaire et le budget mais tous les aspects de la vie : ce que nous voyons, ce que nous écoutons, quels livres nous lisons”. Le stalinisme ou le nazisme sont pour lui les principaux exemples, mais même “Hitler et Staline avaient des difficultés ou des limites dans le niveau de contrôle qu'ils pouvaient acquérir car ils ne pouvaient pas suivre tout le monde constamment”.
Maintenant, en revanche, “l'IA permet une surveillance totale qui anéantit toute liberté”. Téléphones, ordinateurs, caméras et tout autre système électronique est capable de “gérer une quantité colossale d'informations, de les analyser et de reconnaître des motifs”. “Cela se produit déjà dans certains pays du monde : en Israël , ils installent déjà dans tous les territoires occupés des caméras et des drones, suivant tout le monde constamment tout le temps.” En Iran , il se passe quelque chose de similaire, car maintenant le pays “est plein de caméras de surveillance avec des logiciels de reconnaissance faciale” qui peuvent identifier, par exemple, une femme qui ne porte pas de voile. “Qui elle est, son téléphone, et immédiatement lui envoyer un message SMS lui disant qu'elle a commis un délit et que son véhicule est confisqué par l'État.”
L'historien a voulu éloigner toute prétention que tout cela soit “de la science-fiction”. Peu à peu, l'usage d'un système qui part d'une “vision ingénue dans des endroits comme la Silicon Valley, où l'on croit que l'information est connaissance” s'étend. Pour lui, c'est justement le contraire : “La majeure partie de l'information est des déchets, n'est pas vraie, c'est quelque chose de rare, une catégorie rare... et en plus, la vérité est chère”. Les pays rivalisent maintenant pour accumuler cette plus grande capacité d'information, développant des systèmes d'IA avec une “mentalité de course à l'armement”. “’Nous ne voulons pas être dépassés’, c'est l'idée, mais c'est extrêmement dangereux.”
Les extrêmes et la vision cynique du monde
Pour cela, la solution pour Yuval passe par “investir dans la vérité”. “Créer des institutions avec des journaux ou des sociétés académiques qui investissent dans cet effort pour découvrir et disséminer la vérité.” “Les journalistes et la presse ont un rôle clé”, souligne-t-il. En effet, tandis que “l'essence de la démocratie est la conversation où l'on peut identifier les erreurs”, dans le totalitarisme, cela est annulé : “Poutine n'admettra jamais qu'il a commis une erreur.” “Le rôle des médias est essentiel : sans les faits, la vérité, la conversation ne signifie rien. Si nous échangeons simplement des mensonges, des fantasmes, cela n'est pas une conversation, et cela est fondamental pour une démocratie.”