
Je considère que l’un des principaux défis présentés par les images générées par l’IA n’a pas tant à voir avec la confiance ébranlée dans le réel qui existait avant l’émergence expansive de ces technologies, mais plutôt avec la contribution à briser les cohérences imaginaires. qui imposent certaines conditions très déterminées sur ce qui est considéré comme possible.
Les images sont structurantes dans les processus de subjectivation. Chacun se constitue à travers l'image qu'il a de lui-même. Comme le soutient Marie-José Mondzain , il n'y a pas de sujet sans images. C’est pourquoi il est si important de réfléchir aux formes d’expulsion des images qui se produisent aujourd’hui avec les régimes hégémoniques du visuel. Nous n’avons jamais été aussi exposés aux images et leurs infrastructures n’ont jamais été aussi opaques. C’est pourquoi il est si important de réfléchir à la blessure qui se produit actuellement dans le monde imaginaire et de ne pas réduire sa considération à une situation de vanité individuelle ou de banalisation de notre culture, mais à l’expropriation de notre mundus imaginalis. En ce sens, il ne s’agit pas de créer de l’alarmisme à propos de l’intelligence artificielle en tant que telle, le problème, je dirais, n’est pas tant celui auquel Joan Fontcuberta fait allusion lorsqu’il dit : « Je n’ai pas du tout peur de l’avenir de l’intelligence artificielle. Qu'est-ce qui provoque l'alarme ? La cause est le fait que l'on peut confondre ce qui est le produit d'un appareil photo avec ce qu'un ordinateur a fait, et que dans certains secteurs, comme le journalisme et la photographie documentaire, cela crée un problème de remise en question, de discrédit de ce qui est témoignage et documentaire. En effet, lorsqu'il s'agit de création d'images, cette nouvelle technologie incorpore un pouvoir dans sa capacité à introduire de la spéculation perceptuelle, ce qui nous met face au défi de penser l'écosystème dense dans lequel elle se développe et l'échelle de complexité qu'elle introduit. .
Sans aucun doute, les technologies ont un développement qui a une vitesse supérieure à ce que nous pouvons métaboliser ou comprendre. Cependant, je considère que le problème principal n'a pas tant à voir avec une sorte de compétition dans laquelle les êtres humains sont toujours laissés pour compte et ne peuvent s'empêcher de ressentir une « honte prométhéenne » face à la supériorité des appareils, comme le dit G. .Anders a maintenu. Il y a une disproportion, mais la plus grande disproportion est liée à la responsabilité politique qu'impliquent les développements technologiques que nous créons.

Je pense que c’est une erreur d’orienter les discours critiques contre les nouvelles technologies ; les récits qui nourrissent la peur ne font que contribuer à diminuer la pensée critique et ne donnent pas lieu aux débats dont nous avons un besoin urgent. Ils réduisent le problème à une sorte d’opposition entre le cerveau humain et l’intelligence artificielle qui ne permet pas de comprendre la profondeur de la métamorphose de l’intelligence qui s’opère. Nourrir un mythe, une fantasmagorie dans laquelle les machines se déconnecteront et nous finirons par être soumis à nos créations. Je pense que notre plus grande peur ne devrait pas être dirigée contre les appareils, mais plutôt contre la structure pyramidale des oligopoles technologiques qui résistent à la socialisation des connaissances qu’ils ont extraites et qui ne favorisent pas une intelligence collective qui se développe horizontalement. En ce sens, je pense que le problème n’est pas tant la rapidité du calcul algorithmique mais l’opacité des infrastructures qui constituent nos conditions de possibilité matérielle et notre participation limitée à celles-ci.
Loin de souscrire à l'analyse qui postule l'existence d'un totalitarisme des appareils, qui nous réduit à la position de témoins de certains processus de changements sur lesquels nous n'avons aucune influence, l'intérêt qui nous anime est d'explorer les relations qui se développent. , les termes ou exclusions de ce rapport et les nouvelles formes de sensibilité qui en émergent, qui deviennent invisibles lorsque l'on tombe dans une sorte de narcose ou d'« idolâtrie » des appareils que nous avons générés, puisque effectivement – peut-être à quelques exceptions près – ont été transformées en une sorte de « boîte noire », comme dirait Vilém Flusser , mais l'aliénation qu'elles génèrent en nous n'est pas donnée d'elles-mêmes, mais parce que nous ignorons non seulement leur fonctionnement, mais leurs significations, la seule chose nous contrôlons (espérons-le) son utilisation.
Il est essentiel d'élargir ce débat au-delà d'un débat technique entre spécialistes, l'analyse ne peut pas être abordée comme si ladite expérience provenait d'un simple artifice technique mais plutôt la technique doit nécessairement être vue comme un rapport social, ce n'est pas une technologie neutre. Il est donc urgent de réfléchir aux modes de gouvernance introduits par les nouveaux moyens de création d’image, comme l’intelligence artificielle. Pour réfléchir aux mécanismes des régimes visuels qui se développent, mais surtout au défi de générer un espace critique collectif qui réponde à ces tendances, à l’heure où la notion même d’intelligence est devenue incertaine. En ce sens, des penseurs comme Catherine Malabou, Hito Steyerl et Naomi Klein ont apporté d’importantes contributions, car ils affirment que ce dont nous avons urgemment besoin est « la construction démocratique de l’intelligence collective », en décentralisant les processus et en créant des archives partagées.
Nouveau