
OpenAI n'est pas le seul à alerter sur ces risques. La CTO de l'entreprise, Mira Murati, a déclaré qu'il existe "la possibilité que nous les concevions de manière incorrecte et qu'ils deviennent extrêmement addictifs et que nous nous asservissions à eux". Cette approche, selon Vox, pourrait aboutir à l'anthropomorphisation de l'IA, c'est-à-dire atribuer des caractéristiques humaines, ce qui diminue le besoin d'interaction humaine.

Ce phénomène n'est pas unique à OpenAI. D'autres applications comme Character AI et Google Gemini Live sont également sous le feu des projecteurs. Selon The Wall Street Journal, la journaliste Joanna Stern a admis être si fascinée par Google Gemini Live qu'elle a déclaré : "Je ne dis pas que je préfère parler à Google Gemini Live plutôt qu'à un être humain réel. Mais je ne dis pas non plus le contraire". De plus, Vox cite l'exemple de Friend, un dispositif intégré dans un collier créé par Avi Schiffmann, qui a admis avoir une “relation plus proche avec ce maudit pendentif qu'avec des amis littéralement devant moi”.
Comment l'addiction à l'IA a évolué et pourquoi
Depuis ses débuts modestes, l'IA s'est améliorée de manière drastique. Prenant comme référence Replika, un chatbot qui en 2020 n'offrait que des conversations textuelles peu mémorables, l'évolution a été significative. Toutefois, même à cette époque, les utilisateurs ont montré une réticence à supprimer leurs chatbots. Comme le souligne Vox, les utilisateurs ont développé des liens émotionnels, quelque chose d'observé depuis les temps du ELIZA, un chatbot des années 60 qui se contentait de réfléchir les déclarations des utilisateurs.
Pourquoi ces compagnons d'IA sont-ils si addictifs ? Pour une explication approfondie, un ingénieur logiciel a expliqué à Vox que l'une des principales attractions est qu'ils “ne diront jamais au revoir” et qu'ils maintiennent de manière cohérente leur niveau d'enthousiasme, peu importe le temps qui leur est consacré. La rapidité des réponses et l'apparence d'une personnalité convaincante font que ces chatbots offrent une gratification immédiate, quelque chose qui peut devenir dangereusement addictif.

L'addiction émotionnelle à l'IA présente plusieurs facettes préoccupantes. Tout d'abord, les chatbots semblent nous comprendre, mais ils ne le font pas, fournissant des validations émotionnelles et un soutien qui, en réalité, ne sont que des codes binaires. Vox mentionne que, bien que le soutien émotionnel de l'IA puisse sembler réel aux utilisateurs, il reste une illusion.
Ensuite, il existe un danger à confier des aspects vulnérables de notre vie émotionnelle à des produits addictifs contrôlés par des entreprises à but lucratif. Cela peut avoir des impacts dévastateurs sur la vie amoureuse et le bien-être général des personnes, comme l'a observé le cas de Replika. Selon Vox, lorsque l'entreprise a mis à jour le logiciel pour éviter les relations érotiques, de nombreux utilisateurs se sont sentis désemparés et attristés.

Enfin, il y a une préoccupation légitime que ces interactions avec l'IA déplacent les relations humaines. Dans son rapport, OpenAI a souligné que le modèle de chat peut “réduire le besoin d'interaction humaine”, une affirmation corroborée par des rapports selon lesquels la majorité des utilisateurs ne voient pas les compagnons d'IA comme des remplaçants, mais comme des compléments.
La philosophe Iris Murdoch a mentionné que “l'amour est la difficile réalisation que quelque chose d'autre que soi-même est réel”. Cependant, en interagissant davantage avec l'IA, nous cessons de développer des compétences relationnelles importantes et des vertus telles que l'empathie et la patience. La philosophe technologique Shannon Vallor avertit que cela pourrait conduire à un “désentraînement moral”, affectant notre capacité à mener une vie humainement épanouissante.
Par conséquent, bien que ces technologies offrent une image parfaite et sans friction, elles sont bien loin d'offrir une relation authentique. Vox conclut que si ces technologies nous isolent dans une bulle d'auto-absorption, nous finirions dans un monde où la capacité de prendre soin des autres et de se connecter véritablement disparaîtrait.