
En 1972, un psychiatre de Stanford nommé Kenneth Colby a créé Parry, un programme qui tentait de simuler le langage d'une personne souffrant de schizophrénie paranoïaque, afin de former les étudiants avant qu'ils ne s'occupent de vrais patients et de les familiariser avec le langage et la façon de penser de ces patients.
Le succès de Parry à simuler la schizophrénie paranoïaque fut tel qu'il réussit même à “passer” le test de Turing, un test conçu par le mathématicien Alan Turing pour évaluer si une machine peut exhiber un comportement intelligent indistinguable de celui d'un être humain.
Maintenant, les chercheurs de l'Université d'Oxford explorent comment l'IA pourrait être utilisée pour prédire des problèmes de santé mentale dans un avenir proche. “Parler avec les jeunes peut nous aider à comprendre leurs perspectives et à avancer pour offrir un service informatif, utile et productif”, a expliqué Ella Arensman, professeure de Neurosciences et Société dans une note publiée par l'agence de presse EFE.
L'IA peut-elle aider la santé mentale ?

Jessica Lorimer, assistante de recherche au Département de Psychiatrie, a expliqué qu'un des méthodes utilisées actuellement s'appelle phénotypage numérique, et utilise l'intelligence artificielle pour collecter et analyser des données provenant de dispositifs mobiles, comme l'activité physique ou la localisation, dans le but de prédire des problèmes de santé mentale.
Le docteur Matthew Nour, auteur principal et conférencier clinique à l'Institut National de Recherche en Santé et Soins de Grande-Bretagne (NIHR), a commenté que, en réalité, le diagnostic et l'évaluation psychiatrique résultent principalement de la discussion avec les patients et leurs proches, de sorte que les tests automatisés, “comme les analyses de sang et les scanners cérébraux, jouent un rôle minimal”, mais que maintenant, avec l'utilisation d'applications comme Chat GPT, des échantillons plus larges de patients peuvent être atteints.
“Jusqu'à récemment, l'analyse automatique du langage était hors de portée des médecins et des scientifiques. Cependant, avec l'arrivée de modèles linguistiques comme Chat GPT, notre équipe prévoit d'utiliser cette technologie sur un échantillon plus large de patients et dans des environnements de discours plus divers, pour vérifier si cela pourrait être utile en clinique”, ajoute Nour.
Malgré cela, cette avancée remet à nouveau en question le dilemme du consentement et du droit à la vie privée, en particulier dans le cas des mineurs. “Si l'on détermine qu'un jeune est en danger, qui devrait avoir le droit de connaître cette information : ses parents, ses enseignants, l'école, son médecin ?”, s'interroge Jessica Lorimer. Dans ce sens, une étude d'Oxford intitulée What Lies Ahead enquête sur les attitudes éthiques des adolescents de 16 à 17 ans envers les tests prédictifs de santé mentale. Gabriella Pavarini, chercheuse postdoctorale, explique que l'impact psychologique potentiel futur de recevoir un diagnostic prédictif représentait une grande préoccupation pour ce groupe.
Des entreprises comme Facebook utilisent déjà l'IA pour détecter des publications qui pourraient indiquer un risque de suicide et les envoyer à des modérateurs humains pour révision. Si l'on considère que la personne est en danger, les services d'urgence peuvent être contactés pour effectuer un “contrôle de bien-être”.
Selon The New Yorker, bien que l'utilisation de l'IA par Facebook pour prévenir le suicide soit une avancée, elle soulève également des questions éthiques, surtout parce que le simple fait de recevoir un diagnostic entraîne souvent un risque immédiat moins élevé, ce qui pose la question de savoir si les utilisateurs seraient prêts à sacrifier leur vie privée pour détecter des problèmes de santé mentale à un stade précoce.
Que peut faire l'IA pour la santé mentale ?

En plus de cette étude et des applications déjà utilisées par les réseaux sociaux, il est certain que l'intelligence artificielle est utilisée de diverses manières pour aider à améliorer la santé mentale des jeunes, abordant à la fois la détection des problèmes et l'accès à des ressources de soutien. Voici quelques-unes des applications les plus relevantes :
Les systèmes d'IA peuvent analyser des données de comportement en ligne et dans la vie quotidienne pour alerter les professionnels de la santé sur des changements significatifs qui pourraient indiquer des problèmes mentaux, comme des pensées suicidaires.
D'autres outils permettent aux jeunes d'interagir avec des chatbots qui simulent des conversations thérapeutiques. Ces plateformes peuvent recevoir des millions de messages d'utilisateurs cherchant un soutien émotionnel, ce qui peut également éliminer des obstacles tels que la stigmatisation d'approcher un psychologue et le manque d'information sur les ressources disponibles.
L'IA peut également être utilisée pour éduquer les jeunes sur la santé mentale, en aidant à démystifier les troubles mentaux et à favoriser un dialogue ouvert sur le bien-être émotionnel.
Malgré les avancées de cette technologie, des questions doivent encore être examinées pour que son usage soit éthique et responsable. Une étude de l'Organisation Mondiale de la Santé (OMS) a trouvé d'importantes lacunes dans la manière dont l'IA est utilisée dans la recherche sur la santé mentale. De plus, l'étude a détecté des défauts majeurs dans la gestion des statistiques, peu de validation des données et une évaluation insuffisante du risque de biais. Par exemple, si l'on sait que certains groupes ethniques ont moins accès aux soins de santé, les algorithmes basés sur ces données pourraient être moins précis pour diagnostiquer des problèmes de santé mentale dans ces populations.
Il est crucial que les jeunes et les professionnels de la santé soient conscients des limites de l'IA et utilisent ces outils comme complément, et non comme substitut, à l'attention professionnelle.