
Depuis les premières expériences dans les années soixante jusqu'aux programmes actuels, l'IA a montré un potentiel intéressant pour identifier et traiter les troubles mentaux avant qu'ils ne se transforment en crises profondes. Tout cela dans un contexte où la santé mentale revêt une valeur bien plus grande pour les organisations, les autorités et les patients.
Comment l'intelligence artificielle est utilisée dans le traitement de la santé mentale
Le parcours de l'intelligence artificielle dans le domaine de la santé mentale a commencé avec Eliza, un programme informatique créé en 1966 par Joseph Weizenbaum, un scientifique informatique du MIT, destiné à simuler la thérapie rogerienne, une approche où le thérapeute répète les mots du patient pour l'encourager à poursuivre la conversation.
Bien que Weizenbaum ait créé Eliza comme une satire pour démontrer l'incapacité des machines à interagir de manière significative avec les humains, le programme a surpris beaucoup de gens en étant considéré comme utile et captivant. Même sa propre secrétaire a demandé à passer du temps seule avec le système pour continuer la “thérapie”. Cet épisode initial a marqué le début d'un débat sur le potentiel et les dangers de l'IA dans la thérapie.

Poco después, en 1972, Kenneth Colby, un psychiatre de Stanford, a développé Parry, un programme qui simulait le langage d'une personne souffrant de schizophrénie paranoïaque. Ce programme a été utilisé pour former des étudiants en psychiatrie, les aidant à se familiariser avec le langage et les schémas de pensée des patients atteints de ce trouble.
Parry a eu tant de succès dans la simulation de la schizophrénie que, dans certains cas, il a réussi à passer le test de Turing, un test conçu pour évaluer si une machine peut afficher un comportement intelligent similaire à celui d'un être humain.
Voici comment l'IA peut être utilisée dans les traitements de santé mentale
Aujourd'hui, la recherche sur l'utilisation de l'IA dans la santé mentale a considérablement progressé. Un domaine qui a gagné en attention est le phénotypage numérique, qui implique la collecte et l'analyse de données provenant de dispositifs mobiles, comme l'activité physique ou la localisation, pour prédire des problèmes de santé mentale.
Des chercheurs de l'Université d'Oxford ont commencé à explorer comment cette technique pourrait aider à détecter les premiers signes de troubles mentaux. Jessica Lorimer, assistante de recherche au Département de psychiatrie d'Oxford, explique que l'IA peut analyser des schémas de comportement qui pourraient passer inaperçus pour les médecins humains, fournissant un avertissement anticipé sur de possibles problèmes de santé mentale.

La capacité de l'IA à analyser de grandes quantités de données a également permis des avancées dans l'identification de l'idéation suicidaire. Par exemple, John Pestian, un scientifique spécialisé dans l'analyse de données médicales, a développé un algorithme qui analyse des notes de suicide et des enregistrements de conversations dans des salles d'urgence pour identifier des schémas de langage indiquant un risque de suicide.
Cette approche s'est révélée aussi précise que les médecins humains dans 85 % des cas, ce qui suggère qu'elle pourrait être un outil précieux pour les cliniciens moins expérimentés ou surchargés de travail.
Cependant, l'utilisation de l'IA dans la santé mentale n'est pas sans controverses. Une des plus grandes préoccupations est la confidentialité des données.
La collecte de données personnelles, comme la localisation ou l'historique de messages texte, soulève de sérieuses questions sur qui a accès à ces informations et comment elles sont utilisées. Par exemple, Facebook utilise déjà l'IA pour détecter des publications indiquant un risque de suicide, mais le processus par lequel ces données sont analysées est largement inconnu, ce qui suscite des inquiétudes concernant la transparence et l'efficacité réelle de ces interventions.

De plus, les problèmes éthiques liés au consentement deviennent particulièrement complexes lorsqu'il s'agit de mineurs. Jessica Lorimer pose la question : si l'on détermine qu'un jeune est en danger, qui devrait avoir le droit de connaître cette information : ses parents, ses enseignants, l'école, son médecin ?
Dans la pratique clinique actuelle, des applications comme Woebot utilisent l'IA pour fournir un soutien en santé mentale. Cette plateforme, développée en 2017 par Alison Darcy, psychologue clinique et chercheuse à Stanford, utilise la thérapie cognitivo-comportementale pour guider les utilisateurs à travers des séquences de réponses préécrites qui les aident à examiner et à modifier leurs schémas de pensée.
Bien que certains utilisateurs puissent d'abord être sceptiques à l'idée de converser avec une application, de nombreuses personnes ont trouvé en Woebot un outil précieux pour gérer l'anxiété et la dépression, notamment dans des régions où il y a une pénurie de professionnels de la santé mentale.
À mesure que l'IA continue d'évoluer, son rôle dans la santé mentale continuera probablement à s'élargir. Les algorithmes prédictifs, comme celui développé par John Pestian, qui vise à prévoir l'apparition de maladies mentales des mois avant qu'elles ne se manifestent, pourraient révolutionner notre compréhension et notre traitement de ces troubles.
Cependant, il est crucial que ce développement soit accompagné d'un cadre éthique solide garantissant la confidentialité et la dignité des patients.