
En tant que jeune étudiant en médecine idéaliste dans les années 2000, je pensais que mon futur métier de médecin serait toujours à l'abri de l'intelligence artificielle.
À l'époque, il était déjà évident que les machines finiraient par surpasser les humains dans l'aspect technique de la médecine. Chaque fois que je cherchais sur Google une liste de symptômes d'une maladie rare, par exemple, la même réponse complexe qui m'était difficile à mémoriser pour les examens apparaissait de manière fiable parmi les premiers résultats.
Mais j'étais convaincu que l'autre aspect de la pratique médicale, l'aspect humain, protégerait mon emploi. Cet aspect nécessite compassion, empathie et une communication claire entre médecin et patient. Tant que les patients restaient de chair et d'os, pensais-je, leurs médecins devaient également l'être. Ce que j'aurais toujours au-dessus de l'intelligence artificielle, c'étaient mes manières.
Cependant, lorsque ChatGPT et d'autres grands modèles linguistiques sont apparus, j'ai vu ma sécurité de l'emploi s'évanouir.
Ces nouveaux outils excellent dans l'aspect technique de la médecine : je les ai vus diagnostiquer des maladies complexes et proposer des plans de traitement élégants basés sur des preuves. Mais ils sont également excellents dans la communication au chevet du patient, élaborant un langage qui convainc les auditeurs qu'il y a une personne réelle et attentive derrière les mots. Dans une étude, les réponses de ChatGPT aux questions des patients ont été jugées plus empathiques (et également de meilleure qualité) que celles écrites par de véritables médecins.
Il peut sembler inquiétant que l'intelligence artificielle puisse avoir de meilleures manières que les humains. Mais la raison en est que, en médecine, comme dans de nombreux autres domaines de la vie, être compatissant et attentionné implique, dans une mesure surprenante, de suivre un script préparé.
J'ai commencé à comprendre cela au cours de ma troisième année de médecine, lorsque j'ai participé à une séance d'enseignement sur la manière de donner de mauvaises nouvelles aux patients. Notre professeur jouait le rôle d'une patiente venue pour recevoir les résultats d'une biopsie du sein. Les étudiants en médecine se relayaient pour annoncer à la patiente que la biopsie avait révélé la présence d'un cancer.
Avant cette séance, je pensais que donner ces nouvelles était l'aspect le plus décourageant des soins aux patients et l'incarnation de l'aspect humain de la médecine. Annoncer de mauvaises nouvelles signifie transformer la description technique qu'en fait un pathologiste de la chair sous le microscope en une conversation ordinaire avec la personne dont il s'agit. Je pensais que tout ce qu'on attendait de moi était d'être humain et d'agir en conséquence.
Mais le processus s'est avéré beaucoup plus technique que je ne l'avais prévu. Le professeur nous a donné une liste de ce qu'il fallait faire et de ce qu'il ne fallait pas faire : Ne donnez pas la nouvelle au patient dès que vous entrez dans la pièce. Mais il faut aller droit au but assez rapidement. En annonçant le diagnostic, ne vous protégez pas derrière des termes médicaux comme "adénocarcinome" ou "malignité" ; dites "cancer". Une fois la nouvelle annoncée, faites une pause pour que le patient puisse l'assimiler. Ne dites pas des phrases comme "je suis désolé", car le diagnostic n'est pas de votre faute. Envisagez d'utiliser une phrase telle que "Si seulement", comme "Si seulement j'avais de meilleures nouvelles". Demandez au patient ce qu'il sait sur le cancer et fournissez-lui des informations, car beaucoup de gens ne savent rien d'autre que c'est mauvais.

Au début, l'idée que la compassion et l'empathie pouvaient être chorégraphiées comme une série de pas de danse marqués et numérotés sur le sol me rebutait. Mais lorsque j'ai dû jouer le rôle du médecin, suivre les lignes mémorisées et les instructions d'action m'a semblé tout à fait naturel. À ma grande surprise, livrer mon humanité à un script a rendu le moment le plus difficile de la médecine encore plus humain.
Tout à coup, les aspects techniques et humains de la médecine ne semblaient pas si différents. D'une certaine manière, ce que j'ai appris de moins scientifique à la faculté de médecine s'est avéré être ce qu'il y avait de plus formel.
Depuis lors, j'ai récité des versions du script des "mauvaises nouvelles" à des dizaines de patients tout en travaillant comme médecin urgentiste. Pour les patients et leurs familles, ces conversations peuvent changer leur vie, mais pour moi, ce n'est qu'un autre jour de travail, un colossal décalage émotionnel. Plus le pronostic est mauvais, plus je cherche anxieusement ces lignes mémorisées pour me guider. Pendant les brèves minutes qui suivent la connaissance du diagnostic, avant de revenir dans la chambre du patient, je répète la conversation, je planifie mon approche et je m'assure d'avoir une boîte de mouchoirs à proximité.
Jusqu'à ce que l'intelligence artificielle change complètement les soins de santé (et ma carrière), les médecins devront travailler en tandem avec la technologie. L'intelligence artificielle peut aider à rédiger des notes de manière plus efficace dans les dossiers médicaux. Et certains médecins utilisent déjà des phrases générées par l'intelligence artificielle pour mieux expliquer aux patients des concepts médicaux complexes ou le raisonnement derrière les décisions de traitement.
Les gens s'inquiètent de ce que signifie être un être humain lorsque les machines peuvent nous imiter avec autant de précision, même au chevet du patient. La vérité est que les scripts préécrits ont toujours été profondément entrelacés dans le tissu de la société. Qu'il s'agisse de salutations, de prières, de romances ou de politique, tous les aspects de la vie comprennent ce qu'il faut et ce qu'il ne faut pas faire. Les scripts - ce que nous pourrions appeler "manières" ou "conventions" - lubrifient les rouages de la société.
Au final, il n'importe pas vraiment si les médecins éprouvent de la compassion ou de l'empathie envers les patients ; ce qui compte, c'est s'ils agissent en tant que tels. De même, il n'importe pas que l'intelligence artificielle n'ait aucune idée de ce dont nous parlons. Il existe des formules linguistiques pour l'empathie et la compassion humaines, et nous ne devrions pas hésiter à utiliser les bonnes, peu importe qui - ou quoi - est l'auteur.