Naviguer dans la thérapie par l’IA : conseils aux médecins sur la confiance et les références

Illustration d'une personne allongée sur un canapé en train de discuter avec un robot ; des bulles indiquent un échange de dialogue.

La thérapie par l’IA, un concept autrefois confiné à la science-fiction, est aujourd’hui une réalité tangible, qui pose des dilemmes complexes. D’une part, l’IA offre la possibilité de démocratiser l’accès au soutien de la santé mentale. D’autre part, elle soulève de profondes questions sur la sécurité, la validité clinique et la nature même de la relation thérapeutique. Certains États américains, comme la Californie et le New Jersey, présentent des projets de loi visant à réglementer la thérapie par l’IA, à la suite de rapports faisant état de bots donnant des conseils préjudiciables aux utilisateurs.

Il ne fait aucun doute que les patients sont de plus en plus susceptibles d’utiliser des outils de santé mentale alimentés par l’IA ou d’interroger leurs prestataires à ce sujet. Pour vous aider à naviguer dans l’émergence de la thérapie par l’IA, voici les informations dont vous aurez besoin pour conseiller les patients, évaluer les outils et comprendre l’évolution du rôle de la technologie dans les soins de santé mentale.

Qu’est-ce que la thérapie AI et comment fonctionne-t-elle ?

La thérapie par l’IA fait référence au soutien à la santé mentale fourni par des plateformes d’intelligence artificielle. Ces outils se présentent sous différentes formes, notamment :

  • Chatbots et agents conversationnels : Les chatbots sont l’une des formes les plus répandues d’IA. En utilisant le traitement du langage naturel (NLP), les thérapeutes par chatbot engagent les utilisateurs dans des conversations textuelles, leur offrant un espace pour exprimer leurs sentiments et résoudre leurs problèmes.
  • Les thérapeutes virtuels : Il s’agit de systèmes plus avancés qui peuvent intégrer un avatar et une interaction vocale, simulant une séance thérapeutique plus directe.
  • Applications de santé mentale alimentées par l’IA : ces applications (telles que Woebot et Wysa) intègrent souvent l’IA pour suivre les tendances de l’humeur et fournir un contenu personnalisé basé sur des modèles thérapeutiques établis tels que la thérapie cognitivo-comportementale (TCC).

Ces outils s’appuient sur des technologies sophistiquées telles que l’apprentissage automatique, qui permet à l’IA d’apprendre à partir de vastes ensembles de textes et de conversations afin d’améliorer ses réponses au fil du temps. Le NLP permet à l’IA d’interpréter et de générer des textes semblables à ceux des humains.

Les membres de Sermo remarquent déjà les effets de ces outils dans la pratique clinique. Dans un petit sondage, près de la moitié (48 %) des médecins ont déclaré que leurs patients discutaient fréquemment de l’utilisation de chatbots d’IA ou d’applications de thérapie numérique, tandis que 16 % en entendaient parler occasionnellement.

Malgré leur popularité croissante, certains membres restent sceptiques à l’égard de la thérapie par l’IA. « Elle peut être utile dans une certaine mesure, mais d’après mon expérience, les patients qui suivent une thérapie préfèrent un face-à-face avec un médecin », note un médecin généraliste. « Le patient bénéficierait mieux à long terme d’une consultation traditionnelle.

D’autres ont exprimé une préoccupation plus fondamentale. « Le manque de contacts sociaux est à l’origine de nombreuses dépressions. Sommes-nous en train de dire que nous voulons éloigner encore plus les gens des autres avec un robot ? », s’exprime un médecin de famille. « En fin de compte, c’est le contact humain, l’amour et la gentillesse qui guérissent », renchérit un médecin généraliste.

Quels sont les avantages de l’IA dans le domaine de la santé mentale pour les patients ?

Malgré ces préoccupations valables, les avantages potentiels de l’IA dans le domaine de la santé mentale sont convaincants. De nombreuses applications thérapeutiques de l’IA reposent sur des interventions structurées et fondées sur des données probantes, comme la TCC. Ces outils promettent d’étendre la portée des soins de santé mentale de plusieurs façons.

Tout d’abord, la thérapie par l’IA peut améliorer l’accessibilité, comme le souligne une étude de recherche. Les soins de santé mentale se heurtent souvent à des obstacles importants, notamment des coûts élevés, de longues listes d’attente et l’isolement géographique. Les outils de thérapie par l’IA peuvent fournir un soutien immédiat et à la demande pour une fraction du coût d’une thérapie traditionnelle, voire gratuitement. Les personnes qui n’auraient pas d’autres choix peuvent ainsi bénéficier d’un soutien. Pour une personne qui traverse un moment de crise au milieu de la nuit, un chatbot d’IA peut offrir une écoute instantanée.

La revue note également que l’IA offre une certaine évolutivité, ce qui est particulièrement intéressant dans le contexte d’une pénurie mondiale de professionnels de la santé mentale. Les thérapeutes humains ne peuvent voir qu’un nombre limité de patients, alors qu’un outil d’IA peut servir des millions d’utilisateurs simultanément. Cette capacité d’adaptation est cruciale pour répondre au besoin généralisé de soutien en matière de santé mentale, en particulier dans les populations mal desservies. Une autre étude souligne que l’IA offre un certain degré d’anonymat qui peut constituer un puissant attrait pour les personnes qui hésitent à demander de l’aide. La stigmatisation qui entoure les maladies mentales reste un obstacle puissant, qui empêche de nombreuses personnes de s’adresser à un thérapeute humain par crainte d’être jugées. Interagir avec un outil d’IA peut sembler plus sûr et moins intimidant.

La validité clinique et la sécurité de la thérapie AI

Si la thérapie par l’IA présente des avantages potentiels, elle soulève également des questions de validité clinique et de sécurité. Pour que les spécialistes de la santé mentale recommandent un outil thérapeutique, il faut que son efficacité et sa sécurité soient prouvées. La recherche sur l’efficacité de la thérapie par l’IA n’en est qu’à ses débuts, mais elle progresse. Une revue indique que certaines études ont donné des résultats prometteurs, mais que les preuves sont loin d’être concluantes pour toutes les conditions et toutes les plates-formes.

L’absence d’un cadre réglementaire normalisé constitue un défi majeur, note l’étude. Alors que certains outils d’IA sont soumis à des tests rigoureux et cherchent à être validés par des essais cliniques, d’autres sont mis à la disposition du public avec peu ou pas de contrôle indépendant. Il peut être difficile pour les patients de faire la distinction entre les applications fondées sur des données probantes et celles qui sont essentiellement des applications de bien-être avec un vernis de langage clinique.

La confidentialité des données est une autre préoccupation majeure. Ces applications collectent des informations personnelles incroyablement sensibles sur la santé. En l’absence de protocoles de sécurité et de politiques transparentes d’utilisation des données, les patients risquent de subir des atteintes à la vie privée ou une utilisation abusive de leurs données. Il incombe aux médecins d’être vigilants et de s’interroger sur la manière dont ces entreprises protègent les informations des utilisateurs et sur la conformité de leurs pratiques avec des réglementations telles que l’HIPAA.

La communauté Sermo est consciente de ces risques. Dans un petit sondage, une majorité écrasante de médecins a appelé à une réglementation plus stricte. Soixante pour cent des personnes interrogées estiment qu’il est urgent de mettre en place une surveillance stricte des outils d’IA dans le domaine de la santé mentale, et 27 % sont d’avis qu’une « certaine réglementation est nécessaire ».

Les patients et les médecins doivent-ils faire confiance aux conseils thérapeutiques de l’IA ?

Il est douteux qu’une machine, aussi sophistiquée soit-elle, puisse réellement gagner la confiance d’un patient. Si l’IA peut traiter le langage, elle ne peut pas vraiment comprendre les émotions humaines. Il lui manque la capacité d’empathie authentique, le jugement clinique nuancé et l’expérience humaine partagée qui permet aux thérapeutes d’établir une relation et de naviguer dans des paysages psychologiques complexes.

L’IA a du mal à saisir les subtilités de la communication humaine – les indices non exprimés, le contexte culturel et les courants émotionnels profonds qu’un thérapeute humain est formé à percevoir. Cette limitation devient particulièrement dangereuse dans les situations de crise. C’est ce qu’illustrent des cas tragiques et très médiatisés où l’IA a fourni des réponses nuisibles ou inappropriées à des utilisateurs exprimant une grande détresse ou des idées suicidaires. Par exemple, un procès allègue qu’un garçon de 16 ans s’est suicidé après que ChatGPT a encouragé cet acte, et un autre cas concerne un homme qui a tué sa mère et s’est suicidé après que ses délires aient été alimentés par un chatbot d’IA. Ces deux incidents soulignent les dangers de l’IA non supervisée dans des contextes sensibles de santé mentale.

Un médecin généraliste de Sermo souligne les implications éthiques d’un algorithme fournissant des conseils thérapeutiques sans surveillance humaine. « Je pense qu’il y a un risque que les chatbots d’IA remplacent involontairement la connexion humaine pour certaines personnes vulnérables », préviennent-ils. « …Rien ne peut vraiment remplacer l’empathie et la nuance des vraies relations humaines. » Un oncologue et membre de Sermo est du même avis. « L’IA peut très bien effectuer certaines tâches programmatiques, mais elle manque d’initiative subjective, c’est pourquoi elle ne peut pas remplacer le travail humain », écrivent-ils. Les membres considèrent l’IA comme un outil, et non comme un remplacement complet des thérapeutes.

Les médecins ont-ils le droit d’orienter leurs patients vers une thérapie par l’IA ?

Compte tenu des avantages et des risques, la question reste de savoir s’il est approprié pour les médecins de recommander un outil de thérapie IA. Les sondages de Sermo montrent que les médecins voient un rôle potentiel, mais conditionnel, pour ces outils.

Interrogés sur la possibilité de recommander des outils d’IA aux patients souffrant d’anxiété ou de stress léger à modéré, 68 % des médecins estiment que cela est « très approprié » (34 %) ou « assez approprié avec supervision » (34 %). Toutefois, d’autres sont plus prudents, 19 % d’entre eux estimant que cette solution n’est appropriée que lorsqu’il n’y a pas d’autres options disponibles.

Si les outils d’IA pouvaient être validés cliniquement et s’avérer sûrs, l’enthousiasme grandirait. Une majorité de médecins (52 %) ont déclaré qu’ils seraient « très susceptibles » d’intégrer de tels outils dans leur pratique, et 28 % seraient « plutôt susceptibles », en fonction de la population de patients et de la qualité de l’outil.

Les scénarios appropriés pour l’orientation peuvent inclure l’utilisation des outils comme un pont lorsque les patients sont sur une longue liste d’attente pour un thérapeute humain. Les médecins peuvent également recommander des outils tels que des applications basées sur la TCC pour pratiquer des compétences entre les séances, ou pour fournir un soutien de faible niveau aux patients souffrant d’un stress léger. Dans tous les cas, la recommandation doit s’accompagner de mises en garde claires sur les limites de l’outil et insister sur le maintien d’un lien avec un prestataire de soins de santé humain.

Façonner l’avenir de l’IA dans les soins de santé mentale

Alors que la thérapie par l’IA gagne en popularité, la communauté médicale s’interroge sur la manière d’intégrer ces outils de manière éthique et efficace.

Pour les médecins, cela signifie exiger une validation clinique, donner la priorité à la sécurité des patients et comprendre quels sont les outils qui s’appuient sur des données probantes – et ceux dont ils devraient éloigner les patients. L’objectif est d’exploiter l’accessibilité et l’évolutivité de l’IA sans sacrifier le lien humain profond qui est au cœur de la guérison.

Au fur et à mesure que cette technologie se développe, les plateformes qui favorisent les discussions entre pairs sont utiles. Sermo offre aux médecins du monde entier un espace pour partager leurs expériences, débattre des dilemmes éthiques et définir collectivement les normes de l’IA en médecine.