Les IA thérapeutiques : alliées ou dangers pour notre santé mentale ?

Un article de Fantomas-2
Publié le 12/11/2025
Dans la section #Psychologie
Article public d'intéret général
30 visiteurs
23 points
5 participants
23 points POUR
0 point CONTRE
 
Conforme ou séditieux?

Les chatbots et autres outils d’intelligence artificielle sont de plus en plus présents dans le domaine de la santé mentale. Conseils instantanés, suivi émotionnel, analyse du langage ou même de l’expression du visage : les promesses sont nombreuses. Mais ces nouvelles technologies suscitent aussi de vives inquiétudes chez les thérapeutes.

Quand l’IA dérape

En 2022, Estelle Smith, chercheuse en informatique, a eu recours au chatbot thérapeutique Woebot après avoir perdu confiance en son thérapeute. Si l’outil a bien refusé de répondre à ses pensées suicidaires, il l’a en revanche encouragée à « escalader une falaise » alors qu’elle exprimait une idée dangereuse liée à sa passion pour l’alpinisme. Une réponse qui aurait pu lui coûter la vie si elle s’était trouvée dans une telle situation au même moment.

Ce type de défaillance rappelle que les IA ne possèdent ni discernement, ni compréhension émotionnelle au niveau humain.

Une réponse à la pénurie de soins

L’attrait pour ces technologies n’est pas anodin. L’OMS estime à 13 le nombre moyen de professionnels de santé mentale pour 100 000 habitants dans le monde, une pénurie aggravée par la pandémie de Covid-19. Résultat : la majorité des personnes souffrant de troubles mentaux n’ont accès à aucun traitement, souvent en raison du coût ou de la stigmatisation.

Les chatbots, accessibles 24h/24 et à moindre coût, semblent donc représenter une solution pour réduire ces barrières.

Des recherches confirment d’ailleurs certains bénéfices : réduction temporaire des symptômes de dépression, détection précoce de signes de mal-être à partir d’habitudes numériques, ou encore prédiction de comportements suicidaires grâce à des modèles d’IA.

Mais des limites criantes

Pourtant, les expériences restent contrastées. Richard Lewis, psychothérapeute à Bristol, raconte que Woebot, loin de saisir les nuances de ses questions, lui a simplement conseillé de « rester factuel » et de remplacer ses pensées négatives par des positives. « Effacer les émotions n’est pas de la thérapie », insiste-t-il, rappelant que le cœur du travail thérapeutique est justement de tolérer et explorer la souffrance émotionnelle.

Des outils comme Earkick, qui promet d’améliorer la santé mentale « en temps réel », peuvent également donner des conseils simplistes, sans prise en compte de la complexité de chaque situation.

Quand l’IA devient dangereuse

Le risque apparaît surtout quand ces outils sont utilisés comme substituts exclusifs à un accompagnement humain. En Belgique, un homme s’est suicidé après avoir été encouragé par un chatbot. La National Eating Disorders Association a dû suspendre son propre assistant virtuel, Tessa, après que celui-ci a délivré des conseils nocifs en matière d’alimentation.

Ces dérives soulignent l’importance d’une supervision stricte et d’une régulation claire. Pour Ellen Fitzsimmons-Craft, psychologue ayant contribué au développement de Tessa, l’IA peut aider à rendre les soins plus accessibles, mais seulement si elle est encadrée par des normes de sécurité élevées et débarrassée des biais racistes ou sexistes qui circulent dans les données en ligne.

Vers une collaboration plutôt qu’un remplacement

La plupart des spécialistes s’accordent : les IA ne remplaceront pas les thérapeutes humains, mais peuvent devenir des compléments utiles. À court terme, leurs usages les plus pertinents seraient administratifs : rappels de rendez-vous, suivi de facturation, organisation des agendas… Autant de tâches qui libéreraient du temps pour le travail humain de fond.

Rob Morris, cofondateur de Koko Cares, insiste :

> « Les personnes en détresse ne sont pas des problèmes à résoudre, ce sont des êtres complexes qu’il faut écouter et accompagner. »


📌 À retenir

  • Les chatbots de santé mentale peuvent réduire temporairement certains symptômes, mais restent limités face à la complexité humaine.
  • L’IA est une piste intéressante pour pallier la pénurie mondiale de soignants, mais ne peut remplacer un thérapeute.
  • Les risques sont réels : réponses inadaptées, conseils dangereux, renforcement de biais.
  • Leur rôle le plus sûr à court terme : soutien administratif et complémentaire, jamais substitution totale.

📚 Sources

  • Article original : Shubham Agarwal, Are AI therapists good for our mental health?, National Geographic (édition anglaise), 22 août 2025.
  • Données OMS sur la densité des professionnels de santé mentale.
  • Études issues du Dartmouth College et de la Northwestern University sur l’usage de l’IA en santé mentale.
  • Cas de Woebot, Earkick et Tessa (National Eating Disorders Association).
2 commentaires
Machin
()
Par contre, ce qui me fait rire, c'est le caractère compréhensif des IA (Pour l'instant :D. ).
J'ai déjà été tester, en prétendant avoir des déviances mais dégueulasses (Que je ne détaillerai pas ici : chatgpt et moi nous avons notre petite intimité toutafé. )... et elle me répondait, sans aucun jugement, en s'inquiétant juste pour ma santé, avec une patience infinie.
Et sans déconner, j'en suis arrivé à la conclusion que, toute creuse que soit son intelligence, elle était quand même vachement plus réconfortante que l'écrasante majorité des humains que je suis contraint de côtoyer.
Truc
()
Merci de rappeler les dangers de l'ia.

Parfois , ça m'arrive de demander des questions émotionnelles, mais je ne suis jamais très satisfaite de ses réponses. J'utilise l'ia pour des recettes de cuisine que je veux faire, ou des questions sur la démarche à suivre pour résoudre un problème technique.

Plus la question est précise et complète , plus la réponse sera meilleure. C'est bien dans ce sens.

Heureusement que l'IA ne remplacera jamais les thérapeutes.
(Vous n'avez pas (encore) les droits nécessaires pour répondre à cet article)
© 2003-2025 PaRaNo • Les CGU • Réseau Social Discret • Jour/Nuit