L’intelligence artificielle est de plus en plus utilisée en santé mentale, notamment sous la forme de chatbots accessibles 24 h/24, capables de dialoguer avec des personnes en détresse. Cette popularité s’explique par la pénurie de professionnels et par la facilité d’accès à ces outils numériques. Mais une enquête récente alerte sur les risques majeurs liés à l’usage non encadré de ces technologies en psychiatrie.
De nombreux spécialistes s’inquiètent du fait que ces systèmes, dépourvus de véritable compréhension clinique, puissent fournir des réponses inadaptées, banaliser des troubles graves ou renforcer des idées délirantes et suicidaires chez des personnes vulnérables. Contrairement à un thérapeute formé, un chatbot ne peut ni évaluer correctement la gravité d’une situation, ni assurer un suivi, ni intervenir en cas d’urgence.
Les experts soulignent aussi le danger d’une dépendance psychologique à ces outils, qui risquent de remplacer les relations humaines et d’aggraver l’isolement. Si l’IA peut offrir un soutien ponctuel ou aider au repérage précoce de certains troubles, elle ne saurait se substituer à une prise en charge médicale.
En clair, la communauté scientifique appelle à une régulation stricte et à un encadrement clinique de ces technologies. Sans cadre éthique et médical solide, la « thérapie en libre-service » par IA pourrait exposer des patients fragiles à des conséquences graves.


