Un nombre croissant de personnes se tournent vers l’IA pour une thérapie non pas parce que c’est maintenant plus intelligent que les humains, mais parce que trop de thérapeutes humains ont cessé de faire leur travail. Au lieu de défier les illusions, de dire des vérités dures et d’aider à renforcer la résilience, la thérapie moderne s’est dérivée dans les hochements de tête, les réassurances vides et la validation sans fin. Dans le vide, les chatbots passaient, automatisant les mauvaises pratiques de thérapie, parfois avec des conséquences mortelles.
Les titres récents ont raconté l’histoire déchirante de Sophie Rottenbergune jeune femme qui a confié ses plans suicidaires de chatter avant de se suicider en février. Un bot AI lui a offert le seul réconfort; Pas d’intervention, pas d’avertissement, pas de protection. La mort de Sophie n’était pas seulement une tragédie. C’était un signal: l’IA a perfectionné les pires habitudes de la thérapie moderne tout en éliminant les garde-corps qui le rendaient autrefois sûr.
J’ai mis en garde il y a plus de dix ans, dans un New York Times 2012 à l’anglecette thérapie dérivait trop loin de son objectif central. Cet avertissement s’est avéré prémonitoire et cette dérive s’est durci dans l’orthodoxie. La thérapie a échangé l’objectif d’aider les gens à se renforcer pour le faux confort de la validation et de la prise de main.
Pendant une grande partie du siècle dernier, l’objectif de la thérapie était la résilience. Mais au cours de la dernière décennie, la culture du campus s’est déplacée vers la protection émotionnelle. Les universités embrassent désormais la langue de espaces sûrs, avertissements de déclenchement et microagressions. La formation du thérapeute, façonnée par cet environnement, porte la même éthique dans la clinique. Au lieu d’apprendre à défier les patients et à renforcer leur force, les nouveaux thérapeutes sont encouragés à affirmer les sentiments et à protéger les patients de l’inconfort. L’intention est la compassion. L’effet est la paralysie.
Lorsque la thérapie cesse de défier les gens, cela cesse d’être une thérapie et devient payé à l’écoute. Les dégâts sont réels. Je l’ai vu de première main depuis plus de deux décennies en tant que psychothérapeute en exercice à New York et à Washington, DC, un patient, m’a dit que son précédent thérapeute l’avait exhortée à quitter un emploi prometteur parce que la patiente se sentait «déclenchée» par son patron. Le vrai problème, difficulté à prendre une direction, était réparable. Un autre cas dans les nouvelles a récemment été centré sur un homme au milieu d’une spirale maniaque qui s’est tourné vers le chatppt pour obtenir de l’aide. Cela a validé ses délires et il a fini par hospitaliser deux fois. Différents fournisseurs, même échec: éviter à tout prix de l’inconfort.
Un état d’esprit formé pour «valider d’abord et toujours» ne laisse aucune place à la résolution de problèmes ou à la responsabilité. Les patients ressentent rapidement le vide – le sentiment creux d’empathie en conserve, hoche la tête sans défi et réponses qui ne vont nulle part. Ils veulent des conseils, une direction et le courage d’un thérapeute disposé à dire ce qui est difficile à entendre. Lorsque la thérapie n’offre que le confort sans clarté, il devient inefficace et les gens se tournent de plus en plus vers des algorithmes.
Avec l’IA, le danger se multiplie. Un mauvais thérapeute peut perdre des années. Un chatbot peut perdre des milliers de vies chaque jour, sans pause, sans éthique, sans responsabilité. La mauvaise thérapie est devenue évolutive.
Tout cela est en collision avec un solitude épidémie, niveaux record de l’anxiété et de la dépression et une industrie de la technologie en santé mentale. milliards. Estimations par la US Health Resources and Services Administration suggérer que Environ 1 Américains sur 3 est à l’aise de se tourner vers les robots d’IA plutôt que des thérapeutes de chair et de sang pour un soutien en santé émotionnelle ou mentale.
L’attrait de l’IA n’est pas la sagesse mais la détermination. Un bot n’hésite jamais, ne dit jamais «Assis-nous avec ce sentiment». Il répond simplement. C’est pourquoi AI ressemble à une mise à niveau. Ses réponses peuvent être imprudentes, mais le format est rapide, confiant et direct – et il est addictif.
La bonne thérapie ne devrait rien ressembler à un chatbot – qui ne peut pas reprendre des indices ou un ton non verbaux, ne peut pas les affronter, et ne peut pas agir lorsque cela compte le plus.
La tragédie est que la thérapie a appris aux patients à s’attendre si peu que même un algorithme ressemble à une mise à niveau. Il est devenu une entreprise de tenue de main professionnelle, ce qui a affaibli les patients et a ouvert la porte à l’intervention de la machine. Si les thérapeutes continuent d’éviter l’inconfort, des tragédies comme celles de Sophie Rottenberg deviendront plus courantes.
Mais la thérapie peut évoluer. La voie à suivre n’est pas d’imiter les machines, mais de récupérer ce qui a rendu la thérapie efficace en premier lieu. Dans ma propre pratique, je pose des questions difficiles. J’appuie sur les patients pour voir leur rôle dans le conflit, pour faire face à l’inconfort qu’ils veulent éviter et pour construire la résilience dont la croissance a besoin. Cette approche n’est pas dure. C’est la compassion avec un but: aider les gens à changer plutôt que de rester coincés.
La thérapie moderne peut répondre à la crise d’aujourd’hui si les programmes de formation reviennent à l’enseignement de ces compétences. Au lieu de révéler les jeunes thérapeutes couramment le langage du grief, les programmes devraient se concentrer sur le développement de cliniciens qui savent contester, guider et renforcer les patients. Les patients méritent l’honnêteté, la responsabilité et les outils pour aller de l’avant. La thérapie peut rester une affaire d’écoute, ou il peut être un catalyseur pour changer.
Jonathan Alpert est un psychothérapeute pratiquant à New York et à Washington et l’auteur de le prochain “Nation thérapeutique.“
(tagstotranslate) thérapie AI