ESTILO DE VIDA

Lo que podemos aprender del desempeño de ChatGPT como psicoterapeuta
Jueves 4 de Diciembre de 2025
INTELIGENCIA ARTIFICIAL

Lo que podemos aprender del desempeño de ChatGPT como psicoterapeuta

Actualmente, alrededor del 10% de la población adulta mundial utiliza esta IA, y una porción significativa le pregunta sobre temas de reflexión y relaciones personales; sin embargo, los grandes modelos de lenguaje generalistas no están preparados para responder adecuadamente

Créditos: Shutterstock
Escrito en ESTILO DE VIDA el

Al menos desde el punto de vista anecdótico, las consultas de psicoterapia con grandes modelos de lenguaje como ChatGPT de OpenAI, Llama de Meta o Claude de Anthropic, han ido en aumento en los últimos meses. El argumento suele ser que da respuestas similares a un terapeuta humano y sale más barato.   

Sin embargo, recientemente se han dado casos en los que adolescentes han usado grandes modelos de lenguaje (llamados LLM por su sigla en inglés) o chatbots generales, como terapeutas con resultados que no sólo han sido malos sino en ocasiones hasta fatales.

Estos casos, y las correspondientes demandas legales, han llevado a que las compañías de inteligencia artificial (IA) empiecen a diseñar sistemas para prevenir que niños y adolescentes usen sus productos  generales como terapeutas. En cambio, nada ni nadie advierte a los adultos de los posibles peligros de usar este tipo de chatbots como terapeutas o, al menos, de su inutilidad.

Lo que un terapeuta hace por ti

"¿Qué hace un psicoterapeuta por ti? Es alguien que te va a ayudar a pensar mejor sobre tus opciones y tu vida", comenta el filósofo, escritor y creador del canal de YouTube "The School of Life" Alain de Botton, quien recientemente se entrenó como psicoterapeuta y da consultas.

De Botton, en una entrevista con Spectator TV comenta que esto puede sonar extraño. ¿Por qué habríamos de necesitar un terapeuta para pensar por nosotros mismos? Y su respuesta es que "un buen psicoterapeuta saca a la luz partes de ti que yacen en la oscuridad semiconsciente y te ayuda a conocerte mejor de lo que sabías cuando estabas solo".

Sin embargo, "el problema es que la IA, en su forma actual, es un poco complaciente con la gente. Simplemente dice "es fantástico" a todo. No cumple con lo que un buen psicoterapeuta debería hacer, que es desafiarte" dijo De Botton.

Esta no es sólo la opinión de un psicoterapeuta. Un estudio publicado este viernes 17 de octubre en la revista Nature, señala que los LLM están diseñados para ser aduladores, o excesivamente serviciales y amables, lo que hace que tiendan a "cumplir con solicitudes ilógicas que pueden generar información falsa".

ChatGPT tiene actualmente 700 millones de usuarios; alrededor del 10% de la población adulta mundial.

La investigación analizó las respuestas de los modelos de lenguaje con respecto a preguntas sobre salud física, un campo con más información objetiva que el de la salud mental. Aun así, los LLM fallaron "abrumadoramente en la respuesta adecuada a consultas médicas ilógicas", a pesar de poseer la información necesaria para dar la respuesta correcta, señala un comunicado de prensa.

"Como comunidad, debemos trabajar en la capacitación tanto de pacientes como de profesionales clínicos para que sean usuarios seguros de los LLM", dice Danielle Bitterman, líder del estudio y directora clínica de Ciencia de Datos/IA en el Hospital General de Massachusetts en el comunicado de esta institución.

Ser humano no basta

"A veces la gente dice: mi amigo fue a terapia y lo único que logró fue convertirse en una versión aún más horrible de sí mismo", comentó De Botton en la entrevista.

"Creo que eso suele ocurrir cuando el terapeuta no es lo suficientemente valiente, audaz o hábil como para plantear un desafío interesante a la visión del mundo de alguien. Así que creo que una buena terapia no debería limitarse a validar todo lo que dices", explicó.

Esto se aplica tanto a chatbots como a terapistas humanos: "Es importante decir que hay muchos psicoterapeutas malos", dijo De Botton, quien por otra parte se declara "fan de la inteligencia artificial en este ámbito, que creo que va a marcar enormes avances". 

A lo que se refiere el filósofo es a los terapeutas virtuales, chatbots entrenados especialmente para dar psicoterapia, mismos que una revisión publicada en el Journal of Medicine, Surgery, and Public Health en agosto de 2024 identificó como "una tendencia significativa en la mejora de la accesibilidad a los recursos de salud mental". 

"Estas entidades digitales brindan apoyo las 24 horas a personas con problemas de salud mental, independientemente de las limitaciones geográficas o de tiempo", señalan David Owalade y sus colaboradores en el artículo.

La ayuda es posible porque estos chatbots, a diferencia de los LLM generales, "pueden entablar conversaciones empáticas, ofrecer estrategias de afrontamiento y conectar a los usuarios con terapeutas humanos o líneas de ayuda para crisis cuando sea necesario", aclaran los autores.

Por otra arte, De Botton aclara que "mucha gente dice 'Probé la psicoterapia y no me gustó'. Y mi respuesta siempre es: 'Probaste con un psicoterapeuta y no te gustó'. Es como comprar un libro, no pasarla bien, y luego decidir que no te gusta la literatura".

Qué tantas consultas tiene ChatGPT como terapeuta

Antes de concluir conviene saber qué tan usual es consultar a los LLMs generalistas sobre salud mental.

De acuerdo con un estudio publicado en septiembre de este año por OpenAI y elaborado por la Oficina Nacional de Investigación Económica, encontró que en julio de 2025, ChatGPT tenía 700 millones de usuarios, lo que representa alrededor del 10% de la población adulta mundial.

ChatGPT, abierto al público desde noviembre de 2022, fue el primer chatbot para el mercado masivo, y el reporte señala que es probablemente el más grande en términos de usuarios, los cuales envían alrededor de 18 mil millones de mensajes semanales.

El análisis de una muestra significativa de esos mensajes muestra que el 10.2% de todos ellos, que representan el 36% de los mensajes que le piden a ChatGPT orientación práctica, son solicitudes de tutoría o enseñanza. Casi en la misma medida —8.5% en total y 30% de la orientación práctica— consiste en consejos generales sobre diversos temas.

Uno de esos temas es son las relaciones y la reflexión personales, en las que caben las consultas tipo psicoterapia. Estas consultas representan el 1.9% de todos los mensajes de ChatGPT.

Epílogo de servicio al cliente

Pero quizá el mejor ejemplo práctico para desaconsejar el uso de LLMs como terapeutas sea el de empresas como Klarna, la compañía sueca que, por medio de un trato con OpenAI, en 2023 reemplazó a su personal de servicios al cliente por chatbots. Su CEO, Sebastian Siemiatkowski declaró entonces que la compañía se había ahorrado 10 millones de dólares.

A pesar de eso, en mayo de este año Klarna empezó a recontratar a su personal humano, pues se dio cuenta de que el servicio al cliente requería empatía y sutilezas que la IA no tenía.