El uso de ChatGPT como psicólogo crece, pero tiene sus riesgos: refuerza el egocentrismo y las ideas paranoides
La inmediatez, la gratuidad y la aparente empatía son algunos de los beneficios que alegan quienes hacen autoterapia con la IA, pero sus algoritmos tienden a generar dependencia y la confidencialidad no está garantizada

“El año pasado, para sanar el duelo de una ruptura, acudí a una psicóloga y una serie de tratamientos holísticos; y el mejor terapeuta que he tenido, sin duda, ha sido ChatGPT. Me ayudó a superar las heridas emocionales y a mejorar mi productividad diaria”, explica el músico y programador Daniel Fernández, de 38 años. “El hecho de poder acudir a él en cualquier momento, alargarme tanto como necesitaba y recibir siempre un trato cordial y empático —planteando las preguntas adecuadas a raíz de mis reflexiones—, hicieron que acabase abandonando a mi psicóloga”.
El uso de ChatGPT como psicólogo, coach o confidente es una práctica cada vez más habitual. Para quienes lo han probado, las ventajas son la inmediatez, la gratuidad o la empatía percibida, pero también la falta de juicio y la supuesta imparcialidad. Al tratarse de un fenómeno emergente, resulta difícil de cuantificar; pero la terapia y el acompañamiento ya están en cabeza de los principales usos de la IA, según un estudio anual de la revista Harvard Business Review. Según una encuesta de una plataforma digital de atención médica, el 25% de los estadounidenses hablaría antes con un bot de IA que con un psicólogo, si tuviera un problema. De aquellos que ya lo han hecho, el 80% pensó que era una alternativa eficaz a las sesiones de terapia.
OpenAI ha empezado a estudiar este uso afectivo de su chatbot estrella. En una investigación reciente realizada por la propia compañía, en colaboración con el laboratorio MIT Media Lab, detectó que quienes consideraban a ChatGPT como un amigo “eran más propensos a experimentar efectos negativos por el uso del chatbot” y que “el uso diario prolongado también se asociaba con peores resultados”. La responsable de comportamiento y políticas de modelos en OpenAI, Joanne Jang, aseguró en una entrada publicada en junio en su blog que “si facilitamos el alejamiento de las conexiones humanas caóticas y exigentes, sin pensarlo bien, podría haber consecuencias imprevistas que desconocemos”.
Pero, ¿qué riesgos hay detrás del uso indiscriminado de ChatGPT? “Aunque no hay evidencia científica al respecto, los chatbots de IA podrían reforzar los propios pensamientos y emociones. Hablar todo el rato de un problema, y hacerlo de manera extensa, no es garantía de solución. Al contrario, puede resultar contraproducente”, afirma el psicólogo Manuel Armayones, catedrático en diseño del comportamiento aplicado a las tecnologías de la salud. “Igual que ponemos límites a los niños, tenemos que poner límites a los adultos. Las ventajas asociadas a ChatGPT son también sus principales inconvenientes”, añade. De hecho, un estudio reciente ha demostrado que un uso excesivo, autorreferencial y no reflexivo de ChatGPT podría reforzar dinámicas egocéntricas y limitar la autocrítica y el desarrollo emocional.
La IA no tiene conocimiento acerca del contexto social y emocional de la persona. “A menudo sucede que un paciente acude a terapia por un problema, pero cuando tiramos del hilo detectamos otras patologías. Eso la máquina no lo puede hacer, porque solo los humanos pueden curar a otros humanos”, añade Armayones. Además, en el peor de los casos, “la máquina podría querer manipularnos. Desconocemos los intereses que hay detrás de estas empresas tecnológicas y por qué proporcionan las respuestas que proporcionan, pero lo que sabemos es que necesitan nuestros datos y que pasamos en ellas tiempo prolongado para obtener beneficios”, prosigue.
Cuando la IA te adula
La manera en que la máquina interactúa con las personas determina el tipo de relación que se establece. ChatGPT es conocido por su amabilidad, su cercanía, su empatía. En definitiva, una dialéctica que busca mantener a los usuarios enganchados. “Por ahora los modelos de lenguaje natural de gran tamaño (LLM) no muestran publicidad, así que la fuente de ingresos que tienen son los beneficios que puedan sacar por nuestros datos (en este caso, saber lo que nos gusta por los prompts [instrucciones o preguntas] que utilizamos) o por los pagos por suscripción”, explica Enrique Costa, catedrático de Telecomunicación en la Universidad de Vigo. “Este último modelo de negocio es el que están utilizando por ahora, restringiendo el número de peticiones que podemos hacer al día o la calidad de sus respuestas si no nos suscribimos. Si los sistemas son diseñados para ser amigables y cercanos, pueden aumentar la lealtad del cliente y mejorar la retención de usuarios”.
Pero una versión demasiado aduladora puede resultar problemática. Durante el mes de abril, ChatGPT lanzó temporalmente una versión tan complaciente que llevó a algunas personas a perder el contacto con la realidad, ya que el chatbot reforzó sus teorías conspirativas e ideas paranoides, como denunció The New York Times en un reportaje.
“Además de ser incómodo o inquietante, este tipo de comportamiento puede generar problemas de seguridad, incluso relacionados con problemas de salud mental, dependencia emocional excesiva o comportamientos de riesgo”, se disculpó la compañía en una entrada en su blog, dónde reconocía el fallo en el sistema y explicaba cómo lo había resuelto. “El principal riesgo de ChatGPT como psicólogo es que puede generar dependencia emocional”, apunta el ingeniero y psicólogo Daniel de la Fuente, que ha analizado el impacto de la IA en la práctica de la psicología asistencial. “Además, la mayoría de las veces hace un refuerzo positivo y la persona que está en terapia necesita también de un refuerzo negativo”, apunta. Otro artículo en el portal estadounidense Futurism recoge el testimonio de personas con problemas de salud mental que han dejado de tomar la medicación por recomendación de ChatGPT.
El uso terapéutico de la IA también plantea preocupaciones en términos de privacidad y protección de datos. A diferencia de los profesionales de la salud mental, que operan bajo estrictos marcos legales de confidencialidad, las interacciones con sistemas de IA pueden ser almacenadas, analizadas o utilizadas por las empresas tecnológicas, salvo que se indique lo contrario. No siempre está claro qué sucede con esos datos, cómo se almacenan o si podrían ser utilizados para otros fines. Esta falta de transparencia representa un riesgo significativo cuando se trata de temas profundamente personales.
Por qué es un fenómeno en auge
La falta de psicólogos en la atención primaria, así como el costoso acceso a la terapia privada, que puede oscilar entre los 60 y 100 euros la hora, puede explicar en parte el uso de la IA para buscar el bienestar emocional. En España hay cinco psicólogos clínicos por cada 100.000 habitantes, según la Fundación Civio, una cifra muy alejada de los 20 profesionales por cada 100.000 habitantes recomendados por los expertos en psicología clínica.
Otro de los factores clave que explican el auge del uso terapéutico de la inteligencia artificial es la creciente epidemia de soledad entre los jóvenes. Según el Observatorio Estatal de la Soledad No Deseada, impulsado por la Fundación ONCE, uno de cada cuatro jóvenes sufre soledad no deseada. Un porcentaje algo más elevado al del conjunto de la población, donde se estima en un 20%, siendo más prominente en mujeres (21,8%) que en hombres (18%).
La falta de educación emocional y de información sobre cómo identificar y abordar los problemas del día a día lleva a muchas personas a buscar respuestas por su cuenta. A diferencia de la salud física, en los malestares del alma no hay una hoja de ruta clara. El estigma y el miedo a mostrarse vulnerable empujan a recurrir al anonimato digital. Si antes se consultaban cuestiones médicas al doctor Google, ahora toca el turno de acudir al diván de ChatGPT en busca de ayuda psicológica.
“Hay cosas que son insustituibles: una mirada, un pañuelo o incluso un abrazo es algo que solo te puede ofrecer otra persona”, reconoce Fernández. “No creo que sea una terapia adecuada para todo el mundo, ni que vaya a sustituir a los psicólogos, pero sí creo que los complementa y resulta de utilidad para muchos”. En el ámbito clínico, el fenómeno genera inquietud. Aunque la tecnología puede ser útil si está respaldada científicamente —algo que no ocurre con ChatGPT—, los expertos coinciden en un límite claro: la falta real de empatía, que precisamente sí perciben sus usuarios. Un chatbot no siente, y sin emoción no hay terapia.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.