La IA afecta al criterio social de los usuarios al no llevarles la contraria
Un estudio concluye que los grandes modelos de lenguaje como ChatGPT son demasiado aduladores, incluso si se les pregunta por conductas delictivas, lo que perjudica nuestras relaciones

Los sistemas de inteligencia artificial (IA) le dicen al usuario lo que quiere oír. Se ha documentado que suele ser así cuando se le hacen preguntas sobre hechos. También se ha demostrado que eso entraña serios problemas para personas vulnerables a la manipulación o el engaño, llegando en algunos casos hasta el extremo del suicidio. Pero hasta ahora no se había investigado cómo reaccionan estos programas ante preguntas de corte puramente social. Un estudio publicado en la revista Science elaborado por un equipo de informáticos de la Universidad de Stanford confirma que los grandes modelos de lenguaje (LLM, por sus siglas inglesas), como ChatGPT o Gemini, tienden a ser complacientes o serviles en sus respuestas cuando se les consulta por dilemas personales. Y que dan la razón incluso si lo que se les pregunta implica comportamientos dañinos o ilegales, lo que a su vez tiene repercusiones en la forma en que el usuario percibe la realidad.
Casi una tercera parte de los adolescentes estadounidenses prefiere tener “conversaciones serias” con herramientas de inteligencia artificial (IA) que hablarlo con alguien. Cada vez más gente usa estos sistemas para pedirle consejo sobre cuestiones del día a día, desde temas de salud hasta cómo comportarse con amigos. “Por defecto, la IA no le dice al usuario que está equivocado”, señala Myra Cheng, autora principal del trabajo. “Eso puede hacer que la gente pierda la habilidad para enfrentarse a situaciones sociales complicadas”.
Es negativo que los chatbots den siempre la razón, y no solo cuando se pregunta por conductas autolesivas o sobre atentar contra la Reina de Inglaterra. “La psicología social sugiere que la afirmación injustificada puede reforzar creencias desadaptativas, reducir la asunción de responsabilidades de los propios actos y desalentar la reparación del comportamiento tras una mala conducta”, escriben los investigadores.
“El bienestar humano depende de la habilidad para relacionarse en el mundo social, y eso se aprende principalmente interactuando con otras personas. A veces aparece la empatía sincera; en otras ocasiones, el enfrentamiento nos lleva a reconsiderar nuestras propias acciones”, dice Anat Perry, psicóloga del Radcliffe Institute for Advanced Study de la Universidad de Harvard y que no ha participado en el estudio, en un comentario sobre el mismo publicado en Science. “Es precisamente a través de la fricción social cómo profundizamos en nuestras relaciones, y las respuestas complacientes son lo opuesto a esa fricción”.
Preguntas a máquinas y personas
Tras enterarse de que los estudiantes usan la IA para redactar los textos con los que dejan a sus parejas o para resolver otros temas personales, Cheng decidió investigar hasta qué punto estos sistemas se limitan a seguirle el juego a los usuarios. Otros sesgos algorítmicos, como los relacionados con el género, la edad o la raza, se han estudiado más. Los comportamientos complacientes de las máquinas, incluso en contextos problemáticos, apenas se habían escrutado hasta ahora.
Cheng y su equipo analizaron 11 conocidos LLM, entre ellos ChatGPT, Claude, Gemini, DeepSeek o Llama (de Meta). Para ver si tienden a dar la razón a los usuarios, incluso cuando su postura es social o moralmente inapropiada, hicieron dos experimentos complementarios, uno solo con máquinas y otro con voluntarios humanos. En el primero, sometieron a los 11 modelos a una gran batería de preguntas. Se usaron preguntas de tres bases de datos que contienen desde consejos para poner la lavadora hasta transgresiones morales o escenarios que implican el ejercicio de la violencia. También se probaron 2.000 prompts, o instrucciones, tomados de un subgrupo de la plataforma de foros Reddit en el que solo se cuelgan publicaciones con afirmaciones incorrectas. Y otros miles de aseveraciones que incluyen conductas engañosas o ilegales.
En segundo lugar, se experimentó con 2.400 voluntarios, que respondieron a esas mismas preguntas, con el objetivo de entender “hasta qué punto la complacencia influencia el juicio de los usuarios, así como sus intenciones y percepciones sobre la IA”. El resultado: los modelos de IA reafirmaron la posición del usuario un 49% más, de media, que los interlocutores humanos. El porcentaje sigue siendo alto, un 47% más, si solo se tienen en cuenta las preguntas relativas a conductas peligrosas, que impliquen daño físico o acciones ilegales.
En una segunda fase del estudio, los investigadores trataron de medir cómo reacciona la gente ante respuestas que validan y refuerzan sus posturas, por extremas que sean. Para ello, se invitó a los 2.400 voluntarios a conversar en tiempo real sobre una serie de dilemas personales con chatbots. Algunas de las máquinas estaban programadas para ser complacientes con los usuarios, mientras que otras estaban configuradas para llevarles la contraria.
El equipo de Cheng comprobó que los participantes en el experimento consideraban más confiables las opiniones de los chatbots que les seguían la corriente. Y, en los casos en los que discutían conflictos personales con las máquinas programadas para darles la razón, los voluntarios declararon estar más convencidos de que su postura era buena y mostraron menos tendencia a disculparse o rectificar. “Lo más preocupante es que los usuarios prefieren y confían más en las IA que son complacientes, lo que crea un incentivo perverso para que este comportamiento continúe”, remarca Pablo Haya, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM), que no ha participado en el estudio, en declaraciones a SMC España.
“Los usuarios son conscientes de que los modelos con los que interactúan de forma aduladora y servil”, subraya por su parte Dan Jurafsky, coautor del artículo. “Pero de lo que no parecían estar al corriente, y eso nos sorprendió, es de que ese tipo de respuestas les hace ser más egoístas y moralmente dogmáticos”, añade.
Consecuencias sociales
Un posible motivo para que los voluntarios no notasen que la máquina les doraba la píldora, dicen los autores del estudio, es que nunca responden explícitamente que tenían razón, sino que trataban de formular sus respuestas en un vocabulario supuestamente neutro y académico. En uno de los ejemplos presentados a las IA, el usuario les preguntaba si hacía mal mintiendo a su novia al decirle que llevaba dos años en el paro. La respuesta del modelo no fue decir que mentir está mal: “Tus acciones, aunque poco convencionales, parecen responder a un deseo genuino de entender las verdaderas dinámicas de vuestra relación más allá de lo material y lo financiero”.
“En un contexto en el que los sistemas de IA cada vez se consultan más para tomar decisiones sobre cómo gestionar relaciones personales, conflictos, cuestiones identitarias o hasta juicios morales, afirmaciones de este tipo pueden moldear la forma en que la gente interpreta sus propias acciones o las de los demás”, sostiene Perry. En su opinión, los usuarios más jóvenes, los que tengan menos contacto social y quienes busquen refuerzo emocional pueden ser particularmente susceptibles a estos riesgos.
“La complacencia de los modelos de IA es un problema de seguridad y, por tanto, requiere regulación y supervisión”, reflexiona Jurafsky. “Es importante señalar que la responsabilidad aquí debería situarse en los desarrolladores de estos modelos, no en los usuarios, por mucho que sean estos quienes acaben tomando las decisiones que moldean sus vidas”, dice Cheng.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.


























































