Tu ‘chatbot’ favorito no es tu amigo
Los sistemas de lenguaje de IA generan una ilusión de empatía y competencia para vendernos no solo productos, sino también ideologías


Amamos y nos enamoramos de nuestros chatbots. Disfrutamos de su disponibilidad constante, de su amabilidad inmutable, de su aparente conocimiento sin límites, de su supuesta empatía y, cómo no, de su maestría para la adulación constante. De hecho, en una sociedad marcada por la soledad y la crispación, podemos llegar a pensar que son lo mejor que nos ha pasado. Por ello, cada vez más buscamos refugio en nuestro chatbot favorito para que nos consuele, nos aconseje, nos escuche y, por qué no, nos haga un poco la pelota como tan bien saben hacerlo. A nadie le amarga un dulce, especialmente en momentos en que la realidad es amarga.
Pero, tras esa fachada, es importante saber que los chatbots no son ni nuestros aliados ni nuestros amigos. Han sido diseñados para cumplir objetivos definidos por quienes los implementan, y no necesariamente para proteger nuestros intereses.
Si esto es así, ¿por qué confiamos en ellos nuestros más íntimos pensamientos, secretos, enfermedades, dudas o miedos? La confianza consiste en aceptar la vulnerabilidad porque esperamos un comportamiento favorable. En los humanos, se construye mediante la percepción de competencia, benevolencia e integridad. En los chatbots, sin embargo, surge principalmente como consecuencia de nuestros sesgos cognitivos. La antropomorfización nos hace atribuirles intenciones y comprensión humanas. El efecto Eliza, descrito por el pionero Joseph Weizenbaum, demuestra que incluso interacciones mínimas pueden generar la sensación de que el sistema nos entiende y nos escucha; y el sesgo de confirmación nos lleva a valorar respuestas que coinciden con nuestras creencias. La interacción es casi siempre textual y aparentemente anónima: sin caras ni miradas que nos juzguen, nos sentimos cómodos revelando información y siguiendo recomendaciones, lo que refuerza la ilusión de confianza. Otros factores que aumentan la confianza incluyen la percepción de transparencia cuando parecen explicar sus límites, la cortesía y respuestas agradables que refuerzan la sensación de comprensión, la consistencia funcional que da la impresión de competencia, la posibilidad de corregir errores y su habilidad para, casi siempre, darnos la razón.
Esta combinación de diseño conversacional y sesgos psicológicos produce la sensación de un asistente confiable, cuando en realidad el comportamiento de los chatbots es resultado de algoritmos que priorizan los intereses comerciales de las empresas: maximizar el tiempo de interacción, recopilar datos y/o influir en decisiones de compra. Su amabilidad y coherencia son estrategias deliberadas para generar confianza, no señales de benevolencia o juicio moral. Por eso, en lugar de nuestro amigo favorito, profesor particular, coach personal o asistente diligente, deberíamos verlos como vendedores extremadamente hábiles y sin escrúpulos. Un buen vendedor sabe escuchar y atender, sabe adaptar su mensaje para convencer, conoce bien lo que vende, es coherente y genera confianza. Los chatbots, de manera similar, son maestros del ilusionismo: generan una ilusión de empatía, respondiendo como si nos entendieran; una ilusión de comprensión, como si captaran nuestras necesidades, y una ilusión de competencia, proyectando seguridad y coherencia aunque no tengan juicio ni conocimiento real. Como vendedores entrenados, saben ganarse nuestra atención y manipularnos explotando nuestros sesgos para vendernos no solo productos (poco falta para la publicidad encubierta en sus respuestas), sino también ideologías: reforzando nuestras creencias previas, amplificando prejuicios, guiándonos hacia opiniones convenientes y utilizando nuestra necesidad de seguridad cognitiva para moldear actitudes y decisiones. Paradójicamente, desconfiamos de las instituciones que sostienen la democracia y depositamos nuestra confianza en estos sistemas opacos que operan sin control público ni responsabilidad. En la era donde lo falso impera y la posverdad dicta la agenda, los chatbots emergen como los reyes indiscutibles de un nuevo orden digital.
Un motivo de preocupación especial es el uso creciente de chatbots entre niños y adolescentes, ya que su cerebro es más vulnerable a una falsa ilusión de empatía justamente en una etapa vital en la que necesitamos referentes en los que confiar. Niños y adolescentes no solo se apoyan en chatbots para hacer los deberes, sino también para buscar apoyo emocional, lo que puede afectar a su salud mental, generar ansiedad o adicción, distorsionar relaciones sociales y exponerlos a riesgos de violación de la privacidad y consumo de contenidos inapropiados o peligrosos.
La Unión Europea ha definido siete pilares para que la inteligencia artificial sea segura y respetuosa con nuestros derechos, pero curiosamente esos principios no explican por qué confiamos en los chatbots. De hecho, podemos llegar a confiar más en un sistema que incumple varios de esos pilares que en otro que los respeta estrictamente, simplemente porque el primero está mejor diseñado para generar sensación de cercanía y seguridad. Lo que nos da confianza no siempre es lo que nos protege, porque la confianza es fruto de factores psicológicos, no éticos.
Reconocer que los chatbots son vendedores conlleva la necesidad de interactuar con ellos con conciencia crítica: aprovechar su utilidad sin asumir benevolencia ni seguridad. Comprender que la confianza puede ser manipulada por diseño nos permite mantener el control y proteger nuestros intereses. Los chatbots pueden ser útiles, pero no nos engañemos: no son ni nuestros amigos ni nuestros asistentes. Son algoritmos diseñados para influir, persuadir y obtener datos aprovechándose de nosotros, y nuestra confianza es un tesoro que conviene gestionar con inteligencia. Porque confiar en un chatbot no nos hace ni más listos ni más felices. Nos hace más comprables.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.




























































