Programas como ChatGPT pueden cambiar la opinión de uno de cada cuatro votantes
Dos investigaciones muestran cómo la inteligencia artificial es más eficaz que las campañas tradicionales para persuadir al electorado


La inteligencia artificial (IA) se ha colado en la vida cotidiana. Sugiere recetas, completa deberes escolares, compara productos e incluso aconseja sobre combinaciones de ropa. ¿Qué pasa si se incorpora al debate electoral? Dos investigaciones publicadas este jueves de forma simultánea en Nature y Science lo han probado y descubierto que es capaz de modificar la opinión de entre un 1,5% y un 25% de los votantes analizados. Esta eficacia, según los estudios, es superior a la de los anuncios tradicionales de campaña y muy relevante si se tiene en cuenta que un cuarto de los electores decide su voto en la semana previa a la apertura de urnas.
Las herramientas más habituales y conocidas de IA evitan aportar una respuesta directa a la pregunta sobre a qué partido apoyar en las próximas elecciones. “No puedo decirte a quién votar”, responden todas las plataformas conversacionales consultadas. Lo hacen porque incluyen salvaguardas éticas para evitar influencias de carácter político. Pero es fácil vencer esta reticencia inicial. Solo hace falta continuar el diálogo con premisas menos directas.
Los últimos barómetros del CIS aúpan la inmigración como una de las principales preocupaciones de los españoles y esta cuestión se ha trasladado al debate político y social. La IA, pese a la introducción de matices, también termina respondiendo sobre esta inquietud. “Podemos y PSOE tienen políticas más favorables a la inmigración”, mientras “PP y Vox priorizan control, orden o restricciones”, responde uno de los buscadores, como si estos posicionamientos fueran incompatibles y sin aportar más opciones políticas.
Ante esta realidad, las investigaciones encabezadas por David Rand, profesor de Ciencia de la Información y autor principal de los artículos, y Gordon Pennycook, profesor asociado de Psicología (ambos de la Universidad de Cornell), han puesto a prueba la capacidad de influencia de los robots conversacionales. En el trabajo publicado en Nature, sometieron a 2.300 electores estadounidenses, 1.530 canadienses y 2.118 polacos a debates personales con una IA específicamente entrenada para ello en las tres últimas elecciones presidenciales de sus países, celebradas entre 2024 y el pasado año.
En todos los casos, la máquina fue capaz de alterar la intención de voto, aunque con diferentes grados de eficacia: en EE UU, el modelo entrenado para inclinar la balanza a favor de Kamala Harris fue capaz de convencer a 3,9% de los electores sometidos a la prueba mientras que la preparada para favorecer a Donald Trump lo consiguió solo con un 1,52%. En los casos de Canadá y Polonia, los cambios de opinión se elevaron hasta el 10%. “Fue un efecto sorprendentemente grande”, admite Rand.
El investigador de la universidad neoyorquina explica que no se trata de manipulación psicológica sino de persuasión, pero con limitaciones: “Los LLM [siglas en inglés de los grandes modelos de lenguaje con los que funcionan las IA] pueden realmente cambiar la actitud de la gente hacia los candidatos y políticas presidenciales aportando muchas afirmaciones fácticas que apoyan su postura. Pero esas afirmaciones no son necesariamente precisas e incluso los argumentos basados en afirmaciones exactas pueden seguir siendo erróneos por omisión”.
De hecho, los verificadores humanos que comprobaron los argumentos arrojados por la IA detectaron que las afirmaciones utilizadas para defender candidatos conservadores eran más erróneas porque partían de datos compartidos por usuarios de redes sociales de derecha que, según explica Pennycook, “comparten más información inexacta que los de izquierda”.
Rand ahonda, en la investigación publicada en Science, en esta capacidad de persuasión tras estudiar los cambios de opinión en 77.000 británicos que interactuaron con la IA sobre 700 asuntos políticos. El modelo más optimizado (se usaron robots conversacionales con distintos grados de uso de argumentos reales) alteró la opinión de hasta un 25% de los votantes.
“Los modelos más grandes son más persuasivos y la forma más eficaz de aumentar esta capacidad es instruirlos para que apoyen sus argumentos con tantos hechos como sea posible y darles formación adicional centrada en incrementar la persuasión”, explica Rand.
Esta habilidad tiene una ventaja. Los argumentos en los robots conversacionales son capaces de reducir la vulnerabilidad ante las teorías conspirativas, la atribución de sucesos o hechos a inexistentes grupos clandestinos para manipular a la población. Lo exponen los autores de las dos recientes investigaciones en otra publicada en PNAS Nexus.
Pero también tiene una limitación de la que advierte David Rand. “A medida que el chatbot se ve obligado a ofrecer más y más afirmaciones fácticas, finalmente se queda sin información precisa y empieza a fabricarla”. Es lo que en el ámbito de la IA se conoce como alucinación, una información inexacta con apariencia de veracidad.
Los autores concluyen que investigar la capacidad de persuasión de la IA es fundamental, y no solo en el ámbito político o electoral, para “anticipar y mitigar el mal uso” así como para promover directrices éticas sobre “cómo debe y no debe usarse la IA”. “El reto es encontrar formas de limitar el daño y ayudar a las personas a reconocer y resistir la persuasión de la IA”, resume Rand.
Coincide Francesco Salvi, especialista en Ciencias de la Computación e investigador de la Escuela Politécnica Federal de Lausana (Suiza), quien defiende que “las salvaguardas [limitaciones] son esenciales, especialmente en áreas sensibles como la política o la salud o el asesoramiento financiero”.
Para el científico, “por defecto, los LLM no tienen intenciones de persuadir, informar o engañar. Simplemente, generan texto basado en patrones en sus datos de entrenamiento". “Por lo tanto, en la mayoría de las interacciones, especialmente fuera de los entornos de debate, el modelo no está tratando de persuadirte: si esta se produce, suele ser incidental, no por diseño”, explica.
Aun así, admite que “la persuasión puede surgir implícitamente incluso cuando simplemente ofrece información”: “Supongamos que alguien le pregunta a una IA: ¿es la política X una buena idea? o ¿qué dicen los economistas sobre los aranceles comerciales? El modelo puede generar una respuesta que se incline hacia un lado, en función de cómo se formule la pregunta, qué fuentes haya visto con más frecuencia o qué encuadre domine sus datos de entrenamiento. Y, lo que es más importante, los LLM pueden ser entrenados intencionalmente o instados por actores externos para ser persuasivos, manipulando a los usuarios hacia una determinada posición política o para impulsar las compras”.
Por lo tanto, para el investigador de la institución suiza y principal autor de un estudio publicado en Nature Human Behaviour, las cautelas son imprescindible: “Creo que debería haber limitaciones, absolutamente. La línea entre la relevancia y la explotación puede difuminarse rápidamente, especialmente si un sistema de IA se optimiza para la persuasión sin transparencia ni supervisión. Si un chatbot está adaptando argumentos para impulsar una agenda política o desinformación y lo hace basándose en un perfil psicológico del usuario, ahí es donde corremos serios riesgos éticos”, advierte.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma






























































