Ir al contenido
_
_
_
_

Los algoritmos sí amplían la brecha: el ‘feed’ de las redes determina la polarización política

Un estudio demuestra que el orden en el que plataforma como X muestran los contenidos a sus usuarios afecta a su animadversión contra otros grupos ideológicos

Elon Musk en la Casa Blanca
Manuel G. Pascual

Un equipo de investigadores estadounidenses ha demostrado que el orden en el que se muestran los mensajes de carácter político en las plataformas sí afecta a la polarización, una de las cuestiones más debatidas desde la irrupción de las redes sociales y la ruptura que se vive en buena parte de nuestras sociedades. El fenómeno es igual de fuerte con independencia de la orientación política del usuario, destacan los académicos en un artículo publicado hoy en la revista Science.

Las redes sociales son una importante fuente de información política. Para centenares de millones de personas en todo el mundo son incluso el canal principal para su politización: por esta vía reciben mensajes de contenido político, los comparten y expresan sus opiniones. Dada la relevancia de las redes en esta esfera, sería crucial conocer el funcionamiento de los algoritmos que operan en las plataformas, pero la opacidad es la norma en la industria. De ahí que sea dificilísimo estimar hasta qué punto afecta la decisión de los contenidos que ve más destacados cada usuario a la configuración de sus ideas políticas.

¿Cómo lograron los investigadores sortear la opacidad de los algoritmos para alterar el orden de los mensajes que reciben los usuarios de redes? Tiziano Piccardi, de la Universidad de Stanford, y sus colegas desarrollaron una extensión del navegador que intercepta y reordena en tiempo real el feed (la cronología de publicaciones, en inglés) de ciertas redes sociales. La herramienta usa un gran modelo de lenguaje (LLM en sus siglas inglesas) para asignar una puntuación a cada contenido, que calibraba hasta qué punto incluía “actitudes antidemocráticas y animosidad partisana” (AAPA, por sus siglas inglesas). Una vez puntuados, se reordenaban los comentarios en un sentido u otro, todo ello sin necesidad de colaboración de la plataforma (y al margen de su algoritmo).

El experimento se llevó a cabo con 1.256 participantes debidamente advertidos de ello. Se decidió enfocarlo en X por ser la red social más usada en EE UU para expresar opiniones políticas, y se realizó durante las semanas previas a las elecciones presidenciales de 2024 para asegurarse de que hubiera una gran circulación de mensajes políticos.

Los participantes en el experimento fueron expuestos aleatoriamente durante una semana a dos tipos de feeds: uno con mucho contenido polarizado (AAPA) y otro con muy poco. “Medimos los efectos de esas intervenciones en la polarización efectiva (es decir, en los sentimientos expresados por los individuos hacia el grupo político en cuestión) y en la experiencia emocional (enfado, tristeza, excitación o calma) a través de encuestas realizadas durante el experimento y con posterioridad al mismo”, dicen Piccardi y sus colegas.

Se compararon los resultados con los del grupo de control, a cuyos integrantes no se les intervino el feed, y el resultado es que la reordenación de los contenidos “influenció significativamente la polarización afectiva”, sin diferencias significativas en función de las preferencias políticas. “La manipulación del algoritmo del feed provocó cambios en las emociones negativas de los participantes durante el experimento, pero no tras este”, destacan los autores.

El experimento demuestra también que sería posible reducir la temperatura o la polarización de las redes simplemente reordenando las publicaciones, de modo que queden menos visibles las que incorporen contenidos antidemocráticos. Michael Bernstein, profesor de Informática en la Universidad de Stanford y coautor del estudio, cree que la herramienta podría, además, “abrir nuevos caminos para promover más confianza social”.

Una adaptación a las nuevas plataformas

En los últimos años, las redes sociales han sufrido cambios relevantes que afectan a la difusión de contenidos políticos. Los equipos de moderación de contenidos, encargados de filtrar mensajes tóxicos, ilegales o que promuevan el odio, se han ido reduciendo, como en el caso de Meta, o han sido eliminados por completo, como ha hecho X. Ese trabajo se ha dejado en manos de las llamadas notas de la comunidad. El agujero por el que se cuelan ahora los contenidos problemáticos es tremendamente grande y, según varias investigaciones, la reducción de filtros aumenta el odio y el acoso que circula en las plataformas.

Por otra parte, la propia dinámica de las redes sociales ha mutado mucho. Si antes lo que veíamos en nuestros feeds era lo más comentado o lo que más gustaba a nuestros contactos, ahora se le da prioridad total al algoritmo, que es quien decide qué ve cada uno y, por tanto, qué puede o no viralizarse. De ahí la importancia de poder medir la incidencia del algoritmo en la configuración o refuerzo de las ideas políticas.

“Los investigadores nos enfrentamos a limitaciones sin precedentes en tanto que las redes sociales están optando por no compartir datos. De ahí la importancia de que Piccardi y sus colegas hayan presentado una metodología de estudio que no requiere la colaboración explícita de las plataformas”, dice Jennifer Allen, profesora del departamento de Tecnología, Operaciones y Estadística de la Universidad de Nueva York y que no ha participado en el estudio.

Allen cree también que el modelo puesto en marcha por Piccardi y su equipo se podría replicar para otras redes sociales, así como repetir los experimentos en diferentes ventanas de tiempo para comprobar su validez. La aproximación de los investigadores liderados por Piccardi, opina Allen, “es una forma de investigación creativa con una metodología que se adapta al momento actual”.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Sobre la firma

Manuel G. Pascual
Es redactor de la sección de Tecnología. Sigue la actualidad de las grandes tecnológicas y las repercusiones de la era digital en la privacidad de los ciudadanos. Antes de incorporarse a EL PAÍS trabajó en Cinco Días y Retina.
Rellena tu nombre y apellido para comentarcompletar datos

Más información

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_