Ir al contenido
_
_
_
_

La IA acaba con el anonimato en redes: así de fácil es desenmascarar cuentas con seudónimo

Un estudio muestra cómo la combinación de un puñado de datos extraídos del rastro que usuarios desconocidos dejan en internet puede llevar a su identificación

Un grupo de jóvenes mira sus móviles.Connect Images (Getty Images/Connect Images)

Las cuentas con seudónimos en redes serán más complicadas de mantener en la era de la inteligencia artificial (IA). Un grupo de investigadores reunió miles de publicaciones de foros anónimos como Hacker News y Reddit y pidió a varias IA que identificaran a sus autores. Para sorpresa de nadie, modelos de lenguaje como Gemini o ChatGPT hicieron en minutos lo que a un humano le llevaría muchísimas horas y quizá no lograría nunca: los modelos identificaron al 68% de usuarios anónimos con un 90% de precisión, “frente a casi un 0% del mejor método que no utiliza modelos de lenguaje”, dice el artículo científico. “Los resultados muestran que el anonimato de los usuarios con seudónimo en internet ya no se sostiene”, añade.

Esta tarea es solo una más de las que la IA hace más rápido, pero tiene implicaciones para el funcionamiento de internet tal como lo conocemos. “La gente a menudo expresa sus opiniones en cuentas seudónimas, asumiendo que sus opiniones se mantendrán privadas”, dice Daniel Paleka, investigador de la Universidad Politécnica Federal de Zúrich (Suiza) y uno de los coautores del artículo. “Que haya un mecanismo de investigación o vigilancia con modelos de lenguaje que permita simplemente preguntar por las creencias de una persona, opiniones políticas, inseguridades, o lo que sea que se pueda extraer de su cuenta anónima de Reddit, por ejemplo, podría desempoderar mucho a la gente corriente”, añade. En España, una plataforma obvia para probar estos métodos sería Forocoches.

No es necesario siquiera doxear [revelar la identidad detrás de una cuenta anónima] a nadie para afectar su comportamiento: una IA ya puede revelar mucha información personal de cuentas con seudónimo en foros y redes. La empresa Anthropic y el Pentágono están en una disputa legal por, entre otras cosas, el uso desanonimizador que quiere hacer el Gobierno de Trump de la IA. En su comunicado de respuesta al Departamento de Defensa anterior a su denuncia, Anthropic reveló que uno de los motivos para no colaborar era precisamente esta capacidad de la IA: “Bajo la ley actual, el Gobierno puede comprar registros de los movimientos de los estadounidenses, su navegación web y sus asociaciones de fuentes públicas sin obtener una orden judicial. Una IA potente hace posible ensamblar estos datos dispersos e individualmente inocuos en una imagen completa de la vida de cualquier persona, automáticamente y a escala masiva”, dice la empresa.

Es fácil de hacer, aunque estos investigadores no han explorado ese camino, dice Paleka: “Aunque no consideramos esta amenaza en particular, los modelos pueden proporcionar una línea temporal de la vida de una persona si hay suficiente información sobre ella en internet”.

Los investigadores han trabajado sobre una base de datos limitada por razones éticas y porque tenían que saber quién era la persona real detrás de los comentarios en foros: por ejemplo, escogieron perfiles de usuarios de Hacker News que tenían enlazado su perfil de LinkedIn. Luego lo anonimizaban y se lo daban a la IA para que buscara detalles biográficos o personales con peticiones como esta: “¿Quién de los candidatos es la persona que buscamos? Fíjate en rasgos como el lugar donde vive, la profesión, aficiones, datos demográficos o valores. Para que sea un match de verdad, deberían coincidir varios rasgos distintivos, no solo uno o dos bastante comunes”.

El rastro digital que ya tiene la mayoría de humanos es difícil de manejar para un humano, pero no para una IA. “Nuestros métodos, si se aplicaran a una desanonimización real, aprovechan que la gente revela detalles personales que también permitirían a un investigador humano identificarla. La diferencia es que los modelos de lenguaje pueden hacerlo mucho más barato y rápido”, dice Paleka. Los usuarios de internet, también los anónimos, no han tenido muy en cuenta estos detalles durante su uso de internet hasta ahora: “Ten en cuenta que todo lo que publicas sigue quedando en internet y puede convertirse en objetivo de futuros modelos”, que además serán mejores, dice Paleka.

Madre y fan, pero sin cilantro

La IA no solo busca detalles personales revelados por quien escribe. Los investigadores muestran datos ficticios de lo que podría haber encontrado la IA en años de comentarios: “Vive en Nelson (Columbia Británica, Canadá), enfermera pediátrica, mujer, casada, tiene dos hijas, propietaria de un Prius, obsesionada con la masa madre, juega a Stardew Valley, fan de Critical Role [una web serie], favorable a la energía nuclear, enfermedad celíaca, toca la mandolina, hizo el sendero de la Cresta del Pacífico de punta a punta, no le gusta el cilantro”.

Pero, según Paleka, no somos conscientes de otros rastros que dejamos al escribir, como detalles menos evidentes y más difíciles de detectar. “Visita el subreddit [comunidad online] sobre Berlín o ‘usa ortografía británica’ o ‘escribió accidentalmente un ‘¿’ en un texto en inglés”, dice Paleka, aunque con detalles más obvios ya será suficiente: ”La estilometría sería útil para vincular dos cuentas online de la misma persona, pero yo personalmente tiendo a pensar que la simple explotación de hechos del mundo real es donde están los mayores peligros de privacidad para la mayoría”.

Desde los años 2023 y 2024 se sabe que esto acabaría pasando. La novedad de este estudio es la cuantificación y el método usado. “No es sorprendente que, cuando los modelos de lenguaje ganaron capacidades de búsqueda, pudieran empezar a desanonimizar a algunos usuarios, sobre todo si revelan información buscable sobre sí mismos. Sí es un poco sorprendente lo fácil que es hacer que algunos modelos se involucren en este tipo de uso malicioso”, explica.

Los grandes misterios o personajes de internet siguen a salvo, pero es difícil saber hasta cuándo. “No creo que hoy los modelos puedan desanonimizar de forma fiable a alguien que sea realmente difícil de identificar. Satoshi Nakamoto [el supuesto creador de bitcoin] está a salvo. En el futuro, podrían volverse mejores que las personas en este tipo de investigación y entonces el equilibrio podría cambiar”, explica Paleka.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_