Ir al contenido
_
_
_
_

Imágenes sexualizadas con solo unos clics: una práctica impulsada por la IA que gana terreno entre los jóvenes en EE UU

El uso de estas herramientas generadoras de ‘deepfakes’ se extiende entre los menores de 13 a 17 años

Una pantalla muestra ejemplos de vídeos creados mediante indicaciones de IA, realizados con la aplicación Grok.Leon Neal (Getty Images)

El uso de inteligencia artificial generativa para producir imágenes sexualizadas se ha convertido en una práctica habitual entre adolescentes en Estados Unidos. Así lo señala una investigación publicada este miércoles en la revista PLOS One. El estudio, basado en una encuesta nacional anónima a jóvenes de 13 a 17 años, indica que más de la mitad de los participantes había utilizado al menos una vez una herramienta o sitio web para retocar la foto de una persona real, un proceso llamado deepfake. Mientras, también uno de cada dos aseguró haber recibido alguna.

Los resultados indican que el 55,3% de los participantes afirmó haber creado este contenido y otro 54,4% recibió al menos una en una muestra de 557 personas.

La investigación, liderada por Chad Steel, experto en comportamiento digital de la Universidad George Mason (EE UU), ha puesto también el foco sobre las víctimas. Un 36,3% de los participantes afirmó que se había generado una imagen suya sin consentimiento. Y otro 33,2% indicó que al menos una de estas imágenes había sido compartida a otras personas. Aunque el fenómeno afecta a todos los grupos demográficos, los resultados muestran que los hombres jóvenes participan más activamente en la creación y distribución de este tipo de contenido que sus pares mujeres.

El estudio advierte que estas cifras podrían ser solo una estimación mínima y que muchos adolescentes no son conscientes del alcance real de la difusión de esas imágenes. Para Steel, se trata de un fenómeno global y difícil de abordar. “Los adolescentes son más propensos a tener todo tipo de comportamientos problemáticos y, aunque existen indicios, no sabemos con seguridad cuántos pueden estar usándolas”, advierte.

Una tecnología que aprende de una sociedad desigual

Lledó Museros, experta en el estudio de sesgos de género en técnicas de IA, recuerda que ya existen evidencias de que estos sistemas tienden a representar más a las mujeres de forma sexualizada. “Se representa el cuerpo femenino como un objeto visual y se prioriza para la atracción masculina”, explica. Un fenómeno que responde a lo que se conoce como male gaze o mirada masculina. “La IA es mejor generando desnudos de cuerpos estereotipados, como mujeres blancas con buen cuerpo. Lo que hace es solo reproducir la lógica cultural dominante”, apunta.

Los sistemas de inteligencia artificial necesitan enormes volúmenes de información para funcionar y la ingeniera sostiene que esta información masiva no es ajena a los sesgos que existen en nuestra sociedad. Y esa sociedad, advierte, “es sesgada por naturaleza”. “Si quieres una persona que sea un profesional de la ingeniería, probablemente te va a predecir que es un hombre”, explica Museros. “No es que la IA sea desigual o malvada, si no que amplifica nuestras desigualdades”, afirma.

El impacto en las víctimas es profundo

La investigación sugiere que, al igual que ocurrió con el sexting en la década pasada, la creación y el intercambio de imágenes sexualizadas creadas con IA se están integrando en la exploración social y sexual adolescente. La psicóloga Natalia Bueso-Izquierdo apunta a factores culturales: las redes sociales ha dejado de ser solo son un canal de comunicación. “Es un espacio de identidad y validación”, afirma.

Las consecuencias emocionales en las víctimas, apunta, son comparables a otras formas de violencia de género. “Aunque las imágenes sean falsas o manipuladas, el impacto en la víctima es real y profundo”, subraya. Según esta experta, ser víctima puede generar una reacción en cadena: evitar las redes sociales, producir aislamiento e incluso la retirada del contacto social. Además de problemas de ansiedad, estrés o sentimientos de vergüenza y de culpa. Todos derivados tanto del miedo a la difusión como del posible juicio social.

En los últimos años han proliferado en internet los sitios y aplicaciones que permiten a las personas crear imágenes no consentidas y abusivas de mujeres y niñas, incluido material de abuso sexual infantil. Tres millones de imágenes de contenido sexual explícito fueron generados solo por Grok, la inteligencia artificial generativa propiedad de Elon Musk, entre el 29 de diciembre y el 8 de enero. La investigación del Centro para Contrarrestar el Odio Digital (CCCDH, por sus siglas en inglés) apunta que al menos 23.000 mostraban a menores.

El uso se populariza, la violencia se normaliza y sus creadores generan ganancias millonarias. Un análisis de 85 sitios web de nudismo realizado por Indicator, una publicación que investiga el engaño digital, encontró que la mayoría de estas plataformas dependen de grandes emporios tecnológicos para permanecer en línea —como Google, Amazon y Cloudflare—. De acuerdo con los investigadores, estos sitios habrían generado colectivamente hasta 36 millones de dólares con 18,5 millones de visitantes en cada uno de los primeros seis meses del 2025.

Los gobiernos de la Unión Europea acordaron la semana pasada solicitar la prohibición de los sistemas de inteligencia artificial capaces de producir pornografía. La iniciativa, impulsada por España, se integra en el proceso de revisión normativa que busca reforzar el marco regulatorio europeo. La aprobación dependerá ahora de la negociación con el Parlamento y se da en el marco de la reforma de la Ley de Inteligencia Artificial, cuyas conversaciones comenzarán a principios de abril.

Para Lledó Museros, la respuesta también pasa por la educación. “Tiene que ser una asignatura”, advierte. Propone actuar en dos frentes. Por un lado, enseñar un uso ético de la tecnología. Y por otro, mayor educación sexual. “Los chavales a partir de los ocho o nueve años ya reciben mensajes sexualizados brutales”, advierte.

Corregir el problema no es sencillo. Aun así, alerta de las consecuencias de no actuar: “Si no los corregimos, la IA no solo reflejará la violencia y desigualdad, sino que la hará más rápida, más fácil y más difícil de combatir”.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_