Una adolescente demanda a los creadores de una app usada para ‘desnudarla’ sin consentimiento
La menor, que arrastra secuelas desde que sus compañeros la vejaron con la aplicación, considera que el modelo de negocio de la empresa es delictivo

Una adolescente estadounidense víctima de una aplicación, que usa la inteligencia artificial generativa para crear un desnudo falso de cualquiera a partir de una imagen con ropa, ha demandado a los creadores por las secuelas arrastra y por el potencial uso que estén haciendo de sus imágenes para entrenar modelos de IA, según recoge Portaltic.
En 2023, compañeros de instituto de Jane Doe (nombre genérico que se usa para no identificar a la menor de edad, en este caso, de 17 años) obtuvieron y usaron imágenes de ella para cargarlas en la aplicación, que con solo tres clics genera una imagen desnuda de la persona, ofreciendo un resultado que no puede diferenciarse de una imagen real.
“Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces”, recoge el texto de la demanda, presentada en el Tribunal de Distrito de Los Estados Unidos del Distrito de Nueva Jersey.
Este hecho le ha llevado a demandar junto con sus padres a la empresa AI/Robotics Venture Strategy 3, responsable de la aplicación, por entender que su modelo de negocio no solo facilita la creación de desnudos ilegales, sino también su distribución y la monetización a través de los planes de pago, e incluso a través de la provisión de la tecnología de base a desarrolladores y otras plataformas.
“Todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos”, se indica, en referencia a las imágenes hiperrealistas de desnudos de personas sin su consentimiento que produce, ya sean menores (lo que se llama material de abuso sexual infantil) o adultos (imágenes íntimas sin consentimiento) “convirtiéndolo en un caldo de cultivo por pornografía infantil, explotación y abuso sexual”.
También se señala que, “porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor constante de que su imagen permanezca disponible en la app y en otros lugares. Le preocupa que esas imágenes puedan distribuirse a otras personas y que su imagen se haya utilizado y se siga utilizando para ayudar a entrenar el sistema de inteligencia artificial de la app para mejorar la generación de material de abuso sexual infantil de otras niñas”.
Según se recoge en la demanda, esta aplicación produce cada día una media de 200.000 imágenes y recibe unos 27 millones de vistas. La propia promoción de la app invita a los usuarios a “desnudas a cualquiera” con su servicio gratuito.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.