Take it Down Act, la ley que criminaliza los deepfakes y la ‘pornovenganza’
Nuevas herramientas hacen que sea fácil crear ‘deepfakes’: imágenes o vídeos que muestran de forma convincente a alguien desnudo o en una situación sexual


En un inusual consenso bipartidista, el presidente Donald Trump ha firmado la Take It Down Act, una innovadora ley federal que penaliza la distribución no consentida de imágenes sexualmente explícitas, reales o generadas por inteligencia artificial. La ley se ha celebrado como una gran victoria para la seguridad digital, especialmente para las mujeres y los menores víctimas de la creciente amenaza de los deepfakes (imágenes sexuales de personas reales creadas con inteligencia artificial) y el pornovenganza o venganza pornográfica.
¿Qué es la ley Take It Down?
La Take It Down Act es la primera ley federal de Estados Unidos diseñada específicamente para hacer frente a la difusión de imágenes íntimas no consentidas (NCII, por sus siglas en inglés), incluidas las deepfakes generadas por IA. La ley declara ilegal compartir imágenes o vídeos sexualmente explícitos de una persona sin su consentimiento, independientemente de que las imágenes sean reales o manipuladas con inteligencia artificial.
La ley también impone una nueva carga a las plataformas tecnológicas. Los sitios web, las aplicaciones y las redes sociales están ahora obligados a retirar los contenidos ofensivos en un plazo de 48 horas a partir de la recepción de una solicitud válida de retirada de una víctima. El incumplimiento puede dar lugar a la aplicación de la ley por parte de la Comisión Federal de Comercio (FTC, por sus siglas en inglés), y las personas que distribuyan a sabiendas este tipo de imágenes pueden enfrentarse a penas de hasta tres años de prisión o fuertes sanciones económicas.
La nueva ley es una respuesta a la preocupación sobre cómo la tecnología, especialmente la IA, permite la difusión de contenidos explícitos sin consentimiento. Nuevas herramientas hacen que sea demasiado fácil crear deepfakes: imágenes o vídeos que muestran de forma convincente a alguien desnudo o en una situación sexual. Los objetivos han sido desde niños y adolescentes hasta políticos, educadores y famosos como Taylor Swift, cuyas imágenes manipuladas por inteligencia artificial se hicieron virales recientemente.
Una encuesta destacó que el 6% de los jóvenes ha sido víctima de este tipo de abusos, y el 10% conoce a alguien que lo ha sido. Las víctimas suelen sufrir traumas duraderos, como ansiedad, depresión, pérdida de empleo y, en algunos casos, incluso suicidio.
Las víctimas
La aprobación de la ley ha contado con las historias de supervivientes como Ellison Berry, una estudiante de secundaria de Texas. Uno de sus compañeros de clase utilizó una aplicación para crear deepfakes de desnudos a partir de imágenes sacadas de su cuenta de Instagram y las compartió en Snapchat. Tras repetidos intentos fallidos de que se retirara el contenido, la madre de Berry recurrió al senador Ted Cruz, que copatrocinó el proyecto de ley con la senadora Amy Klobuchar.
Berry se convirtió en el rostro del movimiento y fue invitada a la Casa Blanca para la ceremonia de la firma. La primera dama Melania Trump, que rara vez aparece públicamente en los debates políticos de Washington, presionó personalmente al Congreso en apoyo del proyecto de ley y estuvo presente en la firma.
¿A quién protege?
Aunque la ley se centra especialmente en la protección de menores, sus implicaciones son más amplias. Profesores, políticos, directores ejecutivos y mujeres de a pie se han convertido en objetivos frecuentes de deepfakes explícitos, a menudo creados para dañar la reputación de las víctimas u obligarlas a abandonar la vida pública.
Un estudio reciente del American Sunlight Project descubrió que 25 de los 26 legisladores atacados con pornografía deepfake eran mujeres. Las figuras públicas femeninas tienen 70 veces más probabilidades de ser víctimas de deepfakes no consentidos.
Este tipo de imágenes también se han convertido en una forma de acoso laboral. Las víctimas han denunciado que sus jefes reciben imágenes falsas de desnudos o que sus compañeros de trabajo las hacen circular internamente, lo que las empuja a abandonar sus puestos de trabajo sin posibilidad de recurso.
Apoyo y oposición
La ley fue aprobada casi por unanimidad en ambas cámaras del Congreso, con solo dos votos en contra en la Cámara de Representantes. Grandes empresas tecnológicas como Meta, Google, Snapchat y TikTok respaldaron la medida, al igual que más de 100 organizaciones sin ánimo de lucro.
Sin embargo, algunos defensores de los derechos advierten de que se podría abusar de la ley para censurar contenidos legítimos para adultos o silenciar a críticos. También señalan la falta de salvaguardias contra las falsas solicitudes de retirada. El representante Thomas Massie, uno de los detractores del proyecto de ley, la describió como una “pendiente resbaladiza, lista para abusos”.
A pesar de estas preocupaciones, la mayoría de los legisladores y grupos de defensa argumentan que la urgencia de la amenaza —y el daño que causa— justifica la ley.
¿Qué puede hacer una víctima?
Si alguien es víctima, se le hacen las siguientes recomendaciones:
- Reportar con rapidez. Las plataformas tienen ahora la obligación legal de actuar en 48 horas, así que es mejor actuar de inmediato
- Buscar herramientas de denuncia. Sitios como Instagram, TikTok y Snapchat ya disponen de formularios de solicitud de retirada de contenidos
- Guardar evidencias. Las capturas de pantalla y los enlaces son útiles para las denuncias y las posibles acciones legales
- Ponerse en contacto con las fuerzas de seguridad. Con la nueva ley en vigor, las víctimas pueden tener ahora un camino más claro para presentar cargos
- Recurrir a socios de confianza. Organizaciones como StopNCII.org pueden ayudar a las víctimas a presentar solicitudes en varias plataformas a la vez.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
