¿Puede un video falso definir el rumbo de una elección?
La inteligencia artificial generativa está revolucionando la política, y no siempre para bien. En Colombia hubo un incremento del 433 % respecto del número de incidentes relacionados con ‘deepfakes’, en el primer trimestre del 2024

Las elecciones en Latinoamérica se aprestan a enfrentar a un adversario que puede convertir las campañas en la región en episodios descarnados de desinformación impulsada por la inteligencia artificial (IA). Y no es que las campañas electorales no sean por excelencia momentos de guerra sucia, pero en los últimos años, con el auge de la inteligencia artificial generativa, hemos empezado a ser testigos de piezas falsas de tal sofisticación que los medios de comunicación y la ciudadanía en general se quedan sin herramientas para constatar su veracidad.
Lo que sucedió el pasado 18 de mayo en Argentina en la elección a legisladores en la Ciudad de Buenos Aires es una muestra de ello. En la noche del sábado, horas previas a que se abrieran las urnas, circuló en X (antes Twitter) un video falso (generado por IA) del expresidente Mauricio Macri, líder del PRO, en el que anunciaba que, ante la “amenaza de victoria” del kirchnerismo, la candidata de su partido, Silvia Lospennato, abandonaba la contienda. Acto seguido, se invitaba a los simpatizantes a votar por Manuel Adorni, candidato de La Libertad Avanza (LLA), partido del presidente Javier Milei.
Si te cruzas este video, está realizado con IA: ES FALSO y tiene solo la función de confundir al electorado. No es verdad q Lospennato se haya bajado. Lo q sí es verdad es que corrupcion no solo es robar dinero. Esto también es corrupcion, estan rompiendo las reglas de lo lícito… pic.twitter.com/fxZ3443sNm
— Marcela Feudale (@SoyFeudaleM) May 17, 2025
El video no tenía señas de ser una broma. Su intención, a juicio de muchos usuarios de internet y periodistas, era confundir a los votantes a pocas horas de las elecciones y se difundió a través de cuentas con alguna simpatía o cercanía con el partido oficial.
Macri se pronunció al respecto. “A horas de la elección, un burdo video generado con inteligencia artificial fue publicado en X. En él, se muestra una recreación verosímil de mi persona haciendo declaraciones que nunca hice sobre nuestra lista. Se trata de un intento de fraude electoral, que busca confundir al electorado utilizando artilugios que pueden ser interpretados como reales por parte de la audiencia. La gravedad del episodio queda clara al saber que quienes publicaron el video son personas del círculo más íntimo de La Libertad Avanza”, dijo el expresidente argentino en su cuenta de X.
A horas de la elección, un burdo video generado con inteligencia artificial fue publicado en X. En él, se muestra una recreación verosímil de mi persona haciendo declaraciones que nunca hice sobre nuestra lista. Se trata de un intento de fraude electoral, que busca confundir al…
— Mauricio Macri (@mauriciomacri) May 18, 2025
Para Macri, su figura en el video generado era “verosímil”, es decir, sí parecía él. Además, consideró la publicación como una “acción tramposa que demuestra un profundo desprecio por las reglas electorales y, en el fondo, por la democracia misma”. Por supuesto, no es la primera vez que se ven algunas piezas falsas generadas por inteligencia artificial, pero esta en especial goza de un nivel de sofisticación que, seguramente, hizo caer en el error a más de una persona. Aunque su efecto sobre la elección pudo haber sido casi imperceptible, a juzgar por los resultados y las encuestas previas, no deja de ser un problema. Sin conocer el origen del video, el asunto terminó en los estrados judiciales y serán las autoridades las que determinarán si se cometió una falta.
El avance de las herramientas para crear deepfakes ―definidas por el Instituto Nacional de Ciberseguridad de España como vídeos manipulados para hacer creer a los usuarios que ven a una determinada persona, tanto si es anónima como si es personaje público, realizando declaraciones o acciones que nunca ocurrieron― hace más difusa la línea que separa lo cierto de lo falso.
Durante la campaña presidencial de 2023 en Argentina, circuló un video falso del candidato Sergio Massa consumiendo drogas. Resultó ser un deepfake que utilizó como base un video que circulaba en redes sociales desde 2016, al que le fue adaptada la imagen de Massa. Estas manipulaciones también llegan a emular contenidos de medios de comunicación, con informaciones tergiversadas y, con estas características, se han registrado casos en las elecciones de Venezuela o México.
Varios académicos ya han mostrado su preocupación por el impacto que estas formas sofisticadas de manipulación puedan tener en los procesos democráticos. Por supuesto, también la amenaza que representa para la sociedad y los desafíos que vendrán en el futuro, ante la proliferación de un sinnúmero de aplicaciones que permiten generar contenidos en audio y video.
Pensando en Colombia, y en las elecciones que se avecinan, no hay dudas de que la inteligencia artificial generativa será la tendencia con la que el país se tendrá que enfrentar a diario, pero antes que satanizar el uso de estas herramientas, que ya se usan en el campo de la comunicación política y de campañas (pues abaratan costos y ofrecen rápidos resultados), se debe plantear el debate sobre su uso ético, establecer reglas claras y de transparencia desde el ámbito electoral ―se me ocurre la obligatoriedad de las campañas de especificar e informar a los ciudadanos cuando una publicidad política o sus contenidos sean realizados con estas IA― y dotar a los periodistas de mejores capacidades tecnológicas para verificar información.
O lo que es más profundo, la regulación de los proveedores de los servicios de IA en Colombia. La Unión Europea, por ejemplo, ya ha dado un primer paso para establecer niveles de riesgos de la aplicación de estas tecnologías. Por su parte, en febrero pasado se publicó en Colombia el documento Conpes 4144, que se establece como la hoja de ruta para la regulación del tema en el país y contempla dicho problema, al considerar que las técnicas de aprendizaje profundo pueden conllevar a la utilización de tecnologías autogenerativas que tienen como producto final los deepfakes.
El documento advierte el riesgo del uso indebido de datos personales para la suplantación personal y ofrece un dato alarmante: el crecimiento en un 433% respecto del número de incidentes relacionados con deepfakes para el primer trimestre de 2024. ¿Estamos a tiempo para llevar la regulación al ámbito electoral?
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.