Lucía Camacho: “En el negocio del iris, no es casual que World haya elegido América Latina”
La coordinadora de políticas públicas en la ONG Derechos Digitales habla sobre las decisiones de las autoridades regulatorias de Colombia, Brasil y Chile frente a la empresa vinculada a Sam Altman. Se pregunta ¿quién controla, con qué fines y bajo qué garantías, la prueba de que somos humanos?


En los últimos tres años, diversos países de Latinoamérica han presenciado el desembarco del orbe, una figura esférica con aspecto futurista para leer el iris y capturar datos biométricos. En centros comerciales, en estaciones de servicio, entre otros lugares de Colombia, Chile o Brasil se ha instalado esa llamativa tecnología de World Foundation, creada por Sam Altman, uno de los puntales de la Inteligencia Artificial en el mundo, el CEO de Open AI, así como su socio operativo, Tools for Humanity.
Miles de latinoamericanos han hecho filas frente a ese ojo gigante para entregar sus datos personales a cambio de criptomonedas o tokens, en una operación que genera bases de datos masivas de biometría. Las autoridades regulatorias de Chile, Brasil y Colombia han tomado decisiones que, sin embargo, se chocan con un modelo empresarial complejo.
A finales de 2025, Colombia – a través de la Superintendencia de Industria y Comercio- ordenó el cierre inmediato y definitivo de las operaciones de World Foundation y Tools for Humanity. Esa resolución se ha convertido en un precedentes para los expertos en biometría. La colombiana Lucía Camacho, coordinadora de políticas públicas en la ONG Derechos Digitales alerta sobre la dimensión del negocio del iris y la falta de controles en la región. “Lo presentan como algo inofensivo, pero es un fenómeno que nos pone frente a preguntas sobre ¿quién controla, con qué fines y bajo qué garantías, la prueba de que somos humanos?
Pregunta. ¿Cómo aterrizan estas empresas en Latinoamérica?
Respuesta. Llegan a los países a través de operadores logísticos locales. Contratan a personas o empresas domiciliadas en el territorio nacional a las que les entregan el orbe y les dan instrucciones muy generales sobre qué hacer: pedirle a la gente que se registre, ubicar un espacio bien iluminado. No hay un entrenamiento adecuado en temas clave como el consentimiento. No se les capacita sobre cómo asegurarse de que la persona que se registra sea mayor de edad —algo especialmente sensible, porque se registran menores, como ocurrió en Chile. Tampoco se les enseña cómo explicar qué implica el consentimiento, en qué consiste la compensación, cómo retirar los datos o cómo ejercer los derechos sobre esa información personal.
P. ¿A dónde van los datos que se escanean?
R. El orbe es una de las tecnologías de reconocimiento facial e iris más sofisticada del mercado. Según la empresa, esta transmisión es rápida y segura, pero ya se han conocido fallas. La imagen del iris deja de existir como tal: algoritmos transforman esa información en largas cadenas de código de patrones fragmentados que se almacenan en servidores de actores considerados “de confianza”, principalmente en Estados Unidos. El argumento de la compañía es que, como aplican “un proceso tecnológico, ya los datos no son personales, por tanto, ya no tenemos obligaciones en esta materia”. Es el gran problema.
P. Dice que es esa es la nuez más dura en protección de datos, ¿Por qué?
R. Muchas empresas Big Tech están haciendo uso de tecnologías que les permitan transformar datos personales en otro tipo de información que, a la larga les facilite escapar del brazo de las autoridades de datos personales. Su argumento es que al no haber datos personales, ya no hay gente afectada, luego ya no tienen que cumplir la ley.
P. ¿Qué pasa si alguien quiere se eliminen sus datos?
R. En Chile hubo padres que al enterarse que sus hijos habían entregado el iris a esta compañía solicitaron acciones de protección y pidieron que se eliminen los datos. Iniciaron una batalla judicial en la que les decían, por ejemplo, que la empresa no está domiciliada allí. De otro lado, ante la autoridad de Brasil y en múltiples documentos, la empresa afirmó que no puede borrar la información recolectada.

P. El otro problema es la contraprestación por el iris
R. Sí. A las personas que se registran se les pide descargar una aplicación, porque World no solo opera el orbe, sino que ofrece una billetera digital en la que entregan una criptomoneda como forma de compensación. Ellos lo llaman un incentivo, no una contraprestación. Este punto fue especialmente problemático en Brasil, donde la autoridad sostuvo que no se puede entregar una compensación a cambio de datos personales, porque eso implica mercantilizar la identidad, algo prohibido. La defensa de World fue que el “incentivo” no es obligatorio: quien no quiera recibirlo no descarga la aplicación. Sin embargo, cuando se les preguntaba a las personas que hacían fila, por qué estaban allí, la respuesta era clara: estaban por el incentivo.
P. ¿Cuál es el alcance de la decisión de Brasil?
R. La autoridad brasileña de datos le ordenó a Worldcoin suspender la entrega de criptomonedas por el escaneo del iris y señaló que, al tratarse de personas vulnerables, los incentivos se convierten en salvavidas que terminan explotando los datos de quienes no tienen otra alternativa económica. Sin ese “incentivo”, como lo llaman, la empresa no habría obtenido para enero de 2025 el iris de más de 10 millones de personas en el mundo. La gente no está allá para contribuir al entrenamiento de un algoritmo o porque crean las buenas intenciones de World y en la necesidad de sofisticar tecnologías que beneficien a la humanidad, sino por la plata.
P. En Chile se evidenció, además, una brecha de género.
R. Una investigación de la ONG Amarantas encontró que mujeres madres cabeza de familia con necesidades económicas fueron la población mayoritaria que vendió sus datos biométricos, porque recibían 50 o 70 dólares que les salvaban el día. También lo hicieron menores de edad que buscaban tener dinero para invertirlo en juegos virtuales.
P. ¿Es un negocio que se basa en la desigualdad?
R. Las élites sociales y quienes están en posiciones económicas ventajosas ni siquiera se han enterado de que esto existe. El público objetivo de Worldcoin está en las estaciones de transporte público o en centros comerciales populares. Apuntan a públicos muy específicos que son captados porque el orbe es vistoso. A eso se suma que se publicitan con el lenguaje de las criptomonedas que seduce a mucha gente.
P. ¿Por qué eligen nuestros países?
R. Primero, en nuestra región no existe fricción al momento de identificarnos: estamos acostumbrados a entregar la cédula, la huella o datos para verificar quiénes somos o acceder a servicios a diferencia de Europa, y países como Estados Unidos o el Reino Unido, donde ni siquiera existe un sistema centralizado de identificación. Segundo, América Latina enfrenta debilidades en el Estado de derecho para hacer cumplir decisiones de las autoridades frente a empresas extranjeras. Europa no tiene ese problema: allí se ha exigido a las grandes tecnológicas domiciliarse en su territorio para garantizar reglas claras en consumo, protección de datos y propiedad intelectual. No es casual, entonces, que World haya puesto el foco en nuestra región.
P. ¿Cómo control hacen las autoridades de la región?
R. Las principales reacciones oficiales contra la empresa provienen del sur global—de Kenia y América Latina—, mientras que en Europa solo unos pocos como Alemania, Portugal y España, han abierto investigaciones puntuales. Las autoridades de la región hacen lo que pueden con las capacidades que tienen, y actúan en sus propios tiempos. Pero sus decisiones están para enmarcar.
P. ¿Por qué la decisión de la autoridad de Colombia es tan destacada?
R. La decisión de la SIC marca un precedente relevante. Además de suspender las operaciones de World al considerar que incumplen con la legislación nacional de protección de datos, le impuso la obligación de eliminar toda la información personal bajo su custodia, tanto en la billetera virtual como en el orbe, en la que es todo es un misterio. También nos remite a preguntas que dejan de ser tecnológicas y se vuelven profundamente políticas: ¿cuál es el precio estamos dispuestos a pagar por demostrar que existimos? Y sobre todo, ¿cuál es la responsabilidad ética y jurídica de quienes generan “soluciones” tecnológicas inescrutables para problemas que en parte han contribuido en crear?
P. ¿Realmente pueden concretar esas medidas?
R. El lío que comparten las autoridades de nuestros países es cómo van a actuar frente al incumplimiento de sus decisiones. World reconoció ante Brasil que no puede borrar los datos. Entonces,hay preguntas abiertas, ¿cómo garantizarán que la información -incluso la que ha sido anonimizada- haya sido completamente retirada de los conjuntos de datos utilizados para entrenar a sus algoritmos? Y, ¿cómo se comprometerán a que no queden registros del códigohash en manos de los “terceros de confianza”?
P. Afirma que en el caso de Colombia, la estrategia de World fue disputar lo procesal y fingir demencia
R. Por lo que se infiere en el proceso, la respuesta de World Foundation y Tools for Humanity fue predecible: alegar violaciones al debido proceso, o sea, supuestos errores en la notificación de las decisiones de la autoridad que fueron remitidas a World Foundation, cuando la encargada de responder era Tools for Humanity, o viceversa. En un año y medio, sí se dieron por enteradas de cada respuesta y solicitud de la autoridad, como se lee en el proceso. Esta decisión nos pone a pensar sobre qué tan lejos pueden ir las autoridades y cómo hacer para que cumplan con sus facultades legales.
P. ¿Identifica un patrón de esta empresa en la región?
R. La caja de herramientas que tiene para ejercer presión en nuestros países es muy diversa. Va desde el lobby legislativo, inversión en relaciones públicas para afirmar que son medidas positivas para el país, hasta la intimidación judicial. Las operaciones de estas empresas transnacionales han sido diseñadas de manera tan sofisticada y aceitada con tecnologías tan complejas que dificultan en la práctica de un derecho que consideramos crucial hoy como el del consentimiento. No solo para entregar los datos, sino para que se retiren cuando los ciudadanos decidan hacerlo.
P. ¿Para qué pueden utilizar realmente estos datos?
R. La empresa usa esa información para entrenar un algoritmo sofisticado de identificación digital, lo que llaman la prueba de humanidad. Pero también van a usar ese algoritmo de identificación para venderlo a quien quiera y necesite usarlo.
P. ¿Quién puede comprarlo?
R. Ya están haciendo pilotos, como en Corea del Sur, donde integran World en servicios como Tinder para enfrentar el problema de cuentas falsas, por ejemplo. El objetivo de fondo no es salvar internet, sino sofisticar una tecnología biométrica —el orbe y su algoritmo— para venderla masivamente, incluso a gobiernos.
P. ¿En qué tipo de procesos estatales podría usarse?
R. World podría presentarse ante gobiernos para procesos electorales ofreciendo el orbe como una tecnología de identificación de fácil acceso que ha sido entrenada con más de 7.000 millones de registros. Esa tecnología se entrena con enormes volúmenes de datos, que son hoy el principal activo de la IA, y necesita seguir capturándolos en el tiempo para adaptarse a cambios físicos como el envejecimiento o enfermedades oculares.
P. ¿Ya están haciendo dinero con estos datos del iris?
R. La empresa está absorbiendo grandes inversiones de capital de riesgo sin retorno inmediato: la apuesta es monetizar cuando esta tecnología se ofrezca en el mercado a quienes necesiten resolver el problema en la identidad, que es cada vez más crítico, especialmente en la protección de las infancias. Esto hace que las plataformas necesiten sistemas de verificación de edad e identidad, un escenario en el que World se presenta como quien “tiene la llave”.
P. Advierte que pueden usarse también para vigilancia sin transparencia
R. Hoy las Big Tech cooperan con los Estados de una forma inédita, especialmente con regímenes autoritarios, que les permiten actuar sin control ni rendición de cuentas. Recordemos casos como el de Meta que empieza a entregarle al gobierno de su país la información de los mensajes de sus servicios de redes sociales a las autoridades, de mujeres que buscan abortar. Hay que mantener entonces precaución tanto frente al Estado, por su historial de abusos y vigilancia masiva cada vez más sofisticada, como frente al sector privado, que hoy tampoco genera demasiada confianza.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.








































