La IA devora tus datos: sabe lo que buscas, haces o subes, y lo utiliza
Las compañías se escudan en las necesidades de mejora para recopilar y usar la información de la actividad personal con el fin de entrenar sus modelos y venderla a “proveedores de servicios”


La inteligencia artificial (IA) es una devoradora de datos. Depende de ellos para ser eficaz, pero la escasez de su alimento en la proporción necesaria es un problema grave, especialmente para los agentes de IA, los robots conversacionales con capacidad para actuar en nombre del usuario y comprar, responder correos o gestionar facturas y agendas, entre decenas de posibilidades. Para ello necesitan saber del interlocutor, conocer su vida, vulnerar la privacidad, aunque sea con permiso. Las grandes tecnológicas ya investigan cómo hacer frente a este problema con varios frentes. Pero mientras, el acceso a datos, según Hervé Lambert, gerente de operaciones de servicio al cliente en Panda Security, supone un riesgo de “manipulación comercial, exclusión o incluso extorsión”.
El acceso a información privada ha sido constatado por investigadores de University College London (UCL) y la Universidad Mediterránea de Reggio Calabria en un estudio presentado en el simposio de seguridad USENIX de Seattle (EE UU). Según este trabajo, extensiones de IA para navegadores ejecutan “prácticas generalizadas de seguimiento, elaboración de perfiles y personalización que plantean serios problemas de privacidad”.
Durante las pruebas con un usuario de perfil inventado por los investigadores, los asistentes de IA transmitieron contenidos de la búsqueda a sus servidores e incluso datos de formularios bancarios y de salud, así como la dirección de IP del usuario. Todos demostraron capacidad para inferir atributos como la edad, el sexo, los ingresos y los intereses de las personas y utilizaron esta información para personalizar las respuestas, incluso en diferentes sesiones de navegación. Solo un asistente, Perplexity, no mostró ninguna evidencia de elaboración de perfil o personalización.
Los asistentes de navegador de IA operan con un acceso sin precedentes al comportamiento en línea de los usuarios en áreas de su vida en línea que deberían permanecer privadasAnna Maria Mandalari, investigadora de Ingeniería y Electrónica de University College London
“Aunque muchas personas son conscientes de que los motores de búsqueda y las plataformas de redes sociales recopilan información sobre ellos para publicidad dirigida, estos asistentes de navegador de IA operan con un acceso sin precedentes al comportamiento en línea de los usuarios en áreas de su vida que deberían permanecer privadas. Si bien ofrecen comodidad, nuestros hallazgos muestran que, a menudo, lo hacen a costa de la privacidad del usuario, sin transparencia ni consentimiento y, a veces, en violación de la legislación de privacidad o los propios términos de servicio de la empresa. Esta recopilación e intercambio de información no es trivial: además de la venta o el intercambio de datos con terceros, en un mundo donde los hackeos masivos son frecuentes, no hay forma de saber qué está sucediendo con sus registros de navegación una vez que se han recopilado", explica Anna Maria Mandalari, autora principal del estudio por parte del departamento de Ingeniería y Electrónica de la UCL.
Hervé Lambert coincide con las conclusiones del estudio. “Las tecnológicas están recopilando datos de los usuarios, incluso personales, para entrenar y mejorar modelos de aprendizaje inteligentes y automáticos. Esto ayuda a las empresas a ofrecer, por llamarlo de forma diplomática, servicios más personalizados. Pero desarrollar sus nuevas tecnologías, evidentemente, plantea un sinfín de preguntas y preocupaciones sobre la privacidad y el consentimiento del usuario. Al final, no sabemos cómo las empresas y sus sistemas inteligentes están utilizando a nuestros datos personales”.
Entre los peligros potenciales que observa este especialista en seguridad se encuentran los riesgos de manipulación comercial o geopolítica, exclusión, extorsión y suplantación de identidad.
Y todo con el consentimiento, consciente o no, de los usuarios. “Las plataformas”, añade Lambert, “están actualizando sus políticas de privacidad y es un poco sospechoso. De hecho, dichas actualizaciones, y eso es importante, incluyen cláusulas que les permiten el uso de datos”. Pero el consumidor, en la inmensa mayoría de los casos, acepta las condiciones sin leer, sin pensar, para asegurarse la continuidad del servicio o por pura pereza.
Las plataformas están actualizando sus políticas de privacidad y es un poco sospechoso. De hecho, dichas actualizaciones, y eso es importante, incluyen cláusulas que les permiten el uso de datosHervé Lambert, gerente de operaciones de servicio al cliente en Panda Security
Google es una de esas compañías que acaban de cambiar sus condiciones de privacidad para, según ha comunicado a sus usuarios, “mejorar los servicios”. En la información admite el uso de las interacciones con sus aplicaciones de IA a través de Gemini, por lo que lanza una nueva función para evitarlo. Se trata de la denominada Conversación Temporal, que permite eliminar consultas recientes y evitar que la compañía las use “para personalizar” futuras consultas o “entrenar modelos”.
El usuario tiene que ser proactivo para protegerse mediante las funciones desactivar Conservar la actividad y gestionar y eliminar. De lo contrario, la vida se compartirá con la compañía. “Una parte de las subidas enviadas a partir del 2 de septiembre, como archivos, vídeos, pantallas sobre las que preguntes y fotos compartidas con Gemini, también se usarán para mejorar los servicios de Google para todos los usuarios”, avisa la multinacional . También utilizará los audios recogidos por la IA y los datos de las grabaciones de Gemini Live.
Una parte de las subidas enviadas a partir del 2 de septiembre, como archivos, vídeos, pantallas sobre las que preguntes y fotos compartidas con Gemini, también se usarán para mejorar los servicios de Google para todos los usuariosGoogle
“Al igual que antes, cuando Google usa tu actividad para mejorar sus servicios (incluido el entrenamiento de modelos de IA generativa), cuenta con la ayuda de revisores humanos. Para proteger tu privacidad, desvinculamos las conversaciones de tu cuenta antes de enviarlas a los proveedores de servicios”, explica la compañía en un comunicado en el que admite que, aunque los desvincula de la cuenta del usuario, usa y ha usado los datos personales (“Al igual que antes”) y que los vende o entrega (“envía a proveedores de servicios”).
Marc Rivero, jefe investigador de seguridad en Kaspersky, coincide en los riesgos tras la difusión de informaciones que apuntaban al uso de datos de WhatsApp para la IA: “Plantea serias dudas en materia de privacidad. Las apps (aplicaciones) de mensajería privada son uno de los entornos digitales más sensibles para los usuarios, ya que contienen conversaciones íntimas, datos personales e incluso información confidencial. Permitir que una herramienta de IA acceda automáticamente a estos mensajes sin un consentimiento claro y explícito pone en entredicho la confianza de los usuarios”.
Y añade: “Desde el punto de vista de la ciberseguridad, esto también resulta preocupante. Los ciberdelincuentes están aprovechando cada vez más la IA para ampliar sus ataques de ingeniería social y recopilar datos personales. Si los atacantes encuentran la forma de explotar este tipo de interacciones, podríamos estar ante una nueva vía para el fraude, el robo de identidad y otras actividades delictivas”.
Permitir que una herramienta de IA acceda automáticamente a estos mensajes sin un consentimiento claro y explícito pone en entredicho la confianza de los usuariosMarc Rivero, jefe investigador de seguridad en Kaspersky
WhatsApp matiza esta facilidad de acceso e insiste en que “los mensajes personales con amigos y familiares son inaccesibles”. El entrenamiento de su IA se produce mediante la interacción directa con la cuenta de la inteligencia artificial y, según la compañía, “para iniciar una conversación, tienes que realizar una acción, como abrir un chat o enviar un mensaje a la IA”. “Solo tú o un participante del grupo pueden iniciarlo, ni Meta ni WhatsApp pueden hacerlo. El hecho de hablar con una IA proporcionada por Meta no vincula la información de tu cuenta personal de WhatsApp a Facebook, Instagram ni ninguna otra aplicación proporcionada por Meta”, añade la compañía. No obstante, lanza una advertencia: “Lo que envíes a Meta se puede utilizar para proporcionarte respuestas precisas, así que no envíes mensajes a Meta con información que no desees que conozca”.
Los servicios de almacenamiento y transferencia de archivos también se han visto cuestionados. La última ocasión fue por una modificación de los términos de uso de la popular Wetransfer que se entendió como una solicitud de permiso sin límite por parte de los usuarios para mejorar futuros sistemas de inteligencia artificial. Ante los recelos de los consumidores sobre la posible libre disposición de sus documentos y creaciones, la compañía se vio obligada a reformar la redacción de la cláusula y advertir “para ser extra claros”: “SÍ - tu contenido siempre es tuyo; SÍ - nos estás dando permiso para operar y mejorar el servicio de forma adecuada; SÍ - nuestros términos cumplen con las leyes de privacidad, incluido el RGPD [norma de privacidad y protección de datos]; NO - no usamos tu contenido para entrenar modelos de IA; y NO - no vendemos tu contenido a terceros”.
Ante la proliferación de dispositivos inteligentes, que van mucho más allá de los chats conversacionales de IA, Eusebio Nieva, director técnico de Check Point Software para España y Portugal, aboga por una normativa que garantice la transparencia y el consentimiento explícito, normas de seguridad para dispositivos y prohibiciones y restricciones a proveedores de alto riesgo, previstas en la norma europea. “Los incidentes de vulneraciones de privacidad resaltan la necesidad de que consumidores, reguladores y empresas trabajen conjuntamente para garantizar la seguridad”, defiende Nieva.
Lambert coincide y reclama responsabilidad del usuario y de las empresas en un escenario nuevo para todos. También rechaza que la regulación preventiva suponga un retroceso en los desarrollos: “Proteger a nuestros usuarios no implica que vayamos a ir más lentos; quiere decir que, desde el inicio de un proyecto, incluyamos la protección de la privacidad y la huella digital y, así, vamos a ser más eficaces y eficientes a la hora de proteger los activos más importantes, que son nuestros usuarios”.
Alternativas que investigan las tecnológicas
Las empresas tecnológicas son conscientes del problema que genera el uso de datos personales, no solo por el conflicto ético y legal de la privacidad, sino, especialmente, porque las limitaciones para acceder a ellos, según defienden, son también frenos para desarrollar sus sistemas.
El fundador de Meta, Mark Zuckerberg, ha orientado la labor de su Superintelligence Lab a la “automejora de la IA”, sistemas capaces de aumentar el rendimiento de la inteligencia artificial a partir de avances en los equipos (especialmente procesadores), en la programación (incluida la autoprogramación) y en que la propia IA entrene los grandes modelos de lenguaje (LLM, por sus siglas en inglés) en los que se fundamenta.
“Creo que este es el camino más rápido hacia una IA poderosa. Es probablemente lo más importante en lo que deberíamos estar pensando”, dice Jeff Clune, profesor de ciencias de la computación en la Universidad de Columbia Británica y asesor principal de investigación en Google DeepMind, a Grace Huckins en MIT Technology Review.
Una evidencia de esta “automejora” es la capacidad de programación de las computadoras con herramientas como Claude Code y Cursor. “Lo más importante es la asistencia para codificar”, resalta al MIT Tom Davidson, investigador principal de Forethought, una organización sin fines de lucro de investigación de IA. A esto se suma la mejora de procesadores y equipos, que a su vez se benefician de las capacidades de la IA para aportar propuestas de desarrollos más eficientes.
Pero el embudo que supone la falta de datos para el entrenamiento de la IA también parece haber encontrado otra salida: la generación de datos sintéticos por parte de la propia máquina para entrenarse y entrenar a otras. “Ya no estás limitado por los datos, porque el modelo puede generar arbitrariamente más y más experiencias”, explica al MIT Huckins Azalia Mirhoseini, profesora asistente de ciencias de la computación en la Universidad de Stanford y científica senior de Google DeepMind.
Y no solo experiencias a partir de datos sintéticos, sino también herramientas e indicaciones para amoldar el comportamiento a las necesidades del usuario. La startup Sakana AI, ha creado un sistema llamado Darwin Gödel Machine donde un agente de IA adapta su código para mejorar en el desempeño de las tareas a las que se va enfrentando.
Todos estos avances que se dirigen hacia una IA que supere a la inteligencia humana salvando obstáculos como la limitación de datos implican también sus riesgos. Chris Painter, director de políticas de la organización sin fines de lucro de investigación de IA METR, advierte que, si la IA acelera el desarrollo de sus propias capacidades, podría ser utilizada también para la piratería, el diseño de armas y la manipulación de personas.
En este sentido, la nueva edición del estudio Estado de la resiliencia en ciberseguridad 2025 de Accenture refleja que “una amplia mayoría de organizaciones españolas (95%) no están adecuadamente preparadas para proteger sus sistemas y procesos impulsados por esta tecnología”.
Según este informe, más de tres cuartas partes (84%) de las organizaciones a nivel nacional (77% global) carecen de las prácticas esenciales de seguridad e IA necesarias para proteger modelos de negocio críticos, tráfico de datos e infraestructura en la nube.
“El aumento de las tensiones geopolíticas, la volatilidad económica y los entornos operativos cada vez más complejos, junto con los ataques impulsados con IA, hacen que las organizaciones sean más vulnerables ante las ciberamenazas. La ciberseguridad ya no puede ser un parche final. Debe integrarse desde el diseño en cada iniciativa impulsada por la IA”, señala Agustín Muñoz-Grandes, directivo de Accenture Security en España y Portugal.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
