La IA sacude al sector público: “En algunas administraciones locales se está utilizando ChatGPT a mansalva, sin control alguno”
Alimentar con datos de los ciudadanos a los grandes modelos de lenguaje tiene graves riesgos, como ceder soberanía e incurrir en discriminación racial y de género en la toma de decisiones


“La IA nos ha permitido ahorrarnos el 20% del tiempo en la redacción de informes”, afirma Marcos Gallart, vicesecretario del área de urbanismo del Ayuntamiento de Bétera (Valencia). “Sorprende la cantidad de trámites diarios que no generan valor, que consumen mucho tiempo en nuestro trabajo”, añade el funcionario, para dar una idea del impacto que ha tenido en su administración local la implantación de un sistema de inteligencia artificial (IA) para agilizar el tratamiento de ciertos documentos.
El trabajo de Gallart gira en torno a realizar informes para la contratación de empresas privadas. Entender y tratar la información, normalmente de manera repetida, era parte de su día a día. Ahora observa cómo ciertos procesos se inician y se terminan con una rapidez que es anómala en su experiencia. Aunque no todo es fascinante. La administración, señala este trabajador público, no está preparada para acoplar sistemas de IA en sus procesos: falta formación, acompañamiento y entender bien cómo la tecnología del momento puede transformar la prestación de servicios.
Esta semana el Ministerio de Función Pública ha anunciado la integración de una “plataforma soberana de IA” que servirá, entre otros aspectos, para agilizar las ayudas a pequeñas y medianas empresas; también para simplificar otros trámites de la Administración, como el cumplimiento de formularios o la declaración de la renta. “Será la mayor revolución de la Administración General desde internet”, declaró el ministro Óscar López durante el anuncio.
Asombro y preocupación coexisten en un sector “poco adaptado a los grandes cambios”, según Gallart. Coincide en ello Pablo Sáez, abogado especialista en derechos digitales: “En algunas administraciones se están usando chatbots de IA a mansalva, sin ningún tipo de control”, comenta tras haber seguido de cerca el aterrizaje de la IA en espacios estatales. La ausencia de normativa nacional que oriente a los funcionarios públicos sobre el correcto tratamiento de la información y los datos, recalca Sáez, ha dejado sin guía alguna a miles de funcionarios que desconocen cómo utilizar modelos de lenguaje como ChatGPT o Gemini de manera responsable. Profesores, personal sanitario o jueces se incluyen en este colectivo que suma 1,6 millones de trabajadores en España.
“Conocemos algunas oficinas locales donde los empleados cargan a ChatGPT expedientes con datos personales de los ciudadanos sin anonimizar la información”, expone Gabriele Vestri, presidente del Observatorio Sector Público e Inteligencia Artificial, una entidad que reúne a un centenar de expertos de todo el mundo que vigilan la implantación de estos sistemas en el ámbito estatal. Vestri insta a gobiernos locales a planear con cuidado cómo quieren aprovechar el potencial de la IA. “De lo contrario, esta tecnología puede empezar a tomar decisiones sin que los desarrolladores o funcionarios sepan bien qué motivos hay detrás”.

Concepción Campos, doctora en derecho y experta en el despliegue de esta tecnología en el sector público, es tajante al respecto: “La mayoría [de trabajadores públicos] usan la IA al margen de una estrategia dirigida por su entidad”. Utilizar ChatGPT a escondidas es un fenómeno que se ha empezado a observar en el sector privado. Las empresas han respondido con capacitaciones sobre el uso adecuado de la IA de manera interna. En el mundo de lo público, coinciden los expertos, la urgencia de formación es mayor aún y está llegando a cuentagotas. El Reglamento Europeo de Inteligencia Artificial exhorta a las administraciones a apurar un proceso de “alfabetización en IA” para que puedan evitar peligros en su uso, pero no se está contemplando este aspecto con la urgencia necesaria, recalca Vestri. “Lamentablemente, el reglamento se enfoca en aspectos del mercado y la competencia, y deja vacíos en otras cuestiones que también afectan a los derechos de los ciudadanos”, opina Sáez.
Todo este proceso de transformación ocurre en medio de un contexto de competencia entre las grandes tecnológicas como Open AI o Google por captar más datos para entrenar a sus modelos de lenguaje, contextualiza Santiago Martín Caravaca, abogado experto en tecnología. “Las compañías necesitan seguir encontrando datos reales, porque con los sintéticos se rebaja la fiabilidad del resultado final. Y los datos de los ciudadanos son esa oportunidad para seguir alimentando a los grandes modelos de lenguaje”, subraya este abogado.
Pero las amenazas de la IA incorrectamente implementada en el sector público van más allá. Sáez advierte de que en algunos municipios de España se están empezando a instalar asistentes virtuales potenciados con IA que se venden como modelos desarrollados en España, que supuestamente evitan fugas de información, pero que “potencialmente esconden un modelo abierto de IA como puede ser DeepSeek —de origen chino—, Llama —que es la IA de Meta— o los modelos de Open AI”. El problema de fondo, según Sáez, es que los funcionarios que diseñan los pliegos para la contratación de estos sistemas no conocen a fondo la tecnología. A Caravaca le inquieta la facilidad con que la Administración cede a empresas privadas lo que denomina la “materia prima del siglo XXI. En el sector público el dato, personal o no, es tan vital como la red viaria; entregarlo supone ceder soberanía”.
En teoría, explica Moisés Barrio, abogado experto en derecho digital, la Administración no puede utilizar ningún modelo de lenguaje que no haya sido certificado y que no cumpla los requisitos dispuestos en el Reglamento de Actuación y Funcionamiento del Sector Público por Medios Electrónicos. Sin embargo, Vestri considera que, tal y como sucedió con el caso de la concesión del Bono Energético, los organismos de control podrían bloquear que los proveedores de modelos con IA tengan que revelar de dónde proceden sus códigos fuentes. Que estos sistemas operen sin control supone riesgos para el cuidado de los datos y falta de transparencia en la toma de decisiones. Algo que deriva en potenciales sesgos —y discriminación racial o de género— en la prestación de servicios públicos, advierte Campos, quien espera que el próximo 2 de agosto, tras la actualización del reglamento europeo, se refuerce el control sobre el manejo de esta tecnología en los espacios estatales.
“Suena fashion tener un chatbot de IA en tu administración, pero si no tienes una estrategia clara y formación interna, corres muchos riesgos”, resume Campos. No todas las comunidades, sin embargo, avanzan al mismo ritmo: Vestri cita a las administraciones de Cataluña, Andalucía y Galicia, que ya han empezado a construir un marco normativo sobre el uso correcto de la IA.
Bajo el amparo de una estrategia, la Administración tiene la oportunidad de reinventarse, reflexiona Campos, quien cree que es el momento de convertir un modelo “rocoso, burocrático y reactivo en un modelo proactivo, que ahorre tiempo a los funcionarios y a los ciudadanos”. Gallart, desde el Ayuntamiento de Bétera, confía en que ha llegado el momento de que los funcionarios dejen de “picar datos”, es decir, usar su tiempo en tareas repetitivas y que aportan escaso valor a la atención ciudadana: “Las horas que ganamos las podemos dedicar a pensar en innovar, un aspecto que la mayoría de administraciones locales parecen haber olvidado”.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
