Inteligencia artificial y ficciones explicativas
La brecha entre voluntad legislativa y realidad técnica indica que no basta con hacer leyes bienintencionadas

La inclusión de soluciones basadas en inteligencia artificial (IA) en nuestra vida cotidiana está generando una tormenta social, plagada de temores —en su mayoría legítimos— a los que las instituciones públicas intentan dar respuesta desde la regulación. En su afán por proteger al ciudadano de los impactos más nocivos de la IA, los reguladores públicos suelen pasar por alto un punto de partida fundamental: entendemos poco sobre la forma en que operan estas tecnologías. Tenemos límites cognitivos reales, muy serios, que nos lastran frente a la comprensión de los sistemas matemáticos hipercomplejos que caracterizan a la IA. Por ende, si no admitimos nuestras limitaciones y aceptamos que somos incapaces de comprender estas herramientas en su totalidad, vamos a seguir diseñando normativas que imponen exigencias inalcanzables y que son imposibles de aplicar de manera efectiva.
Esta es precisamente la situación en la que se encuentran marcos regulatorios pioneros —y muy ambiciosos— como la Ley de Inteligencia Artificial de la UE, el texto que establece las reglas del juego generales para los próximos años en el territorio comunitario. En España, la situación también se extiende a la Carta de Derechos Digitales, aprobada en 2021, en la que se incluyen epígrafes concretos sobre la regulación de la IA. En estos dos documentos, concebidos como brújula para futuras normativas, se incluye la “explicabilidad” como un requisito clave dentro de los derechos de los ciudadanos ante las respuestas que produce la IA.
La intención del legislador al referirse a la “explicabilidad” es comprensible: garantizar que las decisiones tomadas por algoritmos no provengan de cajas negras inescrutables. Sin embargo, el problema surge cuando las exigencias de la ley chocan con la realidad técnica. Cuando un texto legal exige que un sistema de IA explique de forma transparente por qué ha tomado una decisión, especialmente en sectores sensibles o de alto riesgo —la denegación de un subsidio, el descarte de un candidato para un puesto— el legislador está sobreestimando las capacidades de la tecnología actual. Exigir a un modelo informático compuesto por miles de millones de parámetros que traduzca su intrincadísimo cálculo probabilístico a una lógica humana de causa y efecto es un completo error de concepto.
De esa manera, lo único que conseguimos es que la máquina fabrique ficciones explicativas. En otras palabras: la IA elabora una historia construida a posteriori que, a nosotros, como seres humanos, nos suena lógica, coherente e, incluso, reconfortante, pero que desde luego no refleja, en absoluto, el proceso matemático y probabilístico real que motivó el resultado. Por tanto, en un sentido estricto, lo que le pedimos a estos sistemas es que generen justificaciones intrínsecamente falsas, simplemente con el objetivo de que cumplan con la legalidad.
Este panorama se va a enredar, y mucho, en breve. El próximo gran salto que enfrenta el sector es la implementación a gran escala de la conocida como IA agéntica que, a diferencia de los modelos actuales, que actúan de forma pasiva respondiendo a nuestras consultas, podrá operar con gran autonomía. Basta con asignarles un objetivo para que estos sistemas planifiquen, interactúen con otros programas y tomen decisiones casi sin intervención humana. En términos de “explicabilidad”, bien vale tomar en consideración que intentar auditar y exigir explicaciones detalladas a una red de agentes autónomos que operan de forma simultánea, va a ser, sin duda, un reto quijotesco.
Esta enorme brecha entre la voluntad legislativa y la viabilidad técnica demuestra que no basta con redactar leyes guiadas por buenas intenciones. Así pues, para prevenir que se repliquen esta clase de situaciones en el futuro, los reguladores públicos deben tener un perfil híbrido: es decir, versados en políticas públicas y comprometidos con la defensa innegociable del interés general, pero que, al mismo tiempo, dispongan de una capacitación técnica sólida que les permita advertir estos imposibles técnicos. Solo así lograremos gobernar efectivamente la IA sin que nuestras leyes se diluyan en meras ilusiones.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.




























































