¿Guardarraíles o correas de perro? Dos modelos para regular la IA
Un estudio propone leyes más laxas, pero con mayor intervención humana, para asegurarse de que la normativa no estrangule el potencial de esta tecnología


En el mundo de la inteligencia artificial (IA) se usa la metáfora de los guardarraíles para ilustrar cómo se deben prevenir los riesgos de esta tecnología. Si se diseñan unos buenos guardarraíles, o límites aceptables, la IA no descarrilará. La expresión y el concepto están muy extendidos tanto entre los propios diseñadores de los sistemas de IA como entre los reguladores, que consideran apropiado legislar ex ante para prevenir posibles daños de una tecnología que es capaz de lo mejor, pero también de lo peor. Un artículo publicado hoy en la revista Risk Analysis propone pasar de los guardarraíles a las correas que se usan para pasear a los perros. La imagen pretende trasladar el concepto de una regulación flexible, pero supervisada por un humano, igual que los dueños de las mascotas vigilan que estas se comporten correctamente.
“El problema con el enfoque tradicional de los guardarraíles para conceptualizar la regulación de la IA es que, al tratarse de una tecnología tan dinámica y variable, el camino de cualquier carretera metafórica —a lo largo del cual podrían instalarse dichas barandillas regulatorias— no puede determinarse fácilmente de antemano”, sostiene Cary Coglianese, profesor de Derecho de la Universidad de Pensilvania y autor principal del estudio. “La IA es altamente heterogénea, de modo que avanza por más caminos de los que incluso los reguladores mejor informados podrían delimitar de antemano”.
En las carreteras, los guardarraíles establecen fronteras, marcan el camino posible por el que se puede circular. Es decir, reducen el riesgo al mantener el comportamiento (en este caso, el control del vehículo) en un camino predeterminado. Cuando hablamos de los guardarraíles de la IA, dicen los autores del artículo, “nos referimos a un conjunto de normas inamovibles que mantengan la tecnología en un curso aceptable que asegure que los usuarios permanezcan a salvo y que la sociedad no se precipite hacia un acantilado metafórico”. Los guardarraíles imponen prohibiciones y estándares de obligatorio cumplimiento a los desarrolladores con el objetivo de evitar resultados específicos.
El Reglamento Europeo de IA, por ejemplo, prohíbe varias aplicaciones de la IA, como los sistemas de crédito social o los sistemas automáticos de identificación biométrica en tiempo real. Pero también incorpora elementos del enfoque propuesto en el artículo, ya que exige auditorías constantes.
Algunas herramientas de IA están diseñadas para fines específicos, como detectar cáncer de piel o hacer recomendaciones de películas. Otras, como los grandes modelos de lenguaje (LLM, por sus siglas inglesas), son la base de herramientas de IA generativa o de propósito general que pueden utilizarse para muchos fines, entre ellos la programación, la redacción y la síntesis de texto. Los sistemas de IA pueden tener arquitecturas muy distintas, que van desde las redes neuronales hasta modelos más lineales. Asimismo, factores como las fuentes de datos usadas en el entrenamiento, así como el propio sistema de entrenamiento elegido, pueden hacer variar considerablemente los resultados arrojados por una IA. Para los autores, someter a las mismas reglas a herramientas tan distintas implica, casi por definición, desenfocar el problema.
La regulación basada en la gestión humana de la IA, sostiene el artículo, ofrece varias ventajas clave sobre el enfoque de los guardarraíles, ya que “responde mejor a los usos y problemas novedosos de la IA y permite en mayor medida la exploración, el descubrimiento y el cambio tecnológicos”. No obstante, los sistemas de gestión exigidos por la regulación “siguen proporcionando una estructura controlada que, como una correa, puede ayudar a evitar que la IA ‘se descontrole’. Este modelo enfatiza la necesidad de mantener la supervisión humana en todas las etapas del ciclo de vida de la IA (entrenamiento, validación y pruebas), y refuerza la importancia de la vigilancia y la responsabilidad humana continua”.
Pros y contras de cada modelo
El modelo de gestión de riesgos de la IA propuesto en el artículo, eso sí, depende de una vigilancia humana continua. “La regulación basada en la gestión busca garantizar que las empresas que desarrollan y utilizan IA de formas que pueden representar riesgos para los consumidores y la sociedad ejerzan una supervisión constante, manteniendo un control firme sobre la correa, incluso cuando la flexibilidad de esta permita espacio para la exploración y la innovación”.
Eso implica que los desarrolladores de IA deberían someterse a auditorías, estudios de impacto y actualizaciones continuas para evitar el deterioro en la gestión de riesgos. Es decir, más transparencia. “Así se eliminaría la necesidad de que los reguladores tengan el mismo nivel de conocimiento sobre IA que cada empresa y se evitaría establecer barreras poco realistas para el desarrollo de avances tecnológicos”, dice Coglianese.
En el caso del coche autónomo que atropelló y mató a un peatón en Arizona en 2018, aventura el artículo, una auditoría externa quizás habría sugerido más pruebas nocturnas que quizás habrían evitado el accidente. Y, en el caso de la niña británica que se suicidó en parte por culpa de las redes sociales, tal y como han establecido las autoridades, el enfoque de las correas a lo mejor habría llevado a Pinterest e Instagram, las plataformas en las que consumió contenido que incitaba al suicidio a elaborar un mapa de riesgos y analizar su contribución a las enfermedades mentales.
Entonces, ¿son mejores las correas o los guardarraíles? “En mi opinión, ninguna de las formas que tenemos de regular la IA son buenas”, dice Lorena Jaume-Palasí, experta en filosofía del derecho aplicado a la tecnología. “Para comprender la propuesta del artículo hay que tener en cuenta que su autor procede de EE UU, donde hay una cultura y arquitectura legal muy distinta a la europea. Los profesores estadounidenses generalmente no suelen entender que la forma en que ellos regulan no funciona con las estructuras legales que nosotros tenemos”, añade.
Así, por ejemplo, al otro lado del Atlántico impera el análisis del coste beneficio: si los beneficios superan a los costes, se ve legítimo sacar, por ejemplo, un medicamento, aunque tenga efectos adversos. En Europa somos más estrictos. “Aquí tienes que entender e identificar los riesgos que implica tu producto, y demostrar que ya los has tratado de paliar. Si no lo has hecho, no puedes comercializar tu producto”. Sin guardarraíles no hay correa que valga.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
