Maximilian Kasy, economista: “La IA no es un dios que hayamos creado al que ahora debamos someternos”
El experto expone en su último libro cómo los dilemas de la inteligencia artificial responden más a los intereses de sus propietarios que a su propia potencia técnica

Para Maximilian Kasy (Viena, 43 años), la pregunta verdaderamente importante, y aterradora, sobre inteligencia artificial es: ¿quién la controla? Catedrático de Economía en la Universidad de Oxford, este matemático y experto en técnicas de aprendizaje automático acaba de publicar The Means of Prediction: How AI Really Works and Who Benefits (Los medios de predicción: cómo funciona realmente la IA y quién se beneficia), editado por la Universidad de Chicago, un libro en el que sostiene que los conflictos fundamentales de la IA no surgen de la lucha entre humanos y máquinas, sino entre los que controlan esta tecnología y todos los demás.
Kasy desmenuza los recursos fundamentales que la alimentan y que, parafraseando a Karl Marx, llama “medios de predicción”. Son cuatro: datos, potencia computacional, mano de obra y energía. Quien los controla, como si fueran los anillos de Sauron, controlará la tecnología. De este modo, la despoja de su aura de fuerza imparable y omnipotente, y la sitúa en su justa dimensión: una tecnología moldeada por decisiones humanas, cuyo futuro no está determinado por su extraordinario poder, sino por los intereses de los propietarios que la controlan.
Pregunta. Los mercados llevan varias semanas muy volátiles: bajan las empresas de software, hay una cierta sensación de euforia en torno a Anthropic, a la vez que se habla de una burbuja de la IA... ¿Qué está pasando?
Respuesta. Uno de los argumentos del libro es que ni los pesimistas (doomers) ni los entusiastas (boosters) tienen razón. No es que todo vaya a ser un desastre y que la IA vaya a acabar con todos nosotros, ni lo contrario. Depende en gran medida de lo que hagamos con esta tecnología muy versátil y que, en última instancia, apunta a la optimización de algo. La pregunta clave es qué estamos optimizando y quién decide qué se optimiza. El futuro está abierto.
¿Es una burbuja? Se ha trabajado mucho en las llamadas “leyes de escala”, la idea de que el rendimiento del aprendizaje automático mejora cuando dispone de más datos, mayor capacidad de cálculo, modelos más grandes... Así comenzó el reciente auge de la IA y ha funcionado muy bien durante unos cinco años, pero está claro que ha llegado a un límite. No tiene sentido hacer modelos más grandes si los datos de entrenamiento no aumentan, pero siguen ampliando la capacidad de cálculo. El año pasado invirtieron alrededor de 350.000 millones de euros en centros de datos, lo mismo que este año, pero es poco probable que vayan a mejorar. No es que no vayan a surgir nuevos paradigmas, usos y formas de integrarlos en la economía, pero no creo que su calidad fundamental mejore a menos que hagamos algo diferente.
P. Las expertas Emily Bender, de la Universidad de Washington, y Alex Hanna, del Instituto DAIR, han publicado La estafa de la IA, un libro que, en cierto modo, dialoga con el suyo. Arrancan: “Seremos sinceros: La IA es una trampa, una estafa, un engaño diseñado para llenar los bolsillos de ciertas personas”. ¿Qué opina?
R. Debemos crear instituciones en las que los afectados por estas tecnologías tengan voz sobre lo que se diseña para optimizar. Sin duda, estoy de acuerdo en que no debemos creer el bombo publicitario de los departamentos de marketing, pero eso no significa que toda la tecnología sea una estafa. Lo que se ha logrado es bastante sorprendente. El discurso más negativo, que dice que la IA va a matarnos o a automatizarnos a todos, utiliza casi los mismos argumentos que los responsables de marketing, pero con un ligero cambio. Esta idea de que existe una noción unidimensional de la inteligencia y que, una vez que las máquinas alcancen la capacidad humana, se perfeccionarán por sí mismas y perderemos el control es casi lo mismo que las historias de los boosters, con el pequeño matiz de que, con una diferencia en los objetivos, podría matarnos a todos. Ambas suposiciones son erróneas. Se trata de tecnologías bastante antiguas. Lo que ha cambiado en los últimos 20 años es solo la escala, ampliada a un nivel gigantesco con los datos de internet y los enormes centros de datos. Esto ha traído avances impresionantes, pero no es como si hubiéramos creado un dios al que ahora tenemos que someternos.
P. En 2017, Google consiguió optimizar los algoritmos de aprendizaje automático de forma que podían hacer cosas para las que no estaban directamente optimizados, “liberándose” de alguna forma de esta misión. ¿No es demasiado tarde para controlarlos?
R. Crearon una nueva arquitectura para el modelado del lenguaje, la llamada “arquitectura transformadora”. Esto resultó ser muy útil en la práctica, pero conceptualmente no cambió en absoluto el problema de optimización, que seguía siendo maximizar la probabilidad de predecir correctamente la siguiente palabra en internet, un problema de predicción clásico.
P. Dice que la IA se ha vuelto tan omnipresente que ha creado una cierta sensación de resignación pública…
R. Sin duda, la IA se puede controlar. Hay que dar varios pasos. El primero es desmitificarla. La conversación se vuelve muy confusa cuando hablamos de inteligencia, conciencia, inteligencia general, superinteligencia... Pero es mucho más mundana si se examina como los libros académicos: optimización. Hay unos objetivos medibles, el tipo de recompensa o pérdida que se está maximizando: cuántos ingresos obtienes por la venta de anuncios en línea; cuánta gente permanece en tu web; aplicaciones más insidiosas, como cuántas personas se deportan (el ICE en Estados Unidos utiliza algoritmos para enviar patrullas y decidir a quién encarcelar). Lo importante es que se está optimizando sobre acciones elegidas por alguien para maximizar un objetivo numérico elegido por alguien. No es una fuerza sobrenatural inescrutable. La pregunta definitiva es: ¿cómo construimos instituciones en las que las personas afectadas por algún sistema de IA tengan un control vinculante sobre sus objetivos? Esto requiere legislación en materia de privacidad, del mercado y la competencia, normas técnicas, pero también la creación de instituciones democráticas.
P. ¿Por ejemplo?
R. Una forma que me gusta son los sorteos. La idea es que, entre las partes interesadas —por ejemplo, los usuarios de una plataforma— se seleccione aleatoriamente a un grupo estadísticamente representativo, como los jurados populares, se reúnan, dispongan de recursos, tiempo y aportaciones de expertos para comprender cómo funcionan sus sistemas de IA, y luego tomen una decisión sobre el objetivo a maximizar.
P. Eso implicaría ser mejores ciudadanos, pero los recursos esenciales que alimentan la IA, como los datos y la potencia computacional, están en pocas manos. ¿Quién los controla y cómo mantienen su poder?
R. Si aceptamos que son los medios necesarios para producir IA, la cuestión es quién los controla, pues deciden para qué se utiliza. Quizás el más fundamental son los datos y hay muchas preguntas sobre hacia dónde se ha centralizado su control. Los datos de entrenamiento para modelos de lenguaje u otros modelos de IA generativa se toman de la producción intelectual más o menos de dominio público de programadores, periodistas, artistas, autores, músicos… Después los integran y nos los venden de nuevo, lo que supone una redistribución masiva del control. En esencia, la producción intelectual de muchas personas pasa a ser propiedad de unas pocas empresas.
Pero otra clase de datos trascendentales son los de nivel individual, aquellos que nos describen como personas: qué compramos, qué contenidos consumimos, nuestras opiniones políticas, nuestros amigos... Todo lo que caracteriza nuestra vida digital y fuera de ella. Son muy importantes para las decisiones que toman los sistemas de IA a nivel individual, por ejemplo, qué salarios nos ofrecen, qué trabajos conseguimos, cuánto pagamos por los productos en línea, qué información política recibimos, cuándo llama la policía a nuestra puerta... Pero también se utilizan para entrenar sistemas de IA, por lo que se vuelven importantes para todas las demás personas que, en cierto sentido, son similares a mí.
P. ¿Qué ocurre entonces con los derechos de privacidad individuales?
R. Que no nos van a proteger porque pueden diseñar sistemas, de forma que no me importe compartir mis datos si obtengo un pequeño beneficio, un producto, por ejemplo. Las consecuencias posteriores para todos podrían ser catastróficas, o al menos problemáticas, dependiendo del uso. Esa es una forma fundamental en la que el control de los datos tiene que ser más conectivo. Debemos decidir colectivamente qué datos se recopilan y para qué.
P. En algunos países y bajo ciertas ideologías, su mera sugerencia de un control democrático de la IA se consideraría extremista.
R. Hay una cuestión más amplia sobre qué entendemos por democracia. En un sentido abstracto, sería decidir colectivamente sobre nuestro destino. No podemos hacerlo individualmente porque todos dependemos unos de otros. Si tomamos como ejemplo las redes sociales, si Mark Zuckerberg o Elon Musk tienen la última palabra, se centrarán en maximizar sus ingresos publicitarios, objetivos políticos, su visión del mundo... Y eso tiene todo tipo de consecuencias, como vemos en el proceso democrático o en la salud mental de los adolescentes. Mi forma de entenderla sería que las personas, por ejemplo, los usuarios de una plataforma, pudieran decidir sobre lo que ocurre allí: la junta escolar local sobre cómo se distribuyen los alumnos entre las escuelas, la policía local decidiendo dónde enviar patrullas…
P. Es optimista.
R. Lo que me hace más optimista es que tomar colectivamente el control de las grandes tecnológicas no tiene por qué ocurrir de un día para otro. Puede ser un caso de uso tras otro, y legislar a nivel local, nacional o de otro tipo. Que estas empresas se encuentren en Estados Unidos o China no significa que en España no pueda decir: Queremos que los algoritmos de las redes sociales hagan esto. La respuesta a las patologías de la democracia no es menos democracia, sino más democracia real y donde la gente se vea afectada.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.




























































