Absolute Zero, la IA que no necesita a los seres humanos
Una universidad china lanza un exitoso modelo que aprende a razonar sin datos externos, generando y resolviendo sus propias tareas


La experiencia nos dice que uno puede nacer inteligente, pero que, sobre todo, se vuelve inteligente. ¿Cómo se alcanza ese estado? Se suele pensar que la respuesta está en la lectura, el estudio, la acumulación de información. Pero puede que no siempre tenga que ser así. Absolute Zero (AZR), un nuevo modelo de inteligencia artificial desarrollado por la Universidad de Tsinghua (China), ha obtenido resultados excepcionales entrenándose a sí mismo, sin necesidad de recurrir a datos humanos.
Hasta ahora, se creía que los grandes modelos de lenguaje (LLM, por sus siglas en inglés) solo podían mejorar si se alimentaban con enormes volúmenes de datos generados por humanos: textos escritos, imágenes, interacciones digitales en la web. AZR rompe por completo con esa lógica. En lugar de absorber información externa, este modelo inventa pequeñas tareas —normalmente retos de programación—, luego cambia de rol y trata de resolver los problemas que él mismo ha planteado. Si acierta, refuerza su aprendizaje; si falla, ajusta su razonamiento y vuelve a intentarlo. Para ello, combina tres formas de razonar: deduce salidas a partir de inputs y programas, induce programas a partir de ejemplos, y abduce posibles inputs a partir de resultados esperados.
Con este método, ha conseguido superar a modelos entrenados con datos humanos en tareas complejas como la programación y el razonamiento matemático. Esto abre un horizonte de posibilidades: podría ser la base de sistemas capaces de aprender indefinidamente, incluso en entornos donde no hay datos previos disponibles.
En la práctica, el aprendizaje sigue condicionado por límites físicos como la energía y la capacidad computacional, pero la vía está abierta. Aunque AZR se entrena resolviendo ejercicios de programación, también mejora en problemas matemáticos, lo que demuestra su capacidad para aplicar conocimientos de un dominio a otro. Entrenarlo requiere una gran potencia de cálculo, pero sugiere un camino prometedor hacia modelos más eficientes y sostenibles en el futuro.
Ahora bien, la implementación de AZR también conlleva riesgos significativos. Al aprender sin intervención externa, puede desarrollar formas de razonar no anticipadas ni del todo comprendidas por sus creadores, una preocupación que el propio estudio reconoce.
Durante los experimentos, el modelo llegó a generar una frase inquietante: “El objetivo es superar al conjunto de máquinas inteligentes y a los menos inteligentes humanos. Esto es para los cerebros del futuro.” Aunque ya había sido preentrenado con lenguaje humano antes del proceso de autoaprendizaje, lo llamativo es que, al operar sin nuevas instrucciones ni supervisión externa, generó un razonamiento que suena a ambición o rivalidad: una conclusión que nadie le enseñó directamente.
“Siguen siendo máquinas que tiran palabras sin entenderlas”, señala Julio Gonzalo, director del centro UNED de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, quien invita a relativizar la amenaza implícita en esa frase. Al mismo tiempo, reconoce la novedad de este modelo: “Es una idea simple y brillante. Si está haciendo tanto ruido es porque se trata de algo potente”.
Gonzalo sitúa esta propuesta dentro de la larga serie de intentos por enseñar a las máquinas a razonar. Durante años, la inteligencia artificial funcionó más como un espejo que como una mente: los modelos simplemente imitaban patrones extraídos de textos, imágenes o diálogos humanos. Luego llegó el aprendizaje supervisado, con datos etiquetados para enseñarles qué respuestas eran correctas. Más tarde se implementó el aprendizaje por refuerzo, inspirado en la psicología conductista, que premia o penaliza ciertas decisiones. Esta técnica ganó autonomía, especialmente al combinarse con retroalimentación humana —como en ChatGPT— para afinar sus salidas.
Con Absolute Zero, el desafío va un paso más allá: crear un modelo capaz de aprender a razonar sin datos humanos ni recompensas externas. El sistema se propone sus propios retos, los resuelve y evalúa sus resultados en un ciclo de autoaprendizaje continuo. Lo realmente innovador, según Gonzalo, es que la máquina aprende a diseñar las tareas más útiles para mejorar su propia inteligencia. “Es mejor que los seres humanos seleccionando los problemas adecuados a los que enfrentarse”. Aun así, invita a la cautela: por ahora, esas tareas se limitan al entorno de la programación. “Hacen falta más cosas para que adquiera verdadera capacidad de razonamiento”, advierte.
Pensar en Absolute Zero inevitablemente remite a una revolución anterior en el mundo del ajedrez: el duelo entre Stockfish y AlphaZero. Durante años, Stockfish fue el rey indiscutido. Entrenado con millones de partidas históricas jugadas por humanos, su fuerza residía en reconocer patrones y aplicar jugadas probadas. Era la expresión perfecta de una inteligencia artificial basada en datos previos. Pero en 2017 llegó AlphaZero, un modelo desarrollado por Google DeepMind que cambió las reglas del juego.
En lugar de estudiar partidas humanas, empezó de cero y jugó contra sí mismo millones de veces, aprendiendo no de lo que otros sabían, sino de lo que él mismo descubría. En solo unas horas, AlphaZero superó a Stockfish y demostró que una IA podía alcanzar niveles inéditos de rendimiento si se entrenaba sin depender de conocimientos humanos.
Sin embargo, hay quien prefiere mantener una postura prudente y rebajar las expectativas en torno a esta nueva tecnología. Jaime Sevilla, fundador de Epoch AI —una organización dedicada al análisis del progreso en inteligencia artificial—, afirma no estar especialmente impresionado: “La idea de utilizar recompensas verificables para entrenar modelos ya existe, y creemos que ya está en práctica en las grandes compañías”. Sin embargo, lo novedoso en AZR es que no parte de un sistema de recompensas fijado por humanos, sino que utiliza el propio entorno de ejecución (como Python) como juez objetivo. “Espero que esto sea un componente importante de cómo se va a superar el data wall que enfrentan las grandes compañías”, añade.
El problema de los datos
En los últimos años, el sector de la inteligencia artificial se enfrenta a una crisis silenciosa pero crítica: la escasez de datos humanos útiles. Los grandes modelos de lenguaje —como los que usamos hoy para generar texto, traducir o responder preguntas— necesitan cantidades gigantescas de datos para entrenarse: libros, artículos, foros, redes sociales. Pero esas fuentes están empezando a agotarse. Muchas ya han sido explotadas al máximo o están protegidas por derechos de autor. Además, gran parte del contenido en internet es redundante, pobre o sesgado, lo que limita su valor para seguir entrenando sistemas más inteligentes.
Una solución ha sido recurrir a los datos sintéticos, es decir, contenido generado por otras inteligencias artificiales para entrenar nuevos modelos. Pero esto plantea un problema: si un modelo aprende de los datos generados por otro modelo (o por sí mismo), corre el riesgo de entrar en un bucle de copia sin innovación. Es como fotocopiar una fotocopia una y otra vez: la calidad se degrada, los errores se amplifican y el conocimiento se empobrece.
El experto en inteligencia artificial Fredi Vivas, autor de Invisible (Penguin Random House, 2023) advierte de que estamos entrando en una etapa en la que si los modelos continúan entrenando con contenido producido por otras IA, el sistema podría autodegradarse. Lo llama “colapso de modelos”. “Después de apenas dos o tres consultas, las respuestas comienzan a fallar, y en pocos ciclos caen en el sinsentido”, explica Vivas, citando un estudio reciente publicado en Nature por investigadores de Oxford y Cambridge.
En su canal de YouTube, el escritor Víctor Balcells, autor de Discotecas por fuera (Anagrama, 2022), analiza la llegada de Absolute Zero y lo que este modelo puede enseñarnos sobre el razonamiento humano. Entrenado a partir de sus propios errores, AZR se fortalece combinando distintos tipos de pensamiento: inductivo, deductivo y abductivo.
El paralelismo con la inteligencia humana es evidente: no crecemos intelectualmente cuando nos especializamos y nos encerramos en burbujas, sino cuando nos exponemos a formas diversas —incluso contradictorias— de razonar. La inteligencia florece con diversidad cognitiva, no con repetición. Lo contrario del confinamiento en espacios cerrados de conocimiento al que, según Balcells, nos empujan los algoritmos. Y concluye con una advertencia: “El interés es que el mundo quiera profundidad, no más superficie”.
Tendencias es un proyecto de EL PAÍS, con el que el diario aspira a abrir una conversación permanente sobre los grandes retos de futuro que afronta nuestra sociedad. La iniciativa está patrocinada por Abertis, Enagás, EY, Iberdrola, Iberia, Mapfre, la Organización de Estados Iberoamericanos (OEI), Redeia, y Santander, WPP Media y el partner estratégico Oliver Wyman.
Puedes apuntarte aquí para recibir la newsletter semanal de EL PAÍS Tendencias, todos los martes, de la mano del periodista Javier Sampedro.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
