Ir al contenido
_
_
_
_

Google, Amazon, OpenAI: así es la carrera por encontrar alternativas a Nvidia

Los esfuerzos de los grandes desarrolladores de IA por reducir su dependencia son cada vez mayores. Aunque el dominio del fabricante de chips no se ve amenazado

De monopolios está sembrada la era digital. Las grandes tecnológicas han alcanzado su gigantismo gracias a dominar de forma aplastante un área concreta. Google comenzó con las búsquedas, Meta arrasó en las redes sociales, Microsoft partía de Windows y del software empresarial, Amazon es sinónimo de comercio electrónico. Y hoy, Nvidia es el proveedor mayoritario, a mucha distancia del resto, de chips para inteligencia artificial.

Sus GPUs han demostrado ser la mejor opción para entrenar modelos de IA y para ejecutarlos. Los desarrolladores de IA, desde OpenAI a Google, pasando por Anthropic, Meta o Amazon, junto a una recua de startups especializadas, se pelean por los chips de Nvidia.

Esto ha convertido al fabricante en la compañía más valiosa del mundo. Pero sus clientes están deseosos de encontrar alternativas. Nvidia tiene una larga lista de órdenes de compra por entregar. Y a ello se suma otra circunstancia: no existe una competencia real que modere los precios de sus chips. Con Intel renqueando en este mercado, AMD ha incrementado su presencia y startups como Cerebras o Groq —a la que por cierto casi ha engullido Nvidia con un acuerdo de 20.000 millones— han desarrollado procesadores especializados. Pero no es suficiente.

Los grandes nombres de la IA dedican cada vez más recursos a desarrollar sus propios chips para sus necesidades. A finales de año dos anuncios sacudieron este nicho de oro. Amazon presentó sus Trainium3 y, sobre todo, Google comunicó los primeros resultados de su séptima generación de TPUs, Ironwood. Además, el CTO de Microsoft, Kevin Scott, dijo el pasado octubre que la compañía quería utilizar chips propios para la mayor parte de sus operaciones en centros de datos. Y OpenAI llegó a un acuerdo con el especialista en semiconductores Broadcom para producir procesadores de su cosecha, que empezarán a llegar este año.

“Hay un sentido estratégico de todos los clientes y de todo el mercado, en general, por romper esa dependencia con Nvidia, y esos precios”, apunta Fernando Maldonado, analista principal de Foundry, especializado en el sector tecnológico. “Todos los grandes proveedores de servicios en la nube están diseñando sus propios chips para diferentes tareas. Aunque realmente solo Google puede hacerle cierta competencia. Y ni siquiera a corto plazo”, matiza Maldonado. “Más adelante, lo que podría ocurrir es que el mercado total al que [Nvidia] puede llegar se reduzca un poco”.

Google sorprendió a la industria al anunciar que su último modelo, Gemini 3, alabado por los especialistas, se había entrenado solo con sus TPUs. Sus modelos anteriores se entrenaban con una combinación de chips, que incluían GPUs de Nvidia. Poco antes, la startup Anthropic comunicó que alquilaría un millón de TPUs como capacidad de cómputo a Google, en un acuerdo de decenas de miles de millones de dólares. La startup Safe Superintelligence, de Ilya Sutskever, fundador y ex científico jefe de OpenAI, también se comprometió a usar los chips de Google. Y los mentideros del sector avanzan un posible acuerdo con Meta para que este no solo alquile capacidad de computación, sino que también gastaría miles de millones en comprar TPUs para alojarlos en sus centros de datos.

Jemish Parmar, CTO de la empresa española Ideaded, que explora el desarrollo de microchips con nuevos materiales, opina que los procesadores de Google podrían ser una alternativa, sobre todo para cargas de trabajo específicas. “Algunas de las tareas que hacemos mediante GPUs pueden transferirse y llevarse a cabo en TPUs, porque las matemáticas son más o menos las mismas. Aunque las operaciones se hacen de forma diferente”.

En realidad, el objetivo de Google, y del resto de desarrolladores de IA que diseñan sus procesadores, no es competir directamente con Nvidia. “Microsoft, que también desarrolla sus propios chips, o Amazon, lo que quieren es tener una capacidad que les dé cierta independencia. Es tener una herramienta que les sirva de negociación con Nvidia. El único que podría arañarle un poco de cuota de mercado es Google”, reitera Maldonado.

El mercado de chips aceleradores de IA crecerá a un ritmo del 16% anual hasta llegar a los 604.000 millones de dólares en 2033, según Bloomberg Intelligence. Un salto enorme desde los 116.000 millones de 2024. De esta cifra total Nvidia abarcará un 70-75%, mientras AMD se situará en segunda posición, con un 10%. Los chips de arquitectura ASIC (diseñados para tareas específicas) representarán un 19% del mercado. En esta categoría se encuadran los procesadores de Google, Amazon, Microsoft, Meta u OpenAI.

“No diría que el mercado de Nvidia está en riesgo, pero seguro que se notará el impacto. En un futuro habrá un efecto en el crecimiento de ventas y en los números de Nvidia”, afirma Parmar. “Aunque la compañía se ha adaptado a cualquier tipo de demanda de computación que ha llegado. Y trabajarán en las siguientes versiones de sus GPUs para seguir haciéndolo.”

Una de las grandes dudas es si estos movimientos tendrán efecto en el coste de las GPUs. “Nvidia ha tenido y va a seguir teniendo precios de monopolio”, señala Maldonado. “Pero a lo mejor empieza a pensar que no le conviene subirlos tanto por si fomenta la entrada de competidores”.

Se suele decir que el muro que protege el negocio de Nvidia es su ecosistema de software CUDA. Las GPUs de la compañía son chips de propósito general. Esto quiere decir que son muy versátiles, se pueden programar para una gran variedad de tareas. Las herramientas de CUDA permiten adaptar fácilmente estos chips a los objetivos de cada empresa. Existe todo un bagaje de código desarrollado para este sistema y los ingenieros de IA están acostumbrados a trabajar con él.

Sin embargo, los chips de propósito general también tienen desventajas. “Esto tiene un coste energético. Porque hay partes de ese chip que has desarrollado, que no estás utilizando para la función que necesitas, y que están consumiendo”, destaca Maldonado. Y añade que las TPUs de Google, por ejemplo, son más eficientes a la hora de realizar un tipo de tarea concreta. “Pero el consumo de los datacenters depende de muchas cosas, no solo de la eficiencia del chip”.

Parmar está de acuerdo: “La cuestión [de la eficiencia] está más a un nivel de diseño del sistema. Esto incluye también el diseño del chip, pero al final es el sistema entero el que se ocupa de procesar la carga de trabajo”.

Opina que los centros de datos serán cada vez más eficientes al manejar cargas de IA. Aunque la clave está en una transformación energética. “Creo que la industria se centrará en utilizar energía muy limpia o en tener una fuente de energía que no dependa de la red eléctrica existente”. Desde luego, parece que se necesitarán cambios en este plano. El consumo previsto por la Agencia Internacional de la Energía para los centros de datos se duplicará en 2030. Pasará del 1,5% del consumo global a casi el 3%. Un incremento que Estados Unidos y China protagonizarán en un 80%.

La firma analista Gartner arroja cifras similares. Y calcula que el aumento del consumo energético en los centros de datos será atribuible en un 64% a servidores optimizados para IA.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_