Icono del sitio La Razón

Nvidia ahora enfrenta nuevos desafíos a su hegemonía en los chips para la IA

emilio_garcia.jpg

Emilio Garcia García

El ecosistema de la inteligencia artificial (IA) acapara la atención de los medios y analistas del sector tecnológico. Las cumbres políticas de alto nivel, los esfuerzos regulatorios para embridar su despliegue al servicio del bienestar, las impactantes aplicaciones sectoriales, su progresiva incorporación a los productos de consumo y, cómo no, las infraestructuras digitales necesarias para el soporte de servicios IA en la nube. En el centro de estas últimas están los denominados chips IA, un tipo de producto complejo dentro de la cadena de suministro de los semiconductores, en el que se han de combinar de modo óptimo diversos componentes y actuaciones (chips lógicos, chips de memoria, empaquetado avanzado).

Lea también: La inteligencia artificial, el motor de la Cuarta Revolución Industrial

Por la naturaleza del producto, el desarrollo de chips IA es un mercado abierto, basado en la fabricación por terceros y dependiente de la calidad del diseño que realicen las empresas que los comercializan. No obstante, existe en estos momentos una gran dominante en el segmento: Nvidia. Se estima que, en el segundo y tercer trimestre de 2023, Nvidia sirvió más de 800.000 muestras de su producto estrella para IA, la GPU H100, por un valor cercano a los $us 25.000 millones, y ha cuadriplicado las ventas respecto del mismo periodo de 2022. Si atendemos a la previsión de ventas de servidores con chips IA previstas para 2024, Nvidia multiplicará durante el presente año por más de ocho las ventas de AMD, su más inmediato competidor en este ámbito.

En definitiva, Nvidia goza de una envidiable posición en el presente inmediato, pero se enfrenta a retos a medio plazo en sus principales mercados.

Los chips IA se han convertido en un elemento clave en la batalla entre las grandes tecnológicas y de las reservas de este insumo dependerá el ágil despliegue de su nueva generación de servicios. La excesiva posición de dominio de Nvidia, cuya GPU H100 tiene un precio de más de $us 40.000 en eBay, puede estar causando una espiral de costes a sus clientes. Los analistas del Bank of America predicen que el gasto de capital conjunto de Amazon, Alphabet y Microsoft relacionado con la nube se incrementará un 22% en 2024, hasta los $us 116.000 millones. Meta, por su parte, ha elevado sus previsiones iniciales de gastos de capital en infraestructura de centros de datos para 2024 en $us 2.000 millones, hasta 37.000 millones.

No acostumbradas a la dependencia de un tercero, las grandes tecnológicas buscan alternativas para reducir el poder de mercado de Nvidia. En los últimos meses, Microsoft, Google y Meta han anunciado el desarrollo de sus propios chips IA para desplegar en paralelo con los productos de Nvidia. Los chips propietarios de las grandes tecnológicas están más adaptados a sus respectivos servicios, al reducir no solo los gastos de capital sino también en consumo eléctrico. Es fácil adivinar, también, la satisfacción de los gigantes digitales por los esfuerzos de Sam Altman, CEO de OpenAI, por impulsar una cadena de producción específica para el suministro de chips IA, que ya cuenta con un apoyo financiero de entre $us 8.000 y 10.000 millones  aportados por G42, fondo inversor establecido en Abu Dabi.

La situación de Nvidia en el mercado chino es compleja. Las sanciones estadounidenses sobre chips de arquitectura avanzada le impiden satisfacer la demanda latente de sus mejores productos. Cualquier movimiento de la empresa de chips destinada al mercado de la potencia asiática es tutelado por el Gobierno de Estados Unidos. Dentro de estos límites, la GPU H20 de Nvidia comenzará a ser vendida en China. Es difícil que ello le permita mantener la cuota del 90% sobre los chips IA que tenía allí antes de octubre de 2022. Las grandes tecnológicas chinas han comenzado a migrar hacia las GPU equivalentes ya suministradas por Huawei. También los fabricantes de chips chinos estarán pronto en disposición de suministrar componentes avanzados lógicos y de memoria que permitirán al gigante de las telecomunicaciones comercializar productos más potentes que la GPU H20.

Aunque con actuaciones de menor calado, Europa tampoco permanece impasible ante la dependencia de Nvidia para el despliegue de sus infraestructuras de IA, ya que limita su autonomía estratégica. El consorcio European Processor Initiative, financiado por la Unión Europea desde 2019, tiene entre sus objetivos el desarrollo de chips IA para la red de supercomputación europea. La Comisión Europea ya ha anunciado que dará continuidad a esta iniciativa dentro del recientemente presentado paquete de innovación para apoyar la IA en Europa.

También es de esperar que Nvidia anuncie una previsión de crecimiento sustancial de ventas y beneficios para el año 2024. Los inversores, sin embargo, pudieran tener también preguntas para Nvidia sobre el medio plazo. En Estados Unidos, cómo va a convencer a sus principales clientes de que no internalicen la producción de chips IA y cómo haría frente a un eventual competidor que erosione sus márgenes. En China, cómo navegará el conflicto geopolítico para mantener una cuota de ventas relevante de chips IA. En Europa, qué contrapartida proporcionará al Viejo Continente para garantizar su autonomía digital estratégica. También de la respuesta a estos retos en el medio plazo, y no solo de logros recientes y perspectivas inmediatas, dependerá la reacción de los mercados.

(*) Emilio García García fue exdirector de Gabinete de la Secretaría de Estado de Telecomunicaciones de España