El 18 de noviembre, Anthropic se comprometió a invertir $30 mil millones en capacidad de computación en la nube de Microsoft y Nvidia, un acuerdo multianual de largo alcance que canalizará los futuros modelos de la empresa de inteligencia artificial con sede en San Francisco a través de centros de datos de Microsoft Azure y plataformas de servidores especializados de Nvidia, según anunciaron las tres empresas desde sus respectivas sedes.

El arreglo coloca inmediatamente a Anthropic entre los consumidores de primer nivel de recursos en la nube e intensifica aún más los vínculos entre tres de los inversores más agresivos del sector. Al asegurar décadas de poder de procesamiento gráfico y bastidores de servidores, la empresa detrás de la familia de chatbots Claude obtiene la escala de computación bruta necesaria para entrenar modelos cada vez más grandes, mientras que sus proveedores ganan un cliente de primera categoría comprometido con cargas de trabajo predecibles y de alto margen.

El liderazgo de Anthropic presentó el acuerdo como esencial para mantener la competitividad en lo que se ha convertido en una carrera armamentista por infraestructura de inteligencia artificial. Microsoft y Nvidia, por su parte, obtienen otro cliente destacado para sus pilas de nube y hardware, ampliando la base de clientes que ya está impulsando una demanda récord tanto de Azure como de las GPU de centros de datos de Nvidia.

Las empresas no revelaron la duración exacta del contrato, pero una persona familiarizada con las negociaciones indicó que la asignación de nube se extiende «bien entrada la década de 2030». Un vocero de Anthropic confirmó que el compromiso de gasto está concentrado al inicio, con la mayor parte de la capacidad reservada para el período entre 2026 y 2029.

Detalles del acuerdo

• Microsoft proporcionará la mayoría de los ciclos de computación a través de Azure, según la declaración conjunta. Reuters informó primero sobre el tamaño del compromiso, citando documentos de la empresa que establecen el valor total en $30 mil millones durante la vida del contrato Reuters.

• Anthropic también «adoptará los sistemas de computación en la nube de Nvidia» para acelerar tanto el entrenamiento como la inferencia de modelos futuros, según informó Nvidia en un comunicado independiente reproducido por Yahoo Finance Yahoo Finance.

• Personas familiarizadas con el paquete de financiamiento indicaron que Nvidia tiene la opción de invertir hasta $10 mil millones en capital de Anthropic vinculados a futuras compras de GPU, mientras que la contribución de Microsoft podría totalizar $5 mil millones. Ninguna empresa divulgó públicamente los términos de inversión, y Anthropic se negó a hacer comentarios más allá de confirmar que «capital estratégico» acompaña al acuerdo de nube.

El pacto es el más reciente en una serie de inversiones llamativas que vinculan empresas emergentes de IA con el puñado de operadores en la nube a hiperescala que controlan la mayor parte de la capacidad de centros de datos del mundo. En octubre, OpenAI firmó un acuerdo de capacidad récord de $38 mil millones con Amazon Web Services, mientras que Oracle estableció un arreglo en la nube de $20 mil millones con Meta. Alphabet, por su parte, se ha comprometido a suministrar a Anthropic hasta un millón de chips aceleradores de IA patentados.

Por qué Anthropic necesita más computación

El entrenamiento de un modelo de lenguaje de vanguardia requiere decenas de miles de GPU interconectadas ejecutándose continuamente durante semanas o meses. Claude 3, el modelo insignia más reciente de Anthropic, consumió un estimado de 1,4 días-exaflops de computación durante el entrenamiento, según dos ingenieros informados sobre el esfuerzo. Se espera que la versión de próxima generación demande aproximadamente seis veces esa cifra, agotando la asignación actual de Anthropic de clusters de Azure para finales de 2026 a menos que se asegure capacidad adicional, dijeron los ingenieros.

Los últimos superchips «Grace Hopper» GH200 de Nvidia prometen una mejora de rendimiento del 40 por ciento en operaciones de modelos de lenguaje grandes en comparación con el anterior H100. Al diseñar clusters futuros alrededor de la arquitectura de referencia de Nvidia, Anthropic espera acortar ciclos de entrenamiento y reducir el consumo general de energía, dijeron dos personas que trabajan en el plan de implementación.

Implicaciones estratégicas para Microsoft y Nvidia

Para Microsoft, que ya mantiene un arreglo exclusivo de proveedor de nube con OpenAI, el contrato de Anthropic profundiza su posición como proveedor líder de computación específica de IA. La empresa asignará una porción de su próxima construcción de centros de datos —estimada en $50 mil millones para el año fiscal 2026— a cargas de trabajo de Anthropic, según una hoja de ruta interna de Azure revisada por Reuters.

Nvidia obtiene un comprador fijo para su hardware de margen más alto en un momento en que el fabricante de chips se esfuerza por mantenerse al ritmo de la demanda. Los analistas de Mizuho Securities estiman que pedidos sostenidos de Anthropic podrían agregar $2 mil millones en ingresos anuales al segmento de centros de datos de Nvidia una vez que la fase de implementación aumente.

Una red de inversiones cruzadas

El nuevo acuerdo de Anthropic subraya los vínculos financieros cada vez más intrincados que atraviesan el sector de IA:

• Amazon ha invertido $8 mil millones en Anthropic desde 2023, asegurando acceso prioritario para implementar futuros modelos de Claude en AWS.

• Google inyectó $3 mil millones en Anthropic a principios de este año y sigue siendo un proveedor significativo de clusters de unidades de procesamiento de tensor (TPU).

• La inversión inicial de Microsoft de $1 mil millones en OpenAI en 2019 ha crecido a aproximadamente $14 mil millones, consolidando Azure como el hogar en la nube exclusivo de OpenAI.

• Nvidia lidera una ronda de financiamiento de $100 mil millones para OpenAI, diseñada en parte para garantizar el consumo de GPU hasta 2032.

Tales participaciones entrelazadas garantizan flujos de ingresos para proveedores de infraestructura mientras otorgan a las empresas emergentes de IA el capital para licenciar, o cada vez más, prepagar enormes conjuntos de computación. Sin embargo, los críticos advierten que la concentración de fondos entre un puñado de actores corre el riesgo de amplificar shocks sistémicos si los ingresos de IA proyectados no se materializan.

Señales de alerta económicas

Los economistas han establecido paralelos entre el auge actual y la burbuja de puntocom de finales de los años 90. Un estudio del Instituto de Tecnología de Massachusetts de 300 proyectos de IA empresarial encontró que el 95 por ciento no logró generar ganancias incluso cuando las empresas vertieron colectivamente $400 mil millones en ellos, lo que genera preocupaciones de que el gasto exuberante en computación podría superar los rendimientos comerciales cercanos de la tecnología.

El entusiasmo del mercado sigue siendo visible. CoreWeave, especialista en infraestructura en la nube, ha visto el precio de sus acciones subir un 221 por ciento en seis meses, empujando su capitalización de mercado cerca de $67 mil millones. La iniciativa «Stargate» propuesta —un esfuerzo de $500 mil millones aún sin financiar para construir una red de IA que abarque un continente— ilustra la escala de ambición ahora considerada plausible.

Empleo e impacto local

Anthropic indicó que el nuevo compromiso de computación respalda una construcción de infraestructura de $50 mil millones anunciada previamente que agregará 800 puestos permanentes y aproximadamente 2,000 empleos en construcción en campus de centros de datos en Estados Unidos y Europa. Los planificadores de Microsoft están evaluando sitios en Iowa, Suecia e Inglaterra del norte para clusters dedicados a cargas de trabajo impulsadas por Anthropic; se espera una decisión a principios de 2026, según una persona involucrada en la selección de sitios.

Vigilancia regulatoria

La Comisión Federal de Comercio de EE.UU. ya ha abierto una investigación sobre los efectos competitivos de los grandes proveedores de nube que invierten en sus mayores clientes. Si bien el acuerdo de Anthropic está por debajo de los umbrales actuales que desencadenarían notificación obligatoria de antimonopolio, los analistas esperan que los reguladores examinen las cláusulas de exclusividad y el precio preferencial que podrían desventajar a rivales más pequeños que buscan acceso a clusters GPU escasos.

Qué sucede a continuación

La implementación se llevará a cabo en tres fases. La primera, que comienza a principios de 2026, asigna a Anthropic una participación fija de centros de supercomputación Azure existentes. La fase dos, programada para mediados de 2027, migra cargas de trabajo a clusters basados en GH200 de próxima generación. La fase tres, proyectada para comenzar en 2029, introduce aceleradores personalizados codiseñados por el equipo de silicio de Microsoft y Nvidia para arquitecturas de modelos específicas de Anthropic.

Las empresas indicaron que tienen como objetivo tener dos clusters prototipo operativos para el cuarto trimestre de 2025, lo que permitiría a Anthropic comenzar a entrenar Claude 4.0 en la nueva infraestructura antes de lanzarlo públicamente el año siguiente.

Análisis: promesa y riesgo de computación prepagada

La reserva de $30 mil millones de Anthropic muestra cómo los pioneros de IA están adaptando el modelo de «tomar o pagar» utilizado durante mucho tiempo en los mercados de energía: al pagar por adelantado por capacidad garantizada, reducen el riesgo de que la escasez de computación descarrile las hojas de ruta de productos. Sin embargo, el enfoque concentra un capital enorme en proyectos cuya rentabilidad financiera sigue siendo incierta. Si la monetización se retrasa, estos contratos a largo plazo podrían transformarse de activos estratégicos en cargas del balance general.

Microsoft y Nvidia mitigan algunos riesgos al estructurar el compromiso en torno a hitos de entrega por fases y al tomar participaciones accionarias que podrían apreciarse si los productos de Anthropic tienen éxito. Aún así, con los costos de energía aumentando y la construcción de centros de datos enfrentando restricciones en la cadena de suministro, cumplir con la capacidad acordada pondrá a prueba incluso la logística de los operadores a hiperescala.

Para Anthropic, la ventaja es clara: acceso seguro a los chips más avanzados del mundo y una larga pista de rodaje para iterar en modelos sin renegociar cuotas en la nube cada año. La desventaja es flexibilidad reducida; si un proveedor rival produce un chip revolucionario o un paradigma computacional novedoso, Anthropic enfrentaría penalizaciones empinadas para salir o enmendar su contrato.

Inversores y reguladores observarán si el gasto fijo impulsa el tipo de aplicaciones revolucionarias —descubrimiento de fármacos de precisión, traducción de idiomas en tiempo real o robótica autónoma— que justifiquen presupuestos de computación astronómicos. Hasta entonces, el pacto de $30 mil millones se mantiene tanto como una apuesta audaz en el futuro de IA como un marcador vívido de cuán altas han llegado las apuestas en la carrera por escala algorítmica.

Fuentes

  • https://www.reuters.com/technology/anthropic-commits-30-billion-microsoft-azure-compute-2025-11-18/
  • https://finance.yahoo.com/news/nvidia-microsoft-invest-15-billion-203500905.html