El 18 de noviembre de 2025, Anthropic reveló una asociación de gran alcance mediante la cual la startup de inteligencia artificial con sede en San Francisco se reservaría 30.000 millones de dólares en capacidad de computación en la nube en la plataforma Azure de Microsoft, mientras recibe hasta 15.000 millones en capital fresco de Microsoft y Nvidia, según declaraciones de las tres empresas.

Este acuerdo se posiciona instantáneamente entre los mayores compromisos de infraestructura jamás realizados por un desarrollador de IA, reflejando cuán rápidamente está escalando el apetito de la industria por potencia de cómputo. Anthropic obtendrá acceso a largo plazo a la red de centros de datos de Microsoft y a las unidades de procesamiento gráfico (GPU) más recientes de Nvidia; a cambio, Microsoft invertirá hasta 5.000 millones de dólares y Nvidia hasta 10.000 millones en la firma de dos años de antigüedad, proporcionando a Anthropic nuevos fondos mientras prepara su próxima generación de modelos de lenguaje Claude.

Microsoft divulgó la reserva de Azure de 30.000 millones en una entrada de blog conjunta con Nvidia y Anthropic, señalando que el acuerdo «amplía nuestra colaboración en infraestructura en la nube, investigación avanzada en IA e implementación responsable» Blog de Microsoft. Esa misma mañana, CNBC confirmó la parte de participación accionaria, reportando el compromiso de Microsoft de hasta 5.000 millones de dólares y la promesa de Nvidia de hasta 10.000 millones CNBC. Reuters, por su parte, cuantificó la inversión combinada en 15.000 millones de dólares y enfatizó la obligación de gasto sin precedentes de Anthropic hacia recursos de computación Azure Reuters.

Construcción de súper conglomerados de IA

La compra de nube de Anthropic se implementará en múltiples años y se espera que financie docenas de «súper conglomerados» de IA construidos a propósito, equipados con GPU Nvidia H200 y chips Arm personalizados Cobalt de Microsoft, según las empresas. Aunque no se revelaron números exactos de racks, la cifra de 30.000 millones rivaliza con el capital total que los hiperscalers típicamente asignan a la construcción de centros de datos en todo un año fiscal, señalando tanto las ambiciones de crecimiento de Anthropic como la confianza de Microsoft en la demanda de IA a largo plazo.

Para Microsoft, el acuerdo profundiza su cartera de inquilinos destacados de IA en Azure. La participación inicial de 1.000 millones de dólares de la empresa de software en OpenAI en julio de 2019 se ha convertido desde entonces en más de 13.000 millones en créditos de efectivo y computación, lo que convierte a OpenAI en el cliente más grande de Azure. Al asegurar a Anthropic como un segundo inquilino ancla, Microsoft diversifica su exposición a proveedores de modelos de fundación, garantizando que conglomerados GPU adicionales sigan siendo utilizados continuamente.

Nvidia, por su parte, gana un estatus preferente como proveedor de aceleradores de Anthropic. La inversión de 10.000 millones se estructura principalmente como participación accionaria con tranches de desempeño vinculadas a la adopción de hardware, según personas familiarizadas con los términos. Esta estructura asegura que las ejecuciones de entrenamiento de Anthropic continúen favoreciendo la arquitectura GPU más avanzada de Nvidia, evitando la penetración de competidores como el acelerador MI300X de AMD o las unidades de procesamiento tensorial Tensor Processing Units in-house de Google.

Una temporada de mega acuerdos

El acuerdo con Anthropic cierra seis semanas frenéticas de anuncios de infraestructura de gran escala:

• 3 de noviembre: OpenAI y Amazon hicieron pública una colaboración multianual de 38.000 millones que suministrará al creador de ChatGPT capacidad de Amazon Web Services y decenas de miles de procesadores Nvidia H100.

• 27 de octubre: El Departamento de Energía de Estados Unidos reveló una asociación de 1.000 millones con AMD para construir dos supercomputadoras de IA dedicadas a modelos climáticos y simulaciones de seguridad nacional.

• 23 de octubre: Google se comprometió a proporcionar a Anthropic hasta un millón de sus chips TPU v6 de quinta generación, un acuerdo que analistas externos valúan en «decenas de miles de millones» dependiendo de la utilización.

• 16 de octubre: Oracle selló un acuerdo de nube de 20.000 millones con Meta dirigido a escalar la familia de modelos de lenguaje Llama de código abierto de Meta.

En conjunto, estos cuatro acuerdos rivalizan con los presupuestos de gastos de capital anuales de algunos fabricantes de hardware de Fortune 500 y señalan que la computación a hiperescala se ha convertido en un requisito previo para la relevancia en IA.

Escaleras de financiación e inversiones cruzadas

La recaudación más reciente de Anthropic también extiende una red intrincada de participaciones superpuestas entre Big Tech, fabricantes de chips y laboratorios de IA. Antes de la inyección de esta semana, la empresa ya había recibido 8.000 millones de Amazon y 3.000 millones de Google, según divulgaciones previas. Nvidia es simultáneamente proveedor e inversor en OpenAI, mientras Microsoft mantiene escaños en el consejo de gobernanza de Anthropic a pesar de competir con ella en el ámbito del software de productividad a través de Copilot.

Los economistas advierten que este mosaico de posiciones de participación accionaria entrelazadas puede distorsionar las valuaciones de mercado. Una encuesta del Instituto Tecnológico de Massachusetts publicada en septiembre encontró que el 95 por ciento de 300 proyectos de IA estudiados aún no eran rentables, aunque inversores de riesgo y socios estratégicos habían vertido aproximadamente 400.000 millones de dólares en el grupo. Los autores del estudio compararon el frenesí actual de IA con la burbuja puntocom de finales de los años 90, señalando que «el ajuste inevitable, cuando llegue, podría ser rápido».

Los planes de expansión de Anthropic

Anthropic ha dicho que tiene la intención de gastar 50.000 millones en infraestructura durante los próximos cinco años, creando aproximadamente 800 empleos permanentes en centros de datos y 2.000 funciones de construcción. Una parte de ese gasto financiará experimentos con modelos de lenguaje de «contexto masivo» capaces de leer y citar bibliotecas completas; otra porción financiará iniciativas de pruebas de seguridad que Anthropic denomina «IA constitucional», cuyo objetivo es alinear los resultados del modelo con un conjunto predefinido de principios éticos.

La reserva de Azure otorga a Anthropic acceso prioritario a los campuses experimentales «Stargate» de Microsoft, complejos a hiperescala que se rumorea cuestan hasta 500.000 millones una vez completamente construidos. Aunque ninguna empresa confirmaría el cronograma para la puesta en servicio de Stargate, permisos de construcción presentados en Iowa y Wisconsin sugieren que los racks iniciales podrían estar operacionales a finales de 2026.

Efectos competitivos secundarios

Los analistas de mercado dicen que el puro volumen de la compra de bloque de cómputo de Anthropic podría apretar a startups de IA más pequeñas que también dependen de Azure o GPU Nvidia, impulsándolas hacia competidores como Google Cloud, Oracle o proveedores especializados emergentes como CoreWeave. Las limitaciones de suministro de GPU ya han llevado a algunas empresas de nivel medio a retrasar lanzamientos de productos, y la última reserva retira decenas de miles de chips más del mercado abierto.

Los inversores han tomado nota: el especialista en infraestructura CoreWeave ha aumentado un 221 por ciento desde su debut en marzo, aumentando su capitalización de mercado a casi 67.000 millones. Los ejecutivos de CoreWeave han argumentado que los hiperscalers atrincherados no pueden monopolizar indefinidamente la demanda, pero analistas de Wall Street advirtieron que la valuación de la empresa descansa en gran medida en su capacidad de asegurar sus propias asignaciones de GPU a largo plazo.

Puntos de vigilancia regulatoria

Los vigilantes antimonopolio de Estados Unidos están escrutando la red de asociaciones enredada. La Comisión Federal de Comercio abrió una investigación en octubre sobre si el patrón de inversiones cruzadas de Microsoft, Amazon, Google y Nvidia en múltiples laboratorios de modelos de fundación podría perjudicar a competidores emergentes que carecen de tales patrocinadores. Aunque el acuerdo con Anthropic técnicamente permanece por debajo del umbral de presentación de Hart-Scott-Rodino, porque se escalonará durante varios meses, los expertos legales creen que los reguladores podrían impugnarlo sobre bases de daño competitivo.

Microsoft ha contrarrestado que sus alianzas fomentan la innovación al agrupar recursos e intercambiar mejores prácticas en seguridad de IA. Nvidia, por su parte, argumenta que cada envío adicional de GPU acelera el descubrimiento científico en campos que van desde el diseño de fármacos hasta pronósticos meteorológicos.

Análisis: por qué los números siguen aumentando

Detrás de las cifras principales existe un cálculo simple: el costo de entrenar modelos fronterizos se duplica cada seis a nueve meses conforme los conteos de parámetros y ventanas de contexto se expanden. Sin embargo, para justificar precios premium en suscripciones de IA, los modelos deben continuar mejorando a tasas casi exponenciales. Ese ciclo virtuoso (o vicioso) impulsa tanto a los laboratorios como a sus patrocinadores en la nube a asegurar hardware años antes, no sea que se queden sin capacidad cuando el próximo avance aparezca.

Los críticos señalan que la mayoría de implementaciones comerciales todavía dependen de conglomerados de inferencia relativamente modestos en lugar de ejecuciones masivas de entrenamiento, sugiriendo que las reservas actuales pueden exceder la demanda real. Sin embargo, los defensores dicen que el sobreaprovisionamiento es preferible al infraaprovisionamiento en un campo donde una única escasez de GPU puede descarrilar una hoja de ruta de producto.

Qué sucede a continuación

Durante los próximos 18 meses, los observadores del mercado buscarán tres señales: primero, si Anthropic comienza a migrar cargas de trabajo significativas lejos de Google Cloud hacia Azure; segundo, con qué rapidez Nvidia puede aumentar la producción de su próxima generación de GPU de la familia Blackwell, ampliamente esperada en 2026; y tercero, si otros laboratorios de IA responden con compras de bloques de cómputo similares. Si el ritmo continúa, los compromisos totales anunciados de infraestructura de IA podrían superar los 500.000 millones antes de mediados de la década.

Por ahora, la apuesta de 30.000 millones de dólares de Anthropic en Azure consolida su estatus como uno de un puñado de laboratorios de IA capaces de dictar términos a los titanes de la nube, mientras otorga a Microsoft y Nvidia otro margen más en la carrera de alto riesgo por suministrar el cerebro y la músculatura de la inteligencia artificial.

Fuentes

  • https://blogs.microsoft.com/blog/2025/11/18/microsoft-nvidia-and-anthropic-announce-strategic-partnerships/
  • https://www.cnbc.com/2025/11/18/anthropic-ai-azure-microsoft-nvidia.html
  • https://www.reuters.com/technology/anthropic-commits-30-billion-microsoft-azure-compute-2025-11-18/