Google ha comenzado a desarrollar una nueva capa de software llamada «TorchTPU» que permitirá que las unidades de procesamiento tensorial de la empresa ejecuten el popular marco de inteligencia artificial PyTorch con la misma fluidez que los GPU de Nvidia, según personas familiarizadas con el proyecto y comunicaciones corporativas revisadas recientemente. El esfuerzo, que se despliega en la sede de Google en Mountain View hasta 2025, busca proporcionar a los clientes de la nube una alternativa al costoso y escaso hardware de Nvidia, y erosionar la ventaja de décadas que disfruta el software CUDA de Nvidia entre los desarrolladores de IA.
Los ejecutivos de Google confirman que TorchTPU es central para la estrategia de la empresa en infraestructura de inteligencia artificial en un momento en que la demanda de capacidad informática para modelos de lenguaje grande supera ampliamente la oferta. Al combinar sus chips personalizados con el conjunto de herramientas de código abierto favorito de la industria, la empresa espera recuperar la atención de los desarrolladores, acelerar el crecimiento de ingresos de Google Cloud y socavar el dominio de Nvidia.
Las unidades de procesamiento tensorial de Google, chips personalizados presentados por primera vez en 2016, han sido durante mucho tiempo optimizados para el marco de aprendizaje automático interno de la empresa, Jax, y el compilador XLA. Aunque esa combinación ofrece un rendimiento sólido dentro de productos como el chatbot Gemini y la búsqueda con IA, ha dejado fuera a la mayoría de los investigadores externos porque la mayoría de los modelos comerciales y académicos están escritos en PyTorch. Nvidia aprovechó esa incompatibilidad desde el inicio, ajustando las bibliotecas CUDA específicamente para PyTorch y consolidando un ciclo virtuoso: más desarrolladores eligen hardware de Nvidia porque «simplemente funciona», lo que a su vez motiva a los creadores de software a seguir optimizando para CUDA.
El 17 de diciembre de 2025, Reuters informó que TorchTPU de Google busca «ayudar a los desarrolladores de IA a reducir la dependencia del ecosistema CUDA de Nvidia» al hacer que los TPU sean totalmente compatibles con PyTorch Reuters. Un informe separado de MSN señaló que Meta Platforms, el gigante de redes sociales que creó PyTorch en 2016, está colaborando con Google en la iniciativa, ya que ambas empresas buscan ventaja contra el poder de la cadena de suministro y precios de Nvidia MSN.
Por qué PyTorch es importante
PyTorch se ha convertido en la lengua franca de la investigación en IA, gracias a su sintaxis nativa de Python y un vasto ecosistema de herramientas listas para usar. Un investigador puede ajustar un modelo transformer con algunas docenas de líneas de código PyTorch e implementarlo en un GPU la misma tarde. Reescribir ese modelo para otro marco, como Jax de Google, puede tomar semanas e introduce riesgos de rendimiento. La misión de TorchTPU es eliminar la capa de traducción para que los repositorios existentes de PyTorch, tutoriales y puntos de control se ejecuten de forma nativa en TPU con cambios mínimos de código.
Las apuestas del proyecto son tanto financieras como técnicas. El brazo de infraestructura como servicio de Google Cloud compite directamente con Amazon Web Services y Microsoft Azure por cargas de trabajo de IA, y los honorarios por uso de TPU están destinados a ser un motor de crecimiento. «La adopción de TPU es un motor crítico para la división de nube de Google», observó recientemente Yahoo Finance, subrayando la presión para hacer el hardware lo más amigable posible para los desarrolladores Yahoo Finance.
Cómo funciona TorchTPU
Internamente, los ingenieros describen TorchTPU como tres capas de código:
- Un adaptador de compatibilidad que intercepta operaciones de tensor de PyTorch y las convierte en llamadas nativas de TPU.
- Una ruta de compilador mejorada que evita CUDA y en su lugar se enruta a través del XLA de Google, preservando las optimizaciones automáticas de gráficos en las que los TPU dependen para la velocidad.
- Un conjunto de bibliotecas de referencia de código abierto, como kernels de multiplicación de matrices, lanzadas en GitHub bajo una licencia Apache, permitiendo a los investigadores auditar y extender el trabajo.
La decisión de hacer código de fuente abierta componentes clave es un movimiento calculado. Al permitir que investigadores externos agreguen sus propios kernels o correcciones de errores, Google espera acelerar un ciclo de retroalimentación virtuoso similar al que Nvidia disfruta con CUDA. La empresa ya ha lanzado porciones limitadas de herramientas de software TPU en el pasado, pero TorchTPU sería su lanzamiento público más ambicioso hasta la fecha.
Alineación de Google y Meta
El interés de Meta en el proyecto es doble. Primero, la empresa de redes sociales tiene su propio programa de chips pero aún compra grandes volúmenes de GPU de Nvidia. Segundo, la administración de código abierto de Meta de PyTorch le da influencia sobre la hoja de ruta del marco. Al ayudar a Google a incrustar el soporte de TPU hacia arriba, Meta puede aumentar la diversidad de hardware y mantener PyTorch en el centro de la innovación en IA, objetivos que se alinean con su promoción de larga data de ecosistemas abiertos.
Ninguna empresa ha anunciado una asociación formal, pero ingenieros de ambos lados han estado contribuyendo código a una rama interna de PyTorch según personas informadas sobre el trabajo. El objetivo es que los principales commits de TorchTPU lleguen al repositorio público de PyTorch en algún momento de 2026, después de lo cual los clientes de la nube verían «pip install torch==
Panorama competitivo
La participación de Nvidia en el mercado de aceleradores de IA de centros de datos se sitúa bien por encima del 80 por ciento, impulsada por ingresos récord de sus líneas de GPU H100 y A100. Ese liderazgo no es puramente hardware; la base de código de CUDA abarca dos décadas y miles de kernels especializados. Los analistas a menudo comparan CUDA con un «jardín amurallado» que bloquea a los desarrolladores en el ecosistema de Nvidia. TorchTPU está diseñado para dar a las empresas una estrategia de salida creíble.
Google, por su parte, ya ha comenzado a vender pods TPU individuales directamente a centros de datos corporativos en lugar de limitar el acceso a su propia nube. El hardware presume de interconexiones rápidas y ancho de banda de memoria alta, atributos esenciales para entrenar modelos de parámetros multi-billonarios. Sin embargo, sin soporte de PyTorch de primera clase, muchos clientes potenciales han dudado. TorchTPU busca eliminar ese último obstáculo.
Impulso organizacional
Internamente, Google reorganizó su grupo de infraestructura de IA a principios de este año, elevando al ingeniero veterano Amin Vahdat para reportar directamente al CEO Sundar Pichai. El mandato de Vahdat incluye hojas de ruta de silicio, redes de centros de datos e incorporación de clientes, una señal de que TorchTPU no es un proyecto clandestino sino una prioridad a nivel de junta directiva. El cronograma coincide con el escrutinio de los inversores sobre los gastos de capital de Alphabet, que superaron los 30 mil millones de dólares el año pasado en gran medida debido a inversiones en hardware de IA.
¿Qué tan rápido podrían cambiar las cosas?
Si TorchTPU cumple sus objetivos, los observadores de la industria esperan varios efectos secundarios:
- Presión de precios: la disponibilidad expandida de TPU podría forzar a Nvidia a moderar los márgenes en GPU de IA a medida que los compradores obtienen ventaja.
- Portabilidad de software: los investigadores podrían comenzar a escribir código PyTorch agnóstico al silicio subyacente, permitiendo que los programadores de carga de trabajo elijan el acelerador más barato o rápido automáticamente.
- Diferenciación de nube: Google Cloud podría comercializar la capacidad de TPU con rendimiento premium por dólar, diferenciándose de los chips Trainium personalizados de AWS y los clusters exclusivos de Nvidia de Azure.
Limitaciones y desafíos
Google aún enfrenta obstáculos. El modelo de ejecución entusiasta de PyTorch puede entrar en conflicto con la preferencia de TPU por gráficos compilados, lo que potencialmente limita el rendimiento de inferencia en tiempo real. Las herramientas de depuración construidas alrededor de CUDA necesitarán equivalentes en TPU para que los desarrolladores se sientan cómodos migrando. E incluso si TorchTPU logra paridad de características, la capacidad de la cadena de suministro para obleas de TPU debe escalar para satisfacer la demanda, una tarea no trivial dadas las restricciones globales de semiconductores.
Implicaciones para la industria
Durante años, la conversación sobre hardware de IA ha sido una carrera de un solo caballo dominada por Nvidia. El éxito de TorchTPU no derrocaría instantáneamente a ese líder, pero abriría una verdadera era multi-proveedor en la que los compradores de computación pueden cubrir el riesgo y negociar contratos mejores. En perspectiva más larga, el proyecto ilustra un cambio más amplio hacia capas de abstracción de software que desvinculan el código de aprendizaje automático de cualquier proveedor de chips específico, reflejando cómo Linux abstrajo el hardware del servidor hace dos décadas. Si Google puede galvanizar la comunidad de desarrolladores lo suficientemente rápido sigue siendo incierto, pero la mera perspectiva ya está energizando rivales y rompiendo el hechizo de inevitabilidad alrededor del foso de CUDA de Nvidia.
Fuentes
- https://www.reuters.com/business/google-works-erode-nvidias-software-advantage-with-metas-help-2025-12-17/
- https://www.msn.com/en-in/money/news/google-secretly-working-on-torch-tpu-it-could-break-nvidias-grip-on-ai-chips/ar-AA1SFRXa
- https://finance.yahoo.com/news/google-teams-meta-pytorch-chip-161749510.html
