Los tres vendors proponen que el plano de control de una red moderna de telecomunicaciones sea inseparable de la infraestructura de IA y de la capa de seguridad
Enfoque de decisión
Los equipos de ingeniería que diseñan infraestructura edge o plataformas cloud-native deben evaluar si este stack integrado cambia el punto de partida arquitectónico para cargas de trabajo de inferencia en tiempo real y funciones de red distribuidas.
Resumen en 90 segundos
En los últimos días, en el Mobile World Congress 2026, Red Hat, NVIDIA y Palo Alto Networks anunciaron una colaboración estratégica para construir un stack telco nativo de IA. La propuesta combina Red Hat OpenShift y OpenShift AI como plataforma Kubernetes empresarial común, computación acelerada mediante NVIDIA Aerial RAN Computer (ARC) y servidores RTX PRO, y seguridad integrada vía Prisma AIRS sobre NVIDIA BlueField-3 y ConnectX. El objetivo declarado es eliminar la fragmentación operativa entre core, edge y far-edge, habilitando inferencia en tiempo real y aplicación de políticas de seguridad sin penalización de latencia. La arquitectura apunta explícitamente a preparar redes para operaciones escalables impulsadas por IA y el ciclo de vida hacia redes 6G.
¿Qué está pasando realmente?
La colaboración no es un anuncio de producto único: es la formalización de una apuesta arquitectónica conjunta. Los tres vendors proponen que el plano de control de una red moderna de telecomunicaciones sea inseparable de la infraestructura de IA y de la capa de seguridad.
Red Hat aporta OpenShift como el sustrato Kubernetes que unifica despliegue y gobernanza de funciones de red y cargas de trabajo de IA en todos los niveles del edge. NVIDIA contribuye con dos familias de hardware: los servidores RTX PRO para inferencia en centros de datos y edge, y la familia Aerial RAN Computer (ARC), orientada específicamente a inteligencia de RAN. Palo Alto Networks cierra el ciclo integrando Prisma AIRS con BlueField-3, lo que mueve la detección de amenazas y la aplicación de políticas al plano de datos acelerado, evitando que la seguridad se convierta en un cuello de botella de rendimiento.
Lo que resulta técnicamente relevante es la forma en que la seguridad está diseñada dentro de esta arquitectura. BlueField-3 actúa como Data Processing Unit (DPU) que descarga las funciones de red y seguridad de la CPU principal, ejecutando políticas de Prisma AIRS directamente en el hardware sin impactar la latencia de la carga de trabajo de IA. Esto representa un cambio respecto a los modelos tradicionales, donde la inspección de tráfico y la aplicación de políticas zero trust compiten por recursos con las aplicaciones. La arquitectura, acelerada por NVIDIA ConnectX, posibilita la detección de amenazas y la aplicación de políticas en tiempo real, manteniendo una protección consistente desde el core hasta el edge sin afectar el rendimiento.
El tercer vector es la preparación para 6G. La arquitectura no se presenta únicamente como una solución para infraestructura actual, sino como la base sobre la que los operadores construirán servicios digitales en el próximo ciclo de redes. Esto implica que las decisiones arquitectónicas que tomen los equipos de ingeniería de telcos en los próximos 12 a 24 meses tendrán un horizonte de amortización considerablemente más largo que el de un ciclo de refresh tecnológico típico.
¿Por qué importa para Líderes de Ingeniería de Software?
-
Desde el punto de vista operativo: El modelo de plataforma unificada sobre OpenShift para core, edge y far-edge reduce la fragmentación de tooling operativo, pero exige que los equipos de plataforma e infraestructura dominen un stack más integrado y menos sustituible por partes.
-
Desde el punto de vista de seguridad y regulatorio: La integración de Prisma AIRS directamente en el plano de datos acelerado por BlueField-3 reubica la responsabilidad de cumplimiento dentro de la arquitectura. Los equipos de ingeniería deben mapear cómo esta capa de seguridad embebida interactúa con sus propios requisitos de auditoría y compliance.
-
Desde el punto de vista presupuestario: Un stack integrado de tres vendors ancla el modelo de costos a contratos conjuntos y ciclos de hardware NVIDIA. Los líderes de ingeniería deben evaluar el TCO real frente a arquitecturas composables con vendors especializados separados, especialmente en entornos donde no toda la carga de trabajo requiere aceleración de GPU.
-
Desde el punto de vista competitivo: Los operadores que adopten esta arquitectura podrán ofrecer servicios de red con inferencia en tiempo real y latencia predecible. Para los equipos que construyen sobre redes de operadores, esto abre APIs y capacidades de red inteligente que hoy no están disponibles a escala.
-
Desde el punto de vista de talento: El stack combina Kubernetes empresarial, programación de DPUs, operaciones de AI/ML y seguridad zero trust en hardware. Las organizaciones que lo adopten necesitarán perfiles de platform engineer con conocimiento de aceleración de hardware, un perfil escaso en el mercado actual.
Perspectiva a futuro
En los próximos 30 a 90 días, los indicadores observables son: anuncios de adopción temprana por parte de operadores de telecomunicaciones en Europa y Asia que ya trabajan con Red Hat OpenShift en entornos de core network; disponibilidad general de las integraciones Prisma AIRS con BlueField-3 sobre OpenShift; y evidencia técnica de benchmarks de latencia en cargas de trabajo de inferencia en edge desplegadas sobre Aerial ARC. Si los operadores comienzan a publicar casos de uso de RAN inteligente sobre esta arquitectura antes del Q2, será la señal más clara de que el stack está pasando del modo anuncio a producción real.
Lo que aún es incierto
-
Adopción real fuera del ecosistema telco: No está claro si esta arquitectura tiene aplicación directa para equipos de ingeniería fuera de telecomunicaciones; esto se resolverá cuando Red Hat o NVIDIA publiquen casos de uso en industrias adyacentes como edge computing industrial o retail.
-
Modelo de licenciamiento y precios conjuntos: El anuncio no especifica cómo se empaquetan comercialmente los tres componentes; los detalles se conocerán en conversaciones con los vendedores o cuando alguno de los tres publique documentación de pricing oficial.
-
Madurez de Prisma AIRS en entornos de producción a escala edge: La integración con BlueField-3 fue anunciada como colaboración estratégica, pero la disponibilidad general y los SLA de soporte en despliegues far-edge no están confirmados públicamente.
-
Posicionamiento frente a alternativas de hyperscalers: AWS Wavelength, Azure Operator Nexus y Google Distributed Cloud ofrecen propuestas competidoras para el edge telco; el diferenciador real de este stack frente a esas alternativas no está documentado en el anuncio.
Una pregunta para tu equipo
Si nuestra estrategia de plataforma edge requiere inferencia en tiempo real en los próximos 18 meses, ¿estamos evaluando el costo de construir sobre DPUs programables como BlueField-3 versus asumir que la CPU seguirá siendo suficiente para nuestras cargas de trabajo?
Fuentes
- Itsitio — MWC 2026: Red Hat, NVIDIA y Palo Alto Networks impulsan una arquitectura segura y nativa de IA para las (Link)
