MWC 2026: Huawei desafía a Nvidia con sus gigantescos clústeres IA SuperPoD
En el MWC 2026, Huawei no solo ha venido a hablar de chips: la empresa ha llegado para presentar una visión integrada del sistema. Con el Atlas 950 SuperPoD y el TaiShan 950 SuperPoD, presentados por primera vez a una audiencia global, el grupo busca demostrar que puede ofrecer clústeres de IA a la escala exaflop, y sobre todo, una alternativa estructurada al modelo de Nvidia centrado en CUDA.
El desafío: cuando «agregar servidores» ya no es suficiente
La carrera hacia modelos (trillones de parámetros, agentes en producción) ha traído a la luz un obstáculo conocido por los arquitectos: a escalas muy grandes, ya no son los FLOPS brutos los que limitan, sino la coordinación (latencia, all-reduce, intercambios entre nodos, efectividad de la paralelización).
Huawei presenta el Atlas 950 como una respuesta a este límite: hacer funcionar miles de aceleradores como si fueran una sola computadora lógica, en lugar de múltiples tarjetas que gritan a través de la red.
Sobre el papel, el Atlas 950 llega a cifras impresionantes:
- Hasta 8,192 NPUs Ascend, conectados a través de la interconexión UnifiedBus;
- Una organización diseñada para comportarse como un sistema unificado ( direccionamiento de memoria unificado, latencia reducida entre procesadores);
- Una escala física masiva: 160 racks/cabinets en aproximadamente 1,000 m², con más de 1 PB de memoria;
- Y sobre todo, una cifra que impacta: 16.3 PB/s de ancho de banda de interconexión.
En términos de rendimiento, Huawei anuncia hasta 8 exaflops en FP8 y 16 exaflops en formatos de menor precisión.
TaiShan 950 SuperPoD: la misma lógica, pero para el «compute» empresarial
Huawei no solo intenta ganar la guerra del entrenamiento. Con el TaiShan 950 SuperPoD, la compañía aplica el enfoque SuperPoD al cálculo general y a las cargas de trabajo de centros de datos (bases de datos, análisis, servicios backend), complementado con los servidores TaiShan 500 y TaiShan 200 para niveles inferiores.
El duelo: Nvidia mantiene el ecosistema, Huawei busca independencia
Huawei se posiciona explícitamente frente a los DGX SuperPOD y plataformas NVL de Nvidia, así como ante las ofertas AMD «MegaPod» que se esperan alrededor de los Instinct. La clave de la diferencia radica en el software: Nvidia se presenta con CUDA y una enorme base instalada en laboratorios y empresas.
Huawei, por su parte, impulsa Ascend + CANN (Compute Architecture for Neural Networks), con una compatibilidad anunciada con frameworks como PyTorch y Triton, para permitir a los equipos construir pipelines sin depender de CUDA.
Y, Nvidia no se queda quieta: sus recientes anuncios sobre el DGX SuperPOD «Rubin» destacan una densidad y orquestación de hardware/software muy integradas, con cifras agresivas de exaflops FP4 a un número de GPU más contenido.
Huawei ofrece una «stack completa», no solo un acelerador
El mensaje del MWC 2026 es claro: Huawei quiere ser percibido como un fabricante de infraestructuras de IA, capaz de integrar interconexión, computación, memoria y software en un producto «listo para clúster».
La cuestión ahora no es solo «quién tiene el clúster más grande», sino quién puede ofrecer computación a gran escala con una eficiencia real (tiempo de entrenamiento, disponibilidad, rendimiento energético) y quién puede brindar a los desarrolladores un camino viable fuera de CUDA, con herramientas, soporte y madurez del ecosistema.
Huawei ha abierto el ring fuera de China. Nvidia mantiene la ventaja cultural y de software. Pero, el Atlas 950 y el TaiShan 950 SuperPoD plantean una promesa: en la era de los modelos gigantes, la IA se gana cada vez más… a nivel de sistema.




