NVIDIA anuncia los sistemas DGX H100

El día de hoy, NVIDIA anunció el sistema NVIDIA DGX de cuarta generación, la primera plataforma de IA del mundo que se fabrica con las nuevas GPU NVIDIA H100 Tensor Core.

Los sistemas DGX H100 ofrecen la escala que se exige para cumplir con los enormes requisitos de computación de los grandes modelos de idiomas, los sistemas de recomendación, la investigación de la salud y los avances en la ciencia del clima. Con ocho GPU NVIDIA H100 por sistema, conectadas por NVIDIA NVLink, cada DGX H100 proporciona 32 petaflops de rendimiento de IA con la nueva precisión FP8, 6 veces más que la generación anterior.

Los sistemas DGX H100 son los componentes fundamentales de las plataformas de infraestructura de IA NVIDIA DGX POD y NVIDIA DGX SuperPOD de próxima generación. La arquitectura DGX SuperPOD más reciente cuenta con un nuevo Sistemas de Switches NVIDIA NVLink que puede conectar hasta 32 nodos con un total de 256 GPU H100.

Al proporcionar 1 exaflops de rendimiento de IA FP8, 6 veces más que su predecesora, la DGX SuperPOD de próxima generación expande las fronteras de la IA con la capacidad de ejecutar enormes cargas de trabajo de LLM con billones de parámetros.

NVIDIA será la primera empresa en construir una DGX SuperPOD con la revolucionaria arquitectura de IA para impulsar el trabajo de los investigadores de NVIDIA que avanzan en la ciencia del clima, la biología digital y el futuro de la IA.

Se espera que su supercomputadora Eos sea el sistema de IA más rápido del mundo después de que comience a operar a finales de este año, con un total de 576 sistemas DGX H100 con 4608 GPU DGX H100.

Se espera que NVIDIA Eos proporcione 18.4 exaflops de rendimiento de computación de IA, 4 veces más rápido de procesamiento de IA que la supercomputadora Fugaku en Japón, que actualmente es el sistema más rápido del mundo. Para la computación científica tradicional, se espera que Eos proporcione 275 petaflops de rendimiento.

Los sistemas DGX H100 se escalan fácilmente para cumplir con las demandas de la IA a medida que las empresas crecen desde los proyectos iniciales hasta las implementaciones amplias.

Además de las ocho GPU H100, con un total de 640,000 millones de transistores, cada sistema DGX H100 incluye dos DPU NVIDIA BlueField®-3 para descargar, acelerar y aislar servicios de seguridad, almacenamiento y redes avanzadas.

Ocho adaptadores de red NVIDIA ConnectX-7 Quantum-2 InfiniBand proporcionan una tasa de transferencia de 400 gigabits por segundo para conectarse con la computación y el almacenamiento. Esto es el doble de velocidad que el sistema de la generación anterior. Además, un NVLink de cuarta generación, combinado con NVSwitch, proporciona una conectividad de 900 gigabytes por segundo entre cada GPU en cada sistema DGX H100. Es decir, 1.5 veces más que la generación anterior.

Los sistemas DGX H100 aprovechan las CPU x86 dobles y se pueden combinar con las redes y el almacenamiento de NVIDIA, disponibles mediante los socios de NVIDIA, para crear instancias de DGX POD flexibles para la computación de IA en cualquier tamaño.

DGX SuperPOD proporciona un centro de excelencia de IA empresarial escalable con sistemas DGX H100. Los nodos DGX H100 y las GPU H100 en un DGX SuperPOD se conectan mediante un Sistema de Switch NVLink y NVIDIA Quantum-2 InfiniBand, lo que proporciona un total de 70 terabytes/s de ancho de banda, 11 veces más que la generación anterior. El almacenamiento de los socios de NVIDIA se probará y certificará para satisfacer las demandas de la computación de IA DGX SuperPOD.

Se pueden combinar varias unidades DGX SuperPOD para proporcionar el rendimiento de IA necesario para desarrollar enormes modelos en industrias como la automotriz, la salud, la manufactura, las comunicaciones, la venta minorista y más.

Artículos relacionados

Back to top button