NVIDIA anuncia la GPU A100 de 80 GB
El día de hoy, NVIDIA presentó la GPU NVIDIA A100 de 80 GB, la innovación más actual que potencia la plataforma de supercomputo NVIDIA HGX. Cuenta con el doble de memoria que la generación anterior, por lo que les brinda a los ingenieros e investigadores un rendimiento y una velocidad sin precedentes para desbloquear la próxima ola de avances científicos y de IA.
La nueva A100 con la tecnología HBM2e duplica la memoria de alto ancho de banda de la GPU A100 de 40 GB a 80 GB. Además, ofrece más de 2 terabytes por segundo de ancho de banda de memoria. Esto permite que los datos se envíen rápidamente a la A100, la GPU de centro de datos más rápida del mundo. De esta manera, los investigadores pueden acelerar sus aplicaciones todavía más y trabajar con modelos y conjuntos de datos aún más grandes.
La GPU NVIDIA A100 de 80 GB está disponible en los sistemas NVIDIA DGXTM A100 y NVIDIA DGX StationTM A100, que también se anunciaron hoy y se esperan que se envíen este trimestre.
Se espera que los principales proveedores de sistemas, como Atos, Dell, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta y Supermicro, comiencen a ofrecer sistemas desarrollados con las placas base integradas HGX A100 con configuraciones de cuatro (4) u ocho (8) GPUs A100 de 80 GB en la primera mitad del 2021.
La GPU A100 de 80 GB se basa en las diversas capacidades de la A100 de 40 GB y es ideal para realizar una amplia gama de aplicaciones con enormes requisitos de memoria de datos.
Para el entrenamiento de IA, los modelos de sistemas de recomendación como DLRM tienen enormes tablas que representan miles de millones de usuarios y cientos de millones de productos. El A100 de 80 GB ofrece una aceleración de hasta 3 veces, por lo que las empresas pueden reentrenar rápidamente estos modelos para brindar recomendaciones altamente precisas.
El A100 de 80 GB también permite el entrenamiento de los modelos más grandes con más parámetros que se ajustan a un solo servidor con HGX, como GPT-2, un modelo de procesamiento de idiomas naturales con capacidad de texto generativo sobrehumano. Esto elimina la necesidad de datos o modelos de arquitecturas paralelas que pueden llevar mucho tiempo implementar y ralentizar su ejecución en varios nodos.
Gracias a su tecnología de GPU de instancias múltiples (MIG), A100 se puede particionar en hasta siete instancias de GPU, cada una con 10 GB de memoria.
Esto proporciona un aislamiento de hardware seguro y maximiza la utilización de la GPU para una variedad de cargas de trabajo más pequeñas. Para la inferencia de IA de modelos de reconocimiento automático de voz como RNN-T, una sola instancia de MIG A100 de 80 GB puede dar servicio a lotes mucho más grandes, lo que ofrece un rendimiento de inferencia 1.25 veces mayor en producción.
En una evaluación del análisis de big data para la industria del comercio minorista, en el rango de tamaño de terabytes, la A100 de 80 GB aumenta el rendimiento hasta 2 veces, lo que la convierte en una plataforma ideal para brindar información rápida sobre los conjuntos de datos más grandes. Las empresas pueden tomar decisiones clave en tiempo real, ya que los datos se actualizan de forma dinámica.
Para aplicaciones científicas, como la previsión meteorológica y la química cuántica, la A100 de 80 GB puede ofrecer una enorme aceleración. Quantum Espresso, una simulación de materiales logró un rendimiento cerca de 2 veces con un solo nodo de A100 de 80 GB.