
Nvidia y su nuevo portafolio enfocado al mercado de súper cómputo
• Los equipos GPU A100 de 80 GB, DGX Station A100 y Mellanox 400G InfiniBand, prometen llevar al siguiente nivel la IA y la ciencia de datos.
Con motivo de evento Súper Cómputo, Nvidia anunció el lanzamiento de Mellanox 400G InfiniBand, el GPU A100 de 80 GB y DGX Station A100, que buscan revolucionar el mercado de cómputo con velocidades y capacidades superiores a las existentes en el mercado actual, lo cual también abre oportunidades de negocio en verticales especializadas.
A medida que los requisitos de computación siguen creciendo exponencialmente, NVIDIA Mellanox 400G InfiniBand está acelerando el trabajo a través del rendimiento ofrecido mediante una plataforma de computación en la red totalmente descargable. La séptima generación de Mellanox InfiniBand proporciona una latencia ultrabaja y duplica la tasa de transferencia de datos con NDR 400 Gb/s. También agrega nuevos motores de computación en la red de NVIDIA para proporcionar una aceleración adicional.
Los principales fabricantes de infraestructura tecnológicas del mundo, incluidos Atos, Dell Technologies, Fujitsu, Inspur, Lenovo y Supermicro, han planeado integrar las soluciones Mellanox 400G InfiniBand en sus ofertas de HPC y soluciones empresariales.
“El trabajo más importante de nuestros clientes se basa en la inteligencia artificial y en aplicaciones cada vez más complejas que exigen redes más rápidas, inteligentes y escalables. La enorme tasa de transferencia y los motores de aceleración inteligente de NVIDIA 400 Gb/s InfiniBand permiten que las infraestructuras de cloud de hiperescala, de IA y de HPC logren un rendimiento inigualable con menores costos y complejidad”: Gilad Shainer, Vicepresidente Senior de Redes de NVIDIA.
GPU A100 de 80 GB
Con el doble de memoria que la generación anterior, la nueva GPU A100 brinda a los ingenieros e investigadores un rendimiento y una velocidad sin precedentes para la IA. Con tecnología HBM2e se duplica la memoria de alto ancho de banda, además, ofrece más de 2 terabytes por segundo de ancho de banda de memoria, permitiendo que los datos se envíen rápidamente. De esta manera, se pueden acelerar las aplicaciones y trabajar con modelos y conjuntos de datos aún más grandes. Al respecto, Bryan Catanzaro, Vicepresidente de Investigación de Deep Learning aplicado de NVIDIA explicó: “Lograr resultados de vanguardia en la investigación de HPC e IA requiere el desarrollo de modelos más grandes; sin embargo, éstos exigen más capacidad de memoria y ancho de banda que nunca. La GPU A100 de 80 GB proporciona el doble de memoria que su predecesora, que se lanzó hace solo seis meses, y rompe la barrera de los 2 TB por segundo, lo que permite a los investigadores abordar los desafíos científicos y de big data más importantes del mundo”.
El fabricante espera que los principales proveedores de sistemas, como Atos, Dell, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta y Supermicro, comiencen a ofrecer sistemas desarrollados con las placas base integradas HGX A100 con configuraciones de cuatro y ocho GPUs A100 de 80 GB en la primera mitad del 2021.
DGX Station A100
El equipo DGX Station A100 cuenta con 2.5 petaflops de rendimiento de IA y es un servidor de grupos de trabajo con cuatro de las GPUs A100 Tensor Core más recientes, además de estar interconectadas con NVLink, lo que proporciona hasta 320 GB de memoria de GPU para acelerar los avances en IA y la ciencia de datos empresariales.
Caben mencionar que, es el único servidor para grupos de trabajo compatible con la tecnología de múltiples instancias de GPU de NVIDIA (MIG). Con MIG, una sola DGX Station A100 proporciona hasta 28 instancias de GPU separadas para ejecutar trabajos en paralelo y admitir varios usuarios sin afectar el rendimiento del sistema.
“DGX Station A100 saca la IA del data center con un sistema de clase de servidor que se puede conectar en cualquier lugar. Los equipos de investigadores de Ciencia de Datos e Inteligencia Artificial pueden acelerar su trabajo utilizando la misma pila de software que los sistemas DGX A100, lo que les permite escalar fácilmente desde el desarrollo hasta la implementación”: Charlie Boyle, Vicepresidente y Gerente general de sistemas DGX de NVIDIA.