Red Hat y Nvidia se alinean para crear soluciones de código abierto

Compartir nota

La colaboración entre ambas compañías tiene la finalidad de llevar soluciones en torno a cargas de trabajo emergentes como la Inteligencia Artificial (IA), el deep learning y la data science a los centros de procesamiento de datos empresariales de todo el mundo, informó Red Hat mediante un comunicado.

Agregó que la certificación de su plataforma Enterprise Linux en los sistemas Nvidia DGX-1 es lo que impulsa este esfuerzo, ya que  brinda una base para el resto del portafolio de la marca, incluida la OpenShift Container Platform, para ser implementada y dar soporte de forma conjunta en las supercomputadoras de inteligencia artificial de Nvidia.

A medida que los sistemas DGX-1 acceden al centro de datos para proporcionar plataformas potentes de IA, los equipos de TI querrán gestionar y mantener con frecuencia estos sistemas dentro de sus operaciones establecidas, que a menudo se basan en Enterprise Linux. La posibilidad de utilizar Enterprise Linux en el hardware DGX-1 no solo proporciona un plano de control conocido y un entorno de usuario seguro con SELinux para que los equipos de TI se integren en sus flujos de trabajo establecidos, sino que también puede servir como un catalizador para impulsar una mayor innovación con la IA y el deep learning.

Empresas de varias industrias, incluyendo las del sector público, petróleo y gas, servicios financieros, entre otras, ahora pueden integrar de forma más efectiva la arquitectura de Nvidia en entornos de infraestructuras establecidos, con Enterprise Linux actuando como “puente” común. Para conseguir una mayor flexibilidad en los entornos empresariales, los clientes de  Enterprise Linux podrán usar sus suscripciones existentes en los sistemas DGX-1, respaldados por ambas empresas.

Además, las organizaciones que usan Enterprise Linux en los sistemas DGX- también tendrán una base para la oferta más completa de Kubernetes para empresas en la plataforma de contenedores OpenShift, ampliando así el soporte de nube nativa para cargas de trabajo emergentes.

Los ISV pueden transferir las aplicaciones existentes certificadas por Enterprise Linux a la nueva clase de sistemas de Nvidia con muy pocos cambios, lo que facilita el acceso a las funciones avanzadas de IA y de deep learning para soportar cargas de trabajo más inteligentes.

En el entorno de cómputo de alto rendimiento, las dos compañías ofrecen tecnologías y experiencia para impulsar las supercomputadoras Summit y Sierra. Red Hat mencionó haber ayudado a poner en línea estos dos sistemas, proporcionando un modelo no solo para el cómputo de alto rendimiento (HPC, por sus siglas en inglés) de última generación en entornos sensibles al rendimiento, sino también para el centro de datos empresarial del futuro.

Otras colaboraciones en iniciativas de código abierto

–Contenedores Nvidia GPU Cloud (NGC) en OpenShift. Al respecto se mencionó el plan de lanzar contenedores NGC que proporcionen a los usuarios herramientas de software para GPU, AI y HPC basadas en las tecnologías de Red Hat, permitiendo a los clientes comunes sacar el máximo provecho al GPU.

–Gestión de la memoria heterogénea (HMM, por sus siglas en inglés). El plan es continuar con el desarrollo de la función de la gestión de la memoria heterogénea (HMM). Esta característica de kernel permite a los dispositivos acceder y reflejar el contenido de la memoria de un sistema por su propia cuenta, lo que permite mejoras en el rendimiento de las aplicaciones que utilizan GPUs.

contactame@esemanal.mx

También te puede interesar:
Red Hat 25 años de innovación y desarrollo
Los contenedores son una prioridad para Red Hat
GeForce RTX, el avance más grande en la historia de las GPU para juegos: Nvidia
Por qué la nube híbrida es la respuesta a las necesidades de las empresas
Compartir nota