DestacadosFabricantesPortada

Nvidia aprovecha los datos en favor de las empresas con Megatron 530B

•Modulus podría predecir el clima a través de inteligencia artificial

Durante el evento del Nvidia GTC-21-Fall, la marca anunció que pondrá a disposición de las empresas el Megatron 530B, uno de los modelos de idiomas más grandes en el mundo, con la intención de que cuente con más idiomas, dominios y así proporcionar a las empresas capacidades para explotar sus datos y planificación comercial.

Anunciante

El discurso de apertura que corrió a cargo del CEO de Nvidia, Jensen Huang,  se centró en hablar de Megatron y Modulus AI, esta última que ayuda a los científicos, investigadores e ingenieros  con diversas herramientas personalizables para construir modelos de redes neuronales. 

Los anuncios que se destacaron durante el evento, si bien aún no están pensados para pequeñas o medianas empresa (PyMEs) o canales, sí es un paso en la dirección correcta, ya que eventualmente podrán beneficiarse de las tecnologías e incluso personalizar soluciones que cumplan sus necesidades.

Megatron 530B

Basado en LLM (Large Language Models), el Megatron podrá ser usado por empresas para entrenar modelos de lenguaje con miles de millones de parámetros y les ayudará en la construcción de chatbots específicos, asistentes personales y otras aplicaciones de inteligencia artificial, todo ello con la intención de comprender mejor el leguaje humano con niveles de mayor sensibilidad, sutiliza, contexto y matices, al respecto Jensen Huang, dijo: “Al utilizar los sistemas Nvidia DGX, los modelos tienen como objetivo proporcionar a las empresas capacidades de nivel empresarial, listas para la producción, para simplificar el desarrollo y la implementación de LLM. El modelo de Megatron se basa en el trabajo de Nvidia con el proyecto Megatron de código abierto, que está dirigido por investigadores de Nvidia que estudian el entrenamiento de grandes modelos de lenguaje transformador a escala. Megatron 530B es el modelo de lenguaje personalizable más grande del mundo”.

“El reciente avance de los modelos de lenguaje grande es uno de los más grandes logros de la informática. Se está realizando un trabajo emocionante en el aprendizaje multimodal auto supervisado y en modelos que puedan realizar tareas en las que nunca se les entrenó”: Jensen Huang.

Inteligencia Artificial Modulus

Después de dedicarle un tiempo considerable del discurso inaugural al Megatron, Jensen se enfocó en hablar sobre la inteligencia artificial Modulus, la cual está enfocada a tareas de construcción de modelos de redes neuronales para ser utilizados para tareas comerciales y de desarrollo, aunque su aplicación no se reduce a esto, sino que Modulus también puede utilizarse en ingeniería de proteínas, para la ciencia del clima y más.

“Modulus ha sido optimizado para entrenar en [sistemas] multi-GPU y multi-nodo; el modelo resultante puede emular la física entre mil y 100 mil veces más rápido que la simulación. Con Modulus, los científicos podrán crear gemelos digitales para comprender mejor los grandes sistemas, como nunca antes”: Jensen Huang.

El Modulus trabaja con API basadas en Python que toman ecuaciones diferenciales parciales simbólicas y construyen redes neuronales basadas en la física; también incluye un motor de física ML que utiliza PyTorch y TensorFlow para entrenar modelos, así como la biblioteca Nvidia CUDA Deep Neural Network (cuDNN) para aceleración de GPU y Nvidia Magnum IO para escalado de múltiples GPU y múltiples nodos. “Un área en la que podrían producirse avances importantes es en la ciencia del clima, a medida que el mundo continúa enfrentando el cambio climático. Los embalses más grandes de los EE. UU. se encuentran en sus niveles más bajos en dos décadas, unos 150 pies por debajo de donde estaban. La combinación de computación acelerada, física-ML y sistemas informáticos gigantes, puede darnos un salto de un millón de veces y darnos una oportunidad. Usaremos modelos de física basados ​​en principios y datos observados para enseñar a la IA a predecir el clima, en tiempo súper real. En última instancia, los investigadores podrían modelar la Tierra, creando un gemelo digital del planeta que se ejecute continuamente, para predecir el futuro, calibrando y mejorando sus predicciones con datos observados”: finalizó Jensen Huang, CEO de Nvidia.

Así bien, los nuevos desarrollos de Nvidia poseen características únicas y aunque no estén precisamente dirigidos para el canal, son tecnologías que con el tiempo se democratizarán y su uso extendido permitirá que los canales las adapten y comercialicen, lo cual es una ventaja, pues significa que la evolución tecnológica es muy dinámica y que, eventualmente ya no sólo se hablará de metaverso, sino que ya comienza a verse como una realidad.

Publicaciones relacionadas

Botón volver arriba
Share via
Copy link
Powered by Social Snap