
Qualcomm lleva a la nube el procesamiento de inferencia de IA de eficiencia energética
Según la compañía, para satisfacer la demanda de procesamiento de inferencia de AI en la nube presenta la solución Cloud AI 100, la cual ofrece procesamiento avanzado de señales y eficiencia energética.
Con esta introducción, el fabricante dijo facilitar la inteligencia distribuida desde la nube hasta el borde del cliente y todos los puntos intermedios.
Keith Kressin, vicepresidente senior de gestión de productos de Qualcomm Technologies, comentó que el acelerador Cloud AI 100 elevará el estándar para el procesamiento de inferencia de inteligencia artificial en relación con cualquier combinación de CPU, GPU y / o FPGA utilizados en los centros de datos de hoy.
Las aplicaciones
A decir de la compañía, facilitar el desarrollo del ecosistema en este modelo de IA distribuida, ayudará a mejorar una gran cantidad de experiencias para el usuario final, incluidos asistentes personales para el procesamiento y traducción del lenguaje natural, búsqueda avanzada de imágenes, contenido y recomendaciones personalizadas.
El Cloud AI 100 ofrece:
–Más de 10 veces el rendimiento por vatio sobre las soluciones de inferencia de inteligencia artificial más avanzadas de la industria implementadas hoy.
-Un chip nuevo y eficiente para procesar cargas de trabajo de inferencia AI.
–Nodo de proceso de 7 nm que ofrece mayores ventajas de rendimiento y potencia.
–Soporte disponible para las pilas de software como PyTorch, Glow, TensorFlow, Keras y ONNX.
Se espera que el Cloud AI 100 comience a muestrear a los clientes en 2H 2019, indicó el fabricante.