Nuevos resultados de MLCommons destacan los impresionantes avances competitivos en IA para Intel

Habana Gaudi2 y los procesadores escalables Intel Xeon de 4ta generación ofrecen un rendimiento líder y ahorros de costos óptimos para el entrenamiento de IA.




MLCommons ha publicado los impresionantes resultados de su análisis de rendimiento de IA de la industria, MLPerf Training 3.0, destacando el éxito del acelerador de deep learning, Habana Gaudi2, y el procesador escalable Intel Xeon de 4ª generación en tareas de entrenamiento.

Los resultados de MLPerf validan el valor de TCO (Coste Total de Propiedad) que los procesadores Intel Xeon y los aceleradores de aprendizaje profundo Intel Gaudi ofrecen a los clientes en el campo de la inteligencia artificial. La integración de los aceleradores Gaudi en Xeon los convierte en una solución ideal para ejecutar cargas de trabajo de IA a gran escala utilizando procesadores de propósito general. Por otro lado, el acelerador Gaudi ofrece un rendimiento competitivo, especialmente en modelos de lenguaje grandes y aplicaciones de IA generativa. Los sistemas escalables de Intel, junto con su software abierto optimizado y fácil de programar, eliminan barreras para que los clientes y socios implementen una amplia gama de soluciones basadas en IA, desde la nube hasta el Edge.

El programa MLPerf Training 3.0 ha destacado el rendimiento de los productos de Intel en una variedad de modelos de aprendizaje profundo. Gaudi2 demostró su madurez y eficiencia en un modelo de lenguaje grande, GPT-3, que tiene 175 mil millones de parámetros. Los resultados mostraron un increíble tiempo de entrenamiento en GPT-3 de 311 minutos utilizando 384 aceleradores, con una escalabilidad casi lineal del 95% al agregar de 256 a 384 aceleradores. Además, Gaudi2 también tuvo excelentes resultados en modelos de visión por computadora y procesamiento de lenguaje natural, como ResNet-50 y BERT.

En cuanto a los procesadores Xeon de 4ª generación, los resultados de MLPerf demostraron que ofrecen capacidades listas para usar para implementar IA en sistemas de propósito general, evitando los costos y la complejidad de introducir sistemas dedicados de IA. Los resultados mostraron que los Xeon pudieron entrenar modelos como UU y ResNet-50 en menos de 50 y 90 minutos, respectivamente. Además, con el modelo BERT, Xeon pudo entrenar el modelo en aproximadamente 30 minutos al escalar a 16 nodos. Para el modelo más grande de RetinaNet, Xeon logró un tiempo de entrenamiento de 232 minutos en 16 nodos, brindando flexibilidad a los clientes para utilizar los ciclos de Xeon fuera de las horas pico.

Estos resultados demuestran que el portafolio de soluciones de Intel para IA ofrece opciones competitivas y convincentes para los clientes, incluso en comparación con las GPUs de Nvidia. Además, Intel sigue madurando el software de Gaudi2, lo que se espera que traiga mejoras significativas en el rendimiento en el futuro.

Los resultados de MLPerf han sido una prueba confiable para evaluar el rendimiento de la IA y permiten una comparación justa y repetible entre diferentes soluciones. Intel ha demostrado su liderazgo en este ámbito, superando las 100 presentaciones y siendo el único proveedor que ha presentado resultados públicos de CPU con software del ecosistema estándar de deep learning de la industria. Además, los resultados también resaltan la eficiencia de escalado que se puede lograr utilizando adaptadores de red Intel Ethernet 800 Series con software Intel Ethernet Fabric Suite de código abierto basado en Intel oneAPI.

Publicar un comentario

 
Copyright © No Soy Gamer. Gracias a OddThemes | Blogger