Habana Labs y Hugging Face se asocian para acelerar el entrenamiento de modelos Transformer

'Habana Labs y Hugging Face se unen para acelerar el entrenamiento de modelos Transformer.'

Santa Clara y San Francisco, CA, 12 de abril de 2022

Impulsados por el aprendizaje profundo, los modelos de transformador ofrecen un rendimiento de vanguardia en una amplia gama de tareas de aprendizaje automático, como el procesamiento del lenguaje natural, la visión por computadora, el habla y más. Sin embargo, entrenarlos a gran escala a menudo requiere una gran cantidad de potencia informática, lo que hace que todo el proceso sea innecesariamente largo, complejo y costoso.

Hoy, Habana® Labs, pionero en procesadores de aprendizaje profundo de alta eficiencia y propósito específico, y Hugging Face, el hogar de los modelos de Transformer, se complacen en anunciar que unen fuerzas para facilitar y acelerar el entrenamiento de modelos de transformador de alta calidad. Gracias a la integración del conjunto de software SynapseAI de Habana con la biblioteca de código abierto Optimum de Hugging Face, los científicos de datos e ingenieros de aprendizaje automático ahora pueden acelerar sus trabajos de entrenamiento de Transformer en procesadores Habana con solo unas pocas líneas de código y disfrutar de una mayor productividad y un menor costo de entrenamiento.

Las soluciones de entrenamiento de Habana Gaudi, que alimentan las instancias EC2 DL1 de Amazon y el servidor de entrenamiento de IA X12 Gaudi de Supermicro, ofrecen una relación precio/rendimiento hasta un 40% más baja que las soluciones de entrenamiento comparables y permiten a los clientes entrenar más gastando menos. La integración de diez puertos Ethernet de 100 Gigabits en cada procesador Gaudi permite la escalabilidad del sistema desde 1 hasta miles de Gaudi de manera fácil y rentable. SynapseAI® de Habana está optimizado, desde su inicio, para permitir el rendimiento y la facilidad de uso de Gaudi, admite los marcos de trabajo TensorFlow y PyTorch, con un enfoque en aplicaciones de visión por computadora y procesamiento del lenguaje natural.

Con más de 60.000 estrellas en Github, más de 30.000 modelos y millones de visitas mensuales, Hugging Face es uno de los proyectos de código abierto de crecimiento más rápido en la historia del software y el lugar de referencia para la comunidad de aprendizaje automático.

Con su Programa de Socios de Hardware, Hugging Face proporciona el hardware avanzado de aprendizaje profundo de Gaudi con el conjunto de herramientas definitivo de Transformer. Esta colaboración permitirá una rápida expansión de la biblioteca de modelos de transformador de entrenamiento de Habana Gaudi, brindando eficiencia y facilidad de uso de Gaudi a una amplia variedad de casos de uso de clientes como procesamiento del lenguaje natural, visión por computadora, habla y más.

“Estamos emocionados de asociarnos con Hugging Face y sus numerosos desarrolladores de código abierto para satisfacer la creciente demanda de modelos de transformador que se benefician de la eficiencia, usabilidad y escalabilidad de la plataforma de entrenamiento Gaudi”, dijo Sree Ganesan, jefe de gestión de productos de software de Habana Labs.

“Habana Gaudi aporta un nuevo nivel de eficiencia al entrenamiento de modelos de aprendizaje profundo y estamos muy emocionados de facilitar este rendimiento a los usuarios de Transformer con cambios mínimos en el código a través de Optimum”, dijo Jeff Boudier, director de producto de Hugging Face.

Para obtener información sobre cómo comenzar a entrenar con Habana Gaudi, visite https://developer.habana.ai .

Para obtener más información sobre la colaboración entre Hugging Face y Habana Gaudi, visite https://huggingface.co/Habana .

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Ciencias de la Computación

Esperanza, Miedo y AI

Encuestamos a 2,000 personas sobre cómo utilizan la IA, qué quieren que haga y qué les asusta más de ella.

Noticias de Inteligencia Artificial

BIOTRONIK presenta implantes de monitores cardíacos con inteligencia artificial.

BIOTRONIK, un líder reconocido en tecnología de dispositivos médicos implantables, ha implementado con éxito su revol...

Inteligencia Artificial

Train y despliega modelos de ML en un entorno multicloud utilizando Amazon SageMaker

En esta publicación, demostramos una de las muchas opciones que tienes para aprovechar las capacidades de IA/ML más a...

Inteligencia Artificial

Comprendiendo el concepto de GPT-4V(ision) La nueva tendencia de la inteligencia artificial

OpenAI ha estado a la vanguardia de los últimos avances en IA, con modelos altamente competentes como GPT y DALLE. Cu...