Las GPUs NVIDIA H100 ahora están disponibles en la nube de AWS

GPUs NVIDIA H100 ya disponibles en la nube de AWS

Los usuarios de AWS ahora pueden acceder al rendimiento líder demostrado en los benchmarks de la industria del entrenamiento e inferencia de IA.

El gigante de la nube ha activado oficialmente una nueva instancia Amazon EC2 P5 impulsada por las GPU NVIDIA H100 Tensor Core. El servicio permite a los usuarios escalar aplicaciones de IA generativa, computación de alto rendimiento (HPC) y otras aplicaciones con un solo clic desde un navegador.

La noticia llega después del momento del iPhone de la IA. Los desarrolladores e investigadores están utilizando modelos de lenguaje grandes (LLMs) para descubrir nuevas aplicaciones para la IA casi a diario. Para llevar estos nuevos casos de uso al mercado se requiere la eficiencia del cómputo acelerado.

La GPU NVIDIA H100 ofrece un rendimiento de clase supercomputadora a través de innovaciones arquitectónicas que incluyen los Tensor Cores de cuarta generación, un nuevo motor Transformer para acelerar LLMs y la última tecnología NVLink que permite a las GPUs comunicarse entre sí a 900GB/s.

Escalar con instancias P5

Las instancias Amazon EC2 P5 son ideales para el entrenamiento y ejecución de inferencia de modelos de LLMs y de visión por computadora cada vez más complejos. Estas redes neuronales impulsan las aplicaciones generativas de IA más exigentes y que requieren una gran cantidad de cómputo, incluyendo la respuesta a preguntas, la generación de código, la generación de video e imagen, el reconocimiento de voz y más.

Las instancias P5 se pueden implementar en clústeres de hiperescala, llamados EC2 UltraClusters, compuestos por computación de alto rendimiento, redes y almacenamiento en la nube. Cada EC2 UltraCluster es un supercomputador potente que permite a los clientes ejecutar sus cargas de trabajo de entrenamiento de IA más complejas y distribuidas de HPC en múltiples sistemas.

Para que los clientes puedan ejecutar aplicaciones a gran escala que requieren altos niveles de comunicación entre nodos de cómputo, la instancia P5 cuenta con redes no bloqueantes a escala de petabit, impulsadas por AWS EFA, una interfaz de red de 3,200 Gbps para instancias de Amazon EC2.

Con las instancias P5, las aplicaciones de aprendizaje automático pueden utilizar la Biblioteca de Comunicaciones Colectivas de NVIDIA para aprovechar hasta 20,000 GPU H100.

NVIDIA AI Enterprise ayuda a los usuarios a aprovechar al máximo las instancias P5. Es un conjunto completo de software que incluye más de 100 frameworks, modelos preentrenados, flujos de trabajo de IA y herramientas para ajustar la infraestructura de IA.

Diseñado para agilizar el desarrollo y la implementación de aplicaciones de IA, NVIDIA AI Enterprise aborda las complejidades de construir y mantener una plataforma de software de IA nativa de la nube de alto rendimiento y segura. Disponible en el AWS Marketplace, ofrece monitoreo continuo de seguridad, parches regulares y oportunos de vulnerabilidades comunes, estabilidad de API y soporte empresarial, así como acceso a expertos en IA de NVIDIA.

Lo que dicen los clientes

NVIDIA y AWS han colaborado durante más de una docena de años para llevar la aceleración de GPU a la nube. Las nuevas instancias P5, el último ejemplo de esa colaboración, representan un gran avance para ofrecer el rendimiento de vanguardia que permite a los desarrolladores inventar la próxima generación de IA.

Aquí hay algunos ejemplos de lo que los clientes ya están diciendo:

Anthropic construye sistemas de IA confiables, interpretables y direccionables que tendrán muchas oportunidades de crear valor comercial y para el beneficio público.

“Si bien los sistemas de IA grandes y generales de hoy pueden tener beneficios significativos, también pueden ser impredecibles, poco confiables y opacos, por lo que nuestro objetivo es avanzar en estos problemas e implementar sistemas que las personas encuentren útiles”, dijo Tom Brown, co-fundador de Anthropic. “Esperamos que las instancias P5 ofrezcan beneficios sustanciales en cuanto a precio-rendimiento en comparación con las instancias P4d, y estarán disponibles a la escala masiva requerida para construir LLMs de próxima generación y productos relacionados”.

Cohere, un pionero líder en IA del lenguaje, capacita a cada desarrollador y empresa para construir productos con tecnología de procesamiento de lenguaje natural (NLP) líder en el mundo mientras mantiene sus datos privados y seguros.

“Cohere lidera el avance en ayudar a cada empresa a aprovechar el poder de la IA del lenguaje para explorar, generar, buscar y actuar sobre información de manera natural e intuitiva, implementándola en múltiples plataformas en la nube en el entorno de datos que funcione mejor para cada cliente”, dijo Aidan Gomez, CEO de Cohere. “Las instancias Amazon EC2 P5 impulsadas por NVIDIA H100 liberarán la capacidad de las empresas para crear, crecer y escalar más rápido con su potencia de cómputo combinada con las capacidades de LLM y generación de AI de vanguardia de Cohere”.

Por su parte, Hugging Face tiene como misión democratizar el buen aprendizaje automático.

“Como la comunidad de código abierto de más rápido crecimiento en el aprendizaje automático, ahora proporcionamos más de 150,000 modelos preentrenados y 25,000 conjuntos de datos en nuestra plataforma para NLP, visión por computadora, biología, aprendizaje por refuerzo y más”, dijo Julien Chaumond, director de tecnología y co-fundador de Hugging Face. “Estamos deseando utilizar las instancias Amazon EC2 P5 a través de Amazon SageMaker a escala en UltraClusters con EFA para acelerar la entrega de nuevos modelos de IA fundamentales para todos”.

Hoy en día, más de 450 millones de personas en todo el mundo utilizan Pinterest como una plataforma de inspiración visual para comprar productos personalizados a su gusto, encontrar ideas y descubrir creadores inspiradores.

“Utilizamos el aprendizaje profundo de manera extensiva en nuestra plataforma para casos de uso como etiquetar y categorizar miles de millones de fotos que se cargan en nuestra plataforma, y la búsqueda visual que proporciona a nuestros usuarios la capacidad de pasar de la inspiración a la acción”, dijo David Chaiken, arquitecto jefe en Pinterest. “Estamos deseando utilizar las instancias P5 de Amazon EC2 con GPU NVIDIA H100, AWS EFA y UltraClusters para acelerar nuestro desarrollo de productos y ofrecer nuevas experiencias basadas en IA empática a nuestros clientes.”

Aprende más sobre las nuevas instancias P5 de AWS alimentadas por NVIDIA H100.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Jugando ¿Dónde está Wally? en 3D OpenMask3D es un modelo de IA que puede segmentar instancias en 3D con consultas de vocabulario abierto.

La segmentación de imágenes ha avanzado mucho en la última década, gracias al avance de las redes neuronales. Ahora e...