Este boletín de inteligencia artificial es todo lo que necesitas #60

Boletín de inteligencia artificial #60, todo lo que necesitas

Lo que sucedió esta semana en IA por Louie

A medida que la carrera de IA se ha acelerado este año, la capacidad de entrenamiento e inferencia de chips de IA se ha convertido en recursos vitales, y hemos observado varios avances en las últimas semanas. Tanto las grandes empresas tecnológicas como las startups más jóvenes de IA se han estado apresurando para obtener acceso a entregas de Nvidia H100s, y estamos emocionados de ver la aparición de la próxima generación de modelos impulsados por estos chips después de que la producción se haya incrementado este verano. Muchas startups de IA han estado recaudando grandes inversiones para financiar principalmente la capacidad de entrenamiento de chips de IA, lo que también ha llevado a interesantes nuevas vías de financiamiento, como lo demuestra el reciente aumento de $2.3 mil millones de CoreWeave en deuda, respaldada por sus valiosos activos de chips de Nvidia.

Nvidia lanzó recientemente la nueva plataforma de superchip GH200 Grace Hopper, con 144GB de memoria, y al mismo tiempo está haciendo la transición de las CPUs de Intel a su CPU propietaria Grace. Se espera que el nuevo sistema esté disponible en el segundo trimestre de 2024. Mientras Nvidia acelera la producción de los chips H100 y avanza con nuevas plataformas, también esperamos que Google esté progresando en su próxima generación de TPU, v5, y estamos ansiosos por recibir actualizaciones aquí. Google/Deepmind han estado aumentando la expectativa sobre el progreso del modelo LLM de próxima generación “Gemini”, pero aún no está claro si esto se entrenará utilizando TPU v4, v5 o H100s.

Junto con los avances en las grandes empresas tecnológicas, también estamos presenciando un aumento de noticias en las startups de chips de IA, como lo demuestra la reciente recaudación de $100 millones liderada por Jim Keller en Tenstorrent. Esta semana también se lanzó una nueva startup de un equipo que anteriormente fue responsable de los chips TPU de Google y el modelo Palm. El proyecto se llama MatX, con la misión de “mejorar, acelerar y abaratar la IA mediante la construcción de hardware más potente”. MatX se centra exclusivamente en hardware para LLMs. Esperamos que la competencia en chips de IA sea muy fuerte y será difícil mantenerse al día con los líderes actuales, pero hay una gran oportunidad para la innovación en hardware y para que nuevas tecnologías e ideas sigan permitiendo el progreso en IA.

– Louie Peters – Co-fundador y CEO de Towards AI

Noticias más destacadas

  1. Actualización del segundo trimestre de Big Tech X Generative AI

En las llamadas de ganancias del segundo trimestre, las prominentes empresas tecnológicas destacaron su progreso en Generative AI. Amazon enfatizó sus esfuerzos en el entrenamiento e inferencia de Grandes Modelos de Lenguaje (LLMs), mientras que Microsoft mostró la integración de IA en todos sus…

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Noticias de Inteligencia Artificial

Los doctores están utilizando chatbots de una manera inesperada.

A pesar de las desventajas de recurrir a la inteligencia artificial en medicina, algunos médicos encuentran que ChatG...

Inteligencia Artificial

MPT-30B MosaicML supera a GPT-3 con un nuevo LLM para empujar los límites del PLN

Aprenda sobre el avance revolucionario de MosaicML en LLM con la serie MPT. Explore cómo MPT-30B y sus variantes afin...

Inteligencia Artificial

El Cuadro de Búsqueda de Google Cambió el Significado de la Información

La búsqueda en la web prometía resolver preguntas. En cambio, trajo consigo un apocalipsis suave de la verdad.

Inteligencia Artificial

Una nueva investigación de aprendizaje profundo identifica un medicamento antipalúdico como posible tratamiento para la osteoporosis

El problema de la osteoporosis, una condición caracterizada por una pérdida excesiva de hueso y un alto riesgo de fra...