Investigadores de UC Berkeley presentan Gorilla un modelo basado en LLaMA afinado que supera a GPT-4 en la escritura de llamadas a la API.

Investigadores de UC Berkeley presentan Gorilla, un modelo basado en LLaMA que supera a GPT-4 en llamadas a la API.

Un avance reciente en el campo de la Inteligencia Artificial es la introducción de los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés). Estos modelos nos permiten entender el lenguaje de manera más concisa y, por lo tanto, hacer el mejor uso del Procesamiento del Lenguaje Natural (NLP) y la Comprensión del Lenguaje Natural (NLU). Estos modelos funcionan bien en todas las tareas, incluyendo la resumen de texto, la respuesta a preguntas, la generación de contenido, la traducción de lenguaje, entre otras. Entienden oraciones complejas, incluso textos con razonamiento y lógica, e identifican patrones y relaciones entre los datos.

Aunque los modelos de lenguaje han mostrado un rendimiento increíble y se han desarrollado significativamente en tiempos recientes al demostrar su competencia en una variedad de tareas, aún les resulta difícil utilizar herramientas a través de llamadas a API de manera eficiente. Incluso los famosos LLMs como GPT-4 tienen dificultades para generar argumentos de entrada precisos y frecuentemente recomiendan llamadas a API inapropiadas. Para abordar este problema, investigadores de Berkeley y Microsoft Research han propuesto Gorilla, un modelo basado en LLaMA afinado, que supera a GPT-4 en términos de producción de llamadas a API. Gorilla ayuda a elegir la API adecuada, mejorando la capacidad de los LLMs para trabajar con herramientas externas y llevar a cabo actividades específicas.

El equipo de investigadores también ha creado un conjunto de datos APIBench, que está compuesto por un corpus considerable de APIs con funcionalidad superpuesta. El conjunto de datos se ha creado recopilando hubs de modelos públicos como TorchHub, TensorHub y HuggingFace para sus APIs de ML. Se incluye cada solicitud de API de TorchHub y TensorHub para cada API, y se eligen los 20 mejores modelos de HuggingFace para cada categoría de tarea. Además, se generan diez consultas de usuario ficticias para cada API utilizando el método de autoinstrucción.

Utilizando este conjunto de datos APIBench y la recuperación de documentos, los investigadores han afinado Gorilla. Gorilla, el modelo de 7 mil millones de parámetros, supera a GPT-4 en términos de la corrección del funcionamiento de la API y reduce los errores de alucinación. La integración efectiva del recuperador de documentos con Gorilla demuestra la posibilidad de que los LLMs utilicen herramientas de manera más precisa. Las capacidades mejoradas de generación de llamadas a API de Gorilla y su capacidad para modificar la documentación según sea necesario mejoran la aplicabilidad y confiabilidad de los resultados del modelo. Este avance es importante porque permite que los LLMs se mantengan al día con la documentación actualizada regularmente, brindando a los usuarios información más precisa y actual.

Uno de los ejemplos compartidos por los investigadores muestra cómo Gorilla reconoce correctamente las tareas y ofrece resultados de API completamente calificados. Las llamadas a API generadas por los modelos mostraron que GPT-4 produce solicitudes de API para modelos hipotéticos, lo que demuestra una falta de comprensión de la tarea. Claude eligió la biblioteca incorrecta, mostrando una falta de capacidad para reconocer los recursos correctos. Gorilla, en cambio, reconoció correctamente la tarea. Gorilla se diferencia así de GPT-4 y Claude, ya que la creación de llamadas a API es precisa, demostrando tanto su rendimiento mejorado como su comprensión de la tarea.

En conclusión, Gorilla es una adición importante a la lista de modelos de lenguaje, ya que incluso aborda el problema de escribir llamadas a API. Sus capacidades permiten reducir los problemas relacionados con la alucinación y la confiabilidad.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Noticias de Inteligencia Artificial

AI Ahora en el Aire Conoce a Ashley, el Primer Bot de DJ del Mundo.

Live 95.5, una popular estación de radio con sede en Portland, Oregón, ha dado un paso audaz hacia el futuro al prese...

Ciencia de Datos

Incorpore SageMaker Autopilot en sus procesos de MLOps usando un Proyecto personalizado de SageMaker.

Cada organización tiene su propio conjunto de estándares y prácticas que proporcionan seguridad y gobernanza para su ...

Inteligencia Artificial

Ajuste fino rápido y rentable de LLaMA 2 con AWS Trainium

Los grandes modelos de lenguaje (LLMs) han capturado la imaginación y la atención de desarrolladores, científicos, te...

Inteligencia Artificial

La historia interna de la colaboración de Microsoft con OpenAI

Las empresas habían perfeccionado un protocolo para lanzar inteligencia artificial de manera ambiciosa pero segura. L...