Una nueva investigación de IA explica cómo el Aprendizaje de Instrucción en Contexto (ICIL) mejora el rendimiento de generalización de tareas sin entrenamiento para modelos preentrenados y modelos ajustados mediante instrucciones.

La investigación de IA muestra cómo el ICIL mejora el rendimiento de modelos preentrenados y ajustados sin entrenamiento.

Los Modelos de Lenguaje Grandes (LLMs) han demostrado que pueden adaptarse a tareas específicas durante la inferencia mediante un proceso conocido como demostraciones de pocos ejemplos, a veces conocido como aprendizaje en contexto. Esta capacidad se ha vuelto cada vez más evidente a medida que aumentan los tamaños de los modelos, con los LLMs mostrando características emergentes. Un talento emergente es la capacidad de generalizar a tareas desconocidas siguiendo instrucciones. La afinación de instrucciones, o RLHF, es uno de los enfoques de aprendizaje de instrucciones sugeridos para mejorar esta capacidad. Sin embargo, la investigación previa se centró principalmente en técnicas de aprendizaje de instrucciones basadas en el ajuste fino. El modelo se ajusta fino para múltiples tareas con instrucciones, lo que requiere muchos procedimientos de retropropagación.

Un grupo de investigadores de KAIST y LG Research muestra que el Aprendizaje de Instrucciones en Contexto (ICIL), que implica aprender a seguir instrucciones durante la inferencia a través del aprendizaje en contexto, es ventajoso tanto para los modelos preentrenados que están disponibles como para los modelos que se han ajustado específicamente para seguir instrucciones, como se muestra en la Figura 1. La indicación utilizada por ICIL incluye muchos ejemplos de tareas cruzadas, cada uno de los cuales es una instancia de la educación, la entrada y la salida de una tarea. Dado que excluyen por completo las funciones utilizadas para las demostraciones del conjunto de evaluación y porque emplean el mismo conjunto de indicaciones para todas las tareas de evaluación, tratándolas como una única indicación fija, como se ilustra en la Figura 2, ICIL es un enfoque de aprendizaje sin uso de ejemplos.

Figura 1: Utilizando el benchmark SUPERNI, se muestra el rendimiento promedio de 119 trabajos de evaluación. Tanto los LLMs preentrenados como los ajustados fino a las instrucciones pueden beneficiarse de ICIL. Se proporcionan barras de error de desviación estándar y la puntuación promedio de tres semillas aleatorias para varios conjuntos de ejemplos para ICIL.

Crean un conjunto de ejemplos fijo utilizando un método de muestreo basado en heurísticas simple que funciona bien para varias tareas y tamaños de modelos posteriores. Pueden evaluar y duplicar el rendimiento de línea de base sin uso de ejemplos para nuevas tareas objetivo o modelos sin depender de herramientas externas mediante la preposición del mismo conjunto de demostraciones fijas para todos los trabajos. La Figura 1 muestra que ICIL mejora considerablemente el rendimiento de generalización en el desafío sin uso de ejemplos de varios LLMs preentrenados que no se ajustan fino para obedecer instrucciones.

Figura 2: Esquema de Enseñanza de Aprendizaje Contextual (ICIL). Para evaluar LLMs preentrenados y ajustados fino a las instrucciones para todas las tareas, se construye un conjunto predefinido de demostraciones formado por instancias de instrucción, entrada y salida. Se garantiza un escenario de generalización sin uso de ejemplos asegurando que las tareas incluidas en las demostraciones y las tareas evaluadas se mantengan rigurosamente excluidas.

Sus datos demuestran que la selección de tareas de clasificación que presentan opciones de respuesta claras en la instrucción es lo que hace que ICIL tenga éxito. Es importante destacar que incluso LLMs más pequeños con ICIL funcionan mejor que modelos de lenguaje más grandes sin ICIL. Por ejemplo, el ICIL GPT-J de tamaño 6B supera al GPT-3 Davinci de tamaño 175B sin uso de ejemplos estándar en un 30%. En segundo lugar, demuestran cómo agregar ICIL a los LLMs ajustados fino a las instrucciones mejora su capacidad para seguir instrucciones sin uso de ejemplos, especialmente para modelos con más de 100B de elementos. Esto sugiere que el impacto de ICIL se suma al impacto de la modificación de las instrucciones.

Esto es cierto incluso para tareas de generación objetivo, a diferencia de investigaciones anteriores que sugieren que el aprendizaje en contexto de pocos ejemplos requiere recuperar ejemplos similares a la tarea objetivo. Aún más sorprendente, encuentran que el rendimiento no se ve afectado de manera notable cuando se sustituyen frases aleatorias por la distribución de instancias de entrada de cada ejemplo. Basándose en este enfoque, proponen que los LLMs, en lugar de depender de la complicada conexión entre la instrucción, la entrada y la salida, aprendan la correspondencia entre la opción de respuesta proporcionada en la instrucción y la producción de cada demostración durante la inferencia. El propósito de ICIL, según esta teoría, es ayudar a los LLMs a centrarse en la instrucción objetivo para descubrir las señales de la distribución de respuestas de la tarea objetivo.

Échale un vistazo al Paper y a Github. Todo el crédito de esta investigación va para los investigadores de este proyecto. Además, no te olvides de unirte a nuestro SubReddit de ML de más de 15k de miembros, canal de Discord y boletín de correo electrónico, donde compartimos las últimas noticias de investigación en IA, proyectos interesantes de IA y más.

La publicación Una nueva investigación en IA explica cómo el Aprendizaje de Instrucción en Contexto (ICIL) mejora el rendimiento de generalización de tareas de cero disparo tanto para modelos preentrenados como para modelos afinados por instrucción, apareció primero en MarkTechPost.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Investigadores demuestran pagos digitales cuánticos 'incondicionalmente seguros

La investigación representa un posible avance en las comunicaciones cuánticas y, potencialmente, el comienzo de la er...

Inteligencia Artificial

Los científicos de la computación utilizan la IA para identificar aplicaciones riesgosas

Brian Levine de la Universidad de Massachusetts Amherst y una docena de científicos informáticos han desarrollado un ...

Inteligencia Artificial

AlphaFold, Herramientas similares podrían ayudar en la preparación para la próxima pandemia

Los investigadores cada vez más están utilizando la inteligencia artificial para ayudar a prepararse para futuras pan...

Inteligencia Artificial

El nuevo modelo de IA de Phind supera a GPT-4 en codificación, con una velocidad similar a la de GPT-3.5 y un contexto de 16k.

En la codificación y resolución de problemas técnicos, un desafío ha sido el equilibrio entre la velocidad y la preci...

Inteligencia Artificial

¿Y si pudiéramos explicar fácilmente modelos excesivamente complejos?

Este artículo se basa en el siguiente artículo https//www.sciencedirect.com/science/article/abs/pii/S0377221723006598...