Esta investigación de IA de UCLA indica que los grandes modelos de lenguaje (como GPT-3) han adquirido la capacidad emergente de encontrar soluciones sin guía para una amplia gama de problemas de analogía.

Investigación de IA de UCLA indica que modelos de lenguaje como GPT-3 pueden resolver problemas de analogía sin guía.

El razonamiento analógico sirve como piedra angular de la inteligencia y la inventiva humana. Cuando nos enfrentamos a un desafío desconocido, frecuentemente ideamos soluciones viables comparándolas metódicamente con un escenario más reconocible. Este enfoque desempeña un papel clave en cómo los seres humanos piensan en diversas actividades, desde resolver problemas cotidianos hasta fomentar conceptos creativos y empujar los límites del descubrimiento científico.

Con el avance en el aprendizaje profundo y los modelos de lenguaje grandes (LLMs, por sus siglas en inglés), los LLMs se someten a pruebas y estudios exhaustivos para el razonamiento analógico. Los modelos de lenguaje avanzados poseen la capacidad de razonar de forma independiente y reconocer patrones abstractos, sirviendo como principio fundamental de la inteligencia humana.

Un estudio realizado por un equipo de investigación de la UCLA ha arrojado luz sobre las verdaderas capacidades de los LLMs. Esta investigación ha ganado reconocimiento notable por sus descubrimientos impactantes. Estos hallazgos han sido presentados en la última edición de Nature Human Behavior, destacados en un artículo titulado “Emergent Analogical Reasoning in Advanced Language Models” (Razonamiento Analógico Emergente en Modelos de Lenguaje Avanzados). Este estudio ha demostrado que los modelos de lenguaje grandes (LLMs) pueden pensar como las personas y no imitar nuestro pensamiento basado en estadísticas.

El estudio involucró una evaluación directa entre razonadores humanos y un modelo de lenguaje sólido (text-davinci-003, una versión de GPT-3) en diversas tareas analógicas.

Los investigadores examinaron el modelo de lenguaje GPT-3 a través de varias tareas de analogía sin entrenamiento previo y realizaron una comparación directa con las respuestas humanas. Estas tareas involucraron un desafío de razonamiento matricial basado en texto, distinguiéndose por la estructura de reglas de las Matrices Progresivas Estándar de Raven (SPM). Además, también llevaron a cabo una tarea de analogía visual.

El punto de partida para el modelo fue una versión base entrenada en una amplia colección basada en la web de datos de lenguaje del mundo real, que suman más de 400 mil millones de tokens. Este proceso de entrenamiento estuvo guiado por un objetivo de predicción de siguiente token, donde el modelo aprendió a predecir el siguiente token más probable en una secuencia de texto dada.

Esta evaluación abarcó cuatro categorías distintas de tareas, cada una diseñada estratégicamente para explorar diversos aspectos del razonamiento analógico:

  1. Desafíos de razonamiento matricial basado en texto
  2. Analogías de cadenas de letras
  3. Analogías verbales de cuatro términos
  4. Analogías de historias

En estos dominios, compararon directamente el rendimiento del modelo con el de los humanos, analizando la efectividad general y los patrones de errores en una variedad de condiciones similares a cómo los humanos abordan el razonamiento analógico.

GPT-3 realmente impresionó con su capacidad para comprender patrones abstractos, a menudo desempeñándose tan bien o incluso mejor que los humanos en diversos escenarios. Las primeras pruebas de GPT-4 parecen mostrar resultados aún más prometedores. Según lo que se ha visto, los modelos de lenguaje grandes como GPT-3 tienen una habilidad innata para resolver una amplia gama de acertijos analógicos de manera espontánea.

Además, descubrieron que text-davinci-003 se destacó cuando se trataba de tareas de analogía. Curiosamente, las versiones anteriores del modelo también se defendieron en ciertos escenarios de tareas, lo que sugiere una combinación de factores que mejoran la habilidad de text-davinci-003 para el razonamiento analógico.

GPT-3 mostró habilidades impresionantes al manejar analogías de cadenas de letras, analogías verbales de cuatro términos y detectar analogías dentro de historias sin entrenamiento previo. Estos hallazgos contribuyen al conocimiento en expansión sobre lo que estos modelos de lenguaje avanzados pueden hacer, insinuando que los más avanzados ya tienen esta capacidad incorporada para razonar mediante analogía.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Chip fotónico 'se ajusta como un Lego

Un nuevo chip semiconductor compacto de fotónica de silicio expande significativamente el ancho de banda de radiofrec...

Inteligencia Artificial

OpenAI presenta Super Alignment Abriendo el camino para una IA segura y alineada

OpenAI Introducing Super Alignment development offers enormous promise for humanity. It has the ability to address so...

Inteligencia Artificial

Uso de Computadoras Analógicas en Inteligencia Artificial (IA)

Las Computadoras Analógicas son una clase de dispositivos en los cuales las cantidades físicas como el voltaje eléctr...

Inteligencia Artificial

El Ejército de los Estados Unidos pone a prueba la Inteligencia Artificial Generativa

El Departamento de Defensa de los Estados Unidos está probando cinco modelos de lenguaje grandes como parte de un esf...

Inteligencia Artificial

Explorando NLP - Comenzando con NLP (Paso #1)

Este semestre, tengo NLP como parte de mi plan de estudios. ¡YAY! Como parte de una próxima evaluación para la materi...

Inteligencia Artificial

Este artículo de IA presenta LLaVA-Plus un asistente multimodal de propósito general que amplía las capacidades de los modelos multimodales grandes

Crear asistentes de propósito general que puedan llevar a cabo eficientemente diversas actividades del mundo real sig...