Encendiendo la Combustión Cognitiva Fusionando Arquitecturas Cognitivas y LLMs para Construir la Próxima Computadora

Fusionando arquitecturas cognitivas y LLMs para construir la próxima computadora

“Un sistema nunca es la suma de sus partes, es el producto de sus interacciones” – Russell Ackoff.

Tendemos a obsesionarnos con los últimos dispositivos y algoritmos, sin embargo, la tecnología por sí sola no impulsa el cambio en el mundo real. El verdadero progreso depende de los sistemas que integran tecnologías en una solución. Las herramientas individuales son un medio para un fin; los sistemas son el fin en sí mismos.

Consideremos este ejemplo. Los seres humanos han aprovechado el poder de la combustión durante siglos sin desbloquear su máximo potencial. Hemos encendido fuegos, llevado antorchas e habitado partes remotas del planeta. Pero extraer su potencial requirió diseñar una danza intrincada, el motor de combustión interna, para generar explosiones que hagan girar las manivelas y accionar los pistones. Aunque los componentes del motor han avanzado drásticamente, el diseño conceptual perdura porque produce resultados mucho más allá de lo que las partes podrían lograr.

De la misma manera, en la computación, el progreso se debe en gran medida al pensamiento en sistemas. En 1945, el matemático John von Neumann ensambló memoria, entrada, salida, control y procesamiento en una arquitectura integrada para resolver problemas computacionales. Este sistema, no un componente en particular, dio origen a la computación moderna. Setenta y ocho años después, aunque las tecnologías son muy diferentes, los principios de von Neumann siguen siendo en gran medida intactos. Las computadoras de hoy, mucho más poderosas, son estructuralmente similares a sus antepasadas de la década de 1940 porque la arquitectura, no solo los componentes, determina cómo se resuelven los problemas del mundo real.

La arquitectura de von Neumann (fuente: Wikipedia)

Estamos al borde de otra reevaluación, esta vez impulsada por el surgimiento de modelos de lenguaje. Pero antes de llegar a eso, veamos con qué estamos trabajando.

Simbólico y Sub-Simbólico

Para la mayoría de nosotros, la tecnología implica sistemas lógicos y explicables basados en símbolos como el código, los números y el lenguaje. Le damos a las computadoras instrucciones simbólicas explícitas y ellas siguen determinísticamente nuestras recetas para producir resultados esperados. Estos sistemas basados en reglas son el yang del yin de los sistemas sub-simbólicos desordenados y no estructurados.

Los sistemas sub-simbólicos, como las redes neuronales, imitan la naturaleza distribuida y paralela de las neuronas biológicas. Emergen respuestas de las actividades no coordinadas de nodos individuales, al igual que las colonias emergen de las hormigas siguiendo patrones simples. Mientras que los sistemas simbólicos son creados por la lógica humana, los sistemas sub-simbólicos identifican patrones y realizan asociaciones difusas por sí mismos. Sus resultados parecen mágicos pero opacos en comparación con los procesos simbólicos y transparentes.

Aun así, al igual que el símbolo del yin-yang, nuestras mentes unen estos dos modos duales. Nuestras facultades simbólicas nos permiten crear y seguir reglas, construir argumentos lógicos y comunicarnos claramente a través del lenguaje. Nuestras facultades sub-simbólicas reconocen rostros, perciben emociones y se mueven suavemente en el desordenado mundo físico.

Cuadrado en Agujero Redondo

Nuestro mundo regido por reglas se ha encontrado con un extraño indisciplinado: el gran modelo de lenguaje (LLM, por sus siglas en inglés). Exigimos que nuestras tecnologías se comporten lógicamente y produzcan resultados consistentes, sin embargo, los LLMs piensan de manera probabilística, viendo posibilidades donde nosotros vemos callejones sin salida. Desestimamos su creatividad como alucinatoria, juzgando a través de la lente cuadrada del pensamiento simbólico. Pero el futuro requiere un motor que pueda encender tanto lo simbólico como lo sub-simbólico en una combustión cognitiva, aprovechando su energía para llevarnos a nuevas alturas computacionales.

La buena noticia es que los científicos han estado trabajando en esto desde hace tiempo. ¿Quién no querría descifrar el código para hacer que las máquinas actúen como los humanos?

Arquitecturas Cognitivas

Desde la década de 1950, los investigadores han perseguido las “arquitecturas cognitivas”, sistemas que pueden razonar ampliamente, obtener ideas, adaptarse al cambio e incluso reflexionar sobre su propio pensamiento.

Después de décadas de investigación, las arquitecturas cognitivas se han multiplicado a más de 300 propuestas. En su revisión, Kosteruba y Tsotsos analizaron 84 arquitecturas, organizándolas en una taxonomía. Encontraron que las arquitecturas abarcaban desde redes neuronales biológicamente inspiradas hasta sistemas de reglas simbólicas rígidas, con muchos híbridos en el medio.

Taxonomía de Arquitecturas Cognitivas: Fuente Kosteruba & Tsotsos

Modelo Común de Cognición

Afortunadamente, no tenemos que analizar todos estos modelos. En 2017, John Laird y sus colegas propusieron un “modelo estándar de la mente” para proporcionar un marco común para discutir estas arquitecturas. Su modelo sintetiza conceptos clave de tres arquitecturas pioneras:

  • ACT-R, desarrollado por John Anderson desde 1976, modela la cognición a través de la interacción de la memoria procedural y declarativa. La memoria procedural codifica habilidades y rutinas, mientras que la memoria declarativa almacena hechos. Siguiendo procedimientos para acceder y aplicar el conocimiento declarativo, ACT-R demuestra cómo la interacción entre el “saber que” y el “saber cómo” permite un comportamiento inteligente.
  • Soar, creado por John Laird en la década de 1980, proporciona un sistema unificado basado en reglas que abarca percepción, aprendizaje, planificación, resolución de problemas y toma de decisiones. Las “producciones” representan el conocimiento como reglas de condición-acción que operan en la memoria de trabajo. Soar simula las habilidades flexibles y dirigidas por objetivos de la mente al seguir dinámicamente las producciones.
  • Sigma, concebido por Polk y Newell en 1988, ve la mente como una sociedad asíncrona de comportamientos. Los módulos mentales se envían mensajes que desencadenan otros comportamientos, continuando hasta que los deseos se satisfacen o se abandonan. Este ciclo de “generación y gestión de comportamiento” da lugar a un comportamiento complejo y adaptativo.

El modelo estándar de la mente comprende tres sistemas de memoria interactivos:

Memoria declarativa es nuestra base de conocimientos, almacenando hechos y conceptos que podemos declarar conscientemente. Retiene información como tu color favorito, eventos históricos, señales de tráfico o vocabulario. La memoria declarativa proporciona el material bruto para el pensamiento, del cual otros sistemas se basan.

Memoria procedural codifica habilidades y rutinas, el conocimiento “cómo hacerlo” que permite el comportamiento. Nos permite andar en bicicleta, atar zapatos o tocar instrumentos. La memoria procedural traduce el conocimiento en acción.

Memoria de trabajo es nuestro espacio de trabajo mental, reteniendo y manipulando temporalmente información para permitir la planificación, resolución de problemas y toma de decisiones. Al resolver un problema matemático, la memoria de trabajo sostiene números, operaciones y pasos intermedios hasta que surge una solución. Integra el acceso y la aplicación de conocimientos de la memoria declarativa y procedural.

En este modelo, no hay un controlador; en cambio, es impulsado por un ‘ciclo cognitivo’. Al igual que el ciclo de reloj en las computadoras, este “ciclo cognitivo” impulsa el funcionamiento del sistema ejecutando procedimientos para lograr objetivos.

Conducir un automóvil, por ejemplo, requiere:

  • Conocimiento declarativo de señales, controles y rutas
  • Habilidades procedurales para conducir
  • Memoria de trabajo para monitorear las condiciones y reaccionar en el momento

Integración de los Modelos de Lenguaje en el Modelo Estándar de la Mente

El modelo estándar articuló facultades clave antes del auge actual en modelos de lenguaje. Aunque aún es temprano, los marcos de agente actuales (AutoGPT, BabyAGI, etc.) han creado algunas de estas capacidades.

En lugar de módulos de memoria distintos, estos marcos acceden a fuentes de conocimiento externas a través de la búsqueda vectorial. Los módulos de percepción y motor se implementan como llamadas de API y complementos. La ventana de contexto del modelo de lenguaje es la memoria de trabajo temporal.

Un vacío importante persiste: el aprendizaje robusto. Los sistemas actuales carecen de un mecanismo para acumular conocimiento y habilidades de manera continua a partir de la experiencia. En cambio, dependen de indicaciones y ajuste del modelo. El próximo avance será integrar un mecanismo que permita el aprendizaje continuo a partir de interacciones, acumulando conocimiento y habilidades sobre la marcha, ¡como las mentes humanas!

¿Una Nueva Receta para el Progreso? Creando Arquitecturas Cognitivas

Hoy nos encontramos con nuevos ingredientes: modelos de lenguaje, búsqueda vectorial, API, y recetas antiguas para la inteligencia de las arquitecturas cognitivas. Si estos pueden mezclarse en un nuevo sistema con capacidades más allá de cualquier parte individual, todavía no está claro. La historia ofrece ejemplos de recetas que perduraron, como el marco de computación de von Neumann o el motor de combustión interna. Pero por cada receta visionaria, hubo muchas mezclas fallidas.

Una cosa está clara. Cuando descubramos este nuevo ‘motor cognitivo’, impulsará el progreso de manera más profunda que cualquier tecnología anterior.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Framework Permite a los Robots Realizar Tareas Interactivas en Orden Secuencial

Un nuevo marco de trabajo permite a los robots cuadrúpedos realizar tareas que se vuelven progresivamente más complej...

Inteligencia Artificial

PhotoGuard de MIT utiliza inteligencia artificial para defenderse contra la manipulación de imágenes por inteligencia artificial

A medida que la inteligencia artificial (IA) avanza, la capacidad de generar y manipular imágenes hiperrealistas se v...

Inteligencia Artificial

Calculadora de números determina si las ballenas están actuando de manera extraña

Los investigadores aplicaron técnicas estadísticas para diferenciar el comportamiento natural del afectado entre las ...