Pensar, rápido y lento + IA

Pensar rápido y lento + IA

IA corrigiendo matemáticas aprovechando la psicología humana

Fuente de la imagen: Creador de imágenes de Bing

“Los cerebros humanos contienen un mecanismo diseñado para priorizar las malas noticias.” — Daniel Kahneman

“Pensar rápido, pensar despacio” es un libro superventas del New York Times escrito por el psicólogo y Premio Nobel Daniel Kahneman. El libro presenta su hipótesis sobre cómo y qué impulsa nuestro pensamiento.

Esta hipótesis está siendo aprovechada actualmente por los chatbots de IA como Bard de Google para ser más eficientes y precisos.

Pero, ¿cómo exactamente la hipótesis de Daniel Kahneman, presentada en el libro, ayuda a desarrollar chatbots de IA?

Eso es exactamente de lo que hablaremos en esta publicación.

Los dos sistemas que impulsan el pensamiento

Imagen por el autor

El libro de Kahneman explora dos sistemas de pensamiento:

  • pensamiento basado en la intuición (que se conoce como pensamiento del Sistema 1), y
  • pensamiento lento (que se conoce como pensamiento del Sistema 2).

Según Kahneman, el Sistema 1 es rápido, basado en el instinto y emocional; mientras que el Sistema 2 es lento, reflexivo y lógico. Si bien ambos sistemas desempeñan un papel crucial en la toma de decisiones, un sistema tiende a ser más activo que el otro dependiendo de la situación.

El Sistema 1 opera de manera rápida y sin esfuerzo. Las acciones bajo este sistema requieren poco o ningún esfuerzo y no implican un control voluntario.

Esto incluye acciones como leer palabras en un cartel, detectar si un objeto está lejos o cerca de otro objeto, identificar un sonido que escuchas, y así sucesivamente.

Por otro lado, el Sistema 2 es más consciente y lógico. Las acciones bajo este sistema llevan mucho tiempo y requieren un control voluntario. Este sistema se activa cuando realizas un pensamiento abstracto y lógico.

Esto incluye acciones como identificar a alguien en una multitud, hacer cálculos largos mentalmente, jugar ajedrez, y así sucesivamente.

Recientemente, Bard (el chatbot de IA de Google) está utilizando el concepto de los dos sistemas para mejorar sus operaciones matemáticas y de cadenas, haciendo que sus respuestas sean más dinámicas y precisas.

Pero, ¿cómo utiliza Bard este concepto psicológico para mejorar su propio sistema de IA?

Cómo los principios del pensamiento ayudan a la IA

Imagen por el autor

Antes de sumergirnos, comprendamos las principales ventajas y desventajas de cada sistema.

El libro señala que el pensamiento del Sistema 1 es responsable del 98% de todo nuestro pensamiento, mientras que el pensamiento del Sistema 2 es responsable del 2% restante y es esclavo del Sistema 1.

Pero ambos sistemas tienen sus ventajas y desventajas, y ejercen una gran influencia en nuestras capacidades de toma de decisiones.

Desventajas de cada sistema

Depender demasiado del pensamiento del Sistema 1 puede llevar a sesgos y errores. Algunas de las limitaciones del pensamiento del Sistema 1 son las siguientes:

  • Fuerte indulgencia en el sesgo de confirmación
  • Tendencia a pasar por alto detalles concretos e importantes
  • Ignorar evidencia que no nos gusta, lo que lleva a la ignorancia
  • Sobreanalizar decisiones aparentemente simples o irrelevantes
  • Producir justificaciones cuestionables para decisiones erróneas

y así sucesivamente.

¡Hola lectores! Espero que estén disfrutando de este artículo. Este artículo forma parte de mi boletín Creative Block – un boletín semanal sobre Tecnología e IA.

Si deseas leer más contenido como este, visita Creative Block

Por otro lado, depender demasiado del pensamiento del Sistema 2 también puede llevar a errores y consecuencias negativas. Estos incluyen:

  • Sobreanalizar decisiones simples y desperdiciar una gran cantidad de tiempo
  • Incapacidad para tomar decisiones rápidas
  • Ser demasiado escéptico y retener el juicio en exceso
  • Experimentar fatiga de decisiones y sobrecarga cognitiva
  • Tomar decisiones demasiado lógicas y no tener en cuenta las emociones

Dos Sistemas de Pensamiento: Aplicados a la IA

Mientras que en el ámbito humano esto es altamente psicológico, las cosas se vuelven muy interesantes cuando este concepto se aplica a la IA y la Computación.

Los LLMs (modelos de IA que alimentan a los chatbots como Bard y CHatGPT) pueden considerarse como funcionando en el Sistema 1.

¿Cómo?

Los LLMs (los modelos de IA que ejecutan estos chatbots) funcionan encontrando patrones en miles de millones de datos de entrenamiento en los que fueron entrenados anteriormente, y generan una respuesta que coincide con el patrón común. Por ejemplo, cuando le dices a un chatbot que “escriba un ensayo sobre el cambio climático”, el siguiente es el proceso en el backend –

  1. Encontrar consultas coincidentes en su vasta base de datos de entrenamiento. El chatbot intenta encontrar una consulta común que incluya las palabras clave “cambio climático” y “ensayos”.
  2. Encontrar una tendencia o patrón. El chatbot luego intenta encontrar una tendencia o patrón común entre todos los datos seleccionados. Por ejemplo, el patrón podría ser que casi todos los datos tengan que mencionar ’emisiones de carbono’, ‘huella de carbono’, ‘contaminación por plástico’, ‘calentamiento global’, y así sucesivamente. Además, los formatos de título y párrafo de los ensayos también son un patrón en sí mismo (a diferencia de otros formatos como poemas, blogs, etc.).
  3. Generar un texto según el patrón. Esta es la parte divertida. Piensa en este proceso como resolver un rompecabezas. El bot intenta generar el texto utilizando los fragmentos de datos (las piezas del rompecabezas) e intenta hacer que se parezca al patrón de un ensayo similar (las imágenes finales), que en este caso es un ensayo sobre el cambio climático. Crea varias iteraciones (es decir, salidas) de la indicación que le diste y las compara con datos de referencia, que podría ser un ensayo sobre el cambio climático ya escrito.
  4. Proporcionar la salida. Se elige la iteración que se asemeje más al resultado deseado y se imprime en la pantalla.

Este proceso puede parecer largo, pero solo lleva unos segundos realizarlo en los LLMs tradicionales. El primer paso se realiza mucho antes en la fase de desarrollo y entrenamiento de los LLMs, que consiste en que el modelo de IA se entrena en conjuntos de datos que contienen miles de millones de datos. Después de aprender de este conjunto de datos masivo y encontrar el patrón en todos ellos, la parte voluminosa y difícil del proceso de LLM se completa.

Fuente de la imagen: ithome.com.tw

El resto del proceso es bastante rápido, debido en gran medida a la calidad de los datos en los que se entrenó el modelo. Por lo general, cuanto mejor sea el conjunto de datos de entrenamiento suministrado, mejores serán las predicciones y la generación.

Así, los LLM generan textos sin esfuerzo sin ‘pensar’ mucho. Simplemente encuentra el patrón y compara la salida con la referencia.

Por lo tanto, los LLMs se encuentran en el Sistema 1 – que es rápido y eficiente. Sin embargo, la desventaja de esto es que los LLM pueden generar salidas incorrectas y sesgadas, e incluso inventar sus propios hechos y cifras (alucinación de IA).

Esta es la razón por la cual, en el siguiente caso, a veces Bard muestra resultados sin esfuerzo para tareas difíciles, pero fracasa miserablemente en tareas fáciles como la siguiente –

Fuente de la imagen: Reddit

Esto se debe a que resolver un determinado problema matemático es eficiente cuando sigues una secuencia específica de pasos, en lugar de confiar en los ‘patrones’ de problemas de matemáticas similares.

Esto es donde funciona mejor la computación tradicional. Por ejemplo, la forma en que funcionan las calculadoras en tu computadora.

La computación tradicional sigue una secuencia o una estructura, que se presenta en forma de código o un algoritmo simple. En este sentido, la computación tradicional se prefiere para realizar tareas como resolver problemas matemáticos, manipular operaciones de cadenas, hacer conversiones, etc. La desventaja es que, al seguir un formato especificado, puede que no sea necesariamente rápida o eficiente la mayor parte del tiempo. La computadora tradicional puede encontrar la respuesta a preguntas como 12*24 = 288, pero tarda más tiempo en resolver problemas relacionados con cálculos.

Sin embargo, el punto a favor aquí es que casi siempre obtiene la respuesta correcta.

Obsérvese que la computación tradicional es bastante lenta, más lógica y estructurada en comparación con LLMs.

Por lo tanto, la computación tradicional se incluye en el sistema 2. Es relativamente lenta, mucho más sistemática y lógica. Consiste en un algoritmo, código o cualquier otro sistema de ejecución codificado.

El Bard de Google está tratando de utilizar ambos sistemas para que las respuestas de su chatbot sean más óptimas.

Cómo lo utiliza Bard

Bard tuvo un comienzo difícil cuando se lanzó. El video promocional inicial que mostraba la capacidad de Bard enfrentó críticas enormes después de que la respuesta contenía información errónea.

Por lo tanto, era importante que Bard hiciera que su bot de IA fuera más preciso, con menos sesgo o información errónea. Este es un objetivo desafiante para reducir la desinformación y aumentar la eficiencia en casi todas las herramientas de IA disponibles.

Por lo tanto, debido a esto, Google publicó un blog el 7 de junio con el título: “Bard está mejorando en lógica y razonamiento“.

El blog destacó dos nuevas características en Bard.

Una de ellas era la función de exportación a Google Sheets, que permite al usuario exportar su salida que contiene tablas a Google Sheets.

La otra característica permitía a Bard — en sus propias palabras — “mejorar en tareas matemáticas, preguntas de programación y manipulación de cadenas”

Bard tuvo problemas anteriormente con los problemas matemáticos, y aún los tiene de vez en cuando. Pero utilizando el enfoque de combinar los dos sistemas que mencioné anteriormente, Bard pretende mejorar ahora, corrigiendo sus errores matemáticos tontos.

Esta nueva técnica que utiliza Bard se llama “ejecución de código implícito”.

Mientras que los LLM (Sistema 1, que consiste en respuestas rápidas y basadas en patrones) reciben el estímulo, la ejecución de código implícito permite a Bard detectar estímulos computacionales (Sistema 2, que consiste en lógica y ejecución sistemática) y ejecutar código en segundo plano.

Esto ayuda a Bard a dar respuestas a estímulos matemáticos y basados en cadenas de manera mucho más fácil.

En el ejemplo mencionado en el blog, Google dijo que Bard mejorará en la respuesta a estímulos como:

  • ¿Cuáles son los factores primos de 15683615?
  • Calcular la tasa de crecimiento de mis ahorros
  • Invierte la palabra “Lollipop” para mí

Los siguientes extractos del blog capturan la esencia y la motivación de utilizar este enfoque (de utilizar los dos sistemas de pensamiento):

“Como resultado, han sido extremadamente capaces en tareas de lenguaje y creativas, pero más débiles en áreas como el razonamiento y las matemáticas.

Para ayudar a resolver problemas más complejos con capacidades avanzadas de razonamiento y lógica, no es suficiente confiar únicamente en la salida LLM.

Se puede pensar en los LLM como operando puramente bajo el Sistema 1, produciendo texto rápidamente pero sin un pensamiento profundo… La computación tradicional se alinea estrechamente con el pensamiento del Sistema 2: es formulista e inflexible, pero la secuencia correcta de pasos puede producir resultados impresionantes, como soluciones a la división larga”.

— Google en su blog

Este enfoque de mantener los LLM y la computación tradicional en el Sistema 1 y el Sistema 2 respectivamente garantiza que la respuesta sea mucho más precisa y eficiente.

Utilizando este enfoque, Bard — según el blog — mostró una precisión de casi el 30% al tratar problemas de palabras y matemáticas.

¿Qué tan confiable es este nuevo enfoque?

Aunque esto mejora la precisión de Bard al tratar problemas matemáticos y de palabras, puede que no sea el mejor enfoque para hacer que el chatbot sea eficiente.

Aunque muestra una precisión significativa al tratar problemas matemáticos y de palabras, aún tiene dificultades al tratar problemas relacionados con el código.

Incluso con estas mejoras, Bard no siempre lo logrará correctamente, por ejemplo, Bard puede no generar código para ayudar en la respuesta, el código que genera puede estar equivocado o Bard puede no incluir el código ejecutado en su respuesta

Google dice al final del blog.

Por lo tanto, aunque se trata de un cambio significativo, Bard aún tiene que recorrer un largo camino para ser totalmente confiable.

Reducir la desinformación e incrementar la eficiencia son los desafíos para casi todos los chatbots disponibles.

Aunque se está avanzando, aún queda mucho camino por recorrer.

Eso es todo por hoy, espero que hayas encontrado útil esta publicación

Nos vemos en la próxima publicación 👋

¿Estás interesado en estar al tanto de los últimos eventos en tecnología, ciencia e inteligencia artificial?

Entonces no te querrás perder mi boletín semanal gratuito en Substack, donde comparto ideas, noticias y análisis sobre todo lo relacionado con la tecnología y la inteligencia artificial.

Creative Block | Aditya Anil | Substack

El boletín semanal sobre IA, tecnología y ciencia que te importa. Haz clic para leer Creative Block, por Aditya…

creativeblock.substack.com

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Eso es gracioso, pero los modelos de IA no entienden la broma.

Un equipo multi-institucional de científicos probó la capacidad de los modelos de inteligencia artificial para entend...

Inteligencia Artificial

xAI de Elon Musk entrenado con el Feed de Twitter

Elon Musk, el visionario detrás de empresas como Tesla y SpaceX, ha vuelto a centrar su atención en el campo de la in...

Inteligencia Artificial

Maximizar el rendimiento en aplicaciones de IA de borde

Este artículo proporciona una visión general de las estrategias para optimizar el rendimiento del sistema de IA en im...

Inteligencia Artificial

Científicos más cerca de encontrar una prueba para el COVID prolongado

Un equipo multiinstitucional de científicos podría haber descubierto biomarcadores de la COVID-19 prolongada que podr...

Aprendizaje Automático

Escribir canciones con GPT-4 Parte 3, Melodías

Cómo usar ChatGPT con GPT-4 de OpenAI para escribir melodías para nuevas canciones utilizando tablaturas de guitarra ...