Aprendizaje de física intuitiva en un modelo de aprendizaje profundo inspirado en la psicología del desarrollo

'Física intuitiva en modelo de aprendizaje profundo basado en la psicología del desarrollo'

Comprender el mundo físico es una habilidad crítica que la mayoría de las personas despliegan sin esfuerzo. Sin embargo, esto sigue siendo un desafío para la inteligencia artificial; si queremos implementar sistemas seguros y útiles en el mundo real, queremos que estos modelos compartan nuestro sentido intuitivo de la física. Pero antes de poder construir esos modelos, hay otro desafío: ¿Cómo mediremos la capacidad de estos modelos para entender el mundo físico? Es decir, ¿qué significa entender el mundo físico y cómo podemos cuantificarlo?

Afortunadamente para nosotros, los psicólogos del desarrollo han pasado décadas estudiando lo que los bebés saben sobre el mundo físico. En el camino, han convertido la vaga noción de conocimiento físico en un conjunto concreto de conceptos físicos. Y, han desarrollado el paradigma de violación de expectativas (VoE) para probar esos conceptos en los bebés.

En nuestro artículo publicado hoy en Nature Human Behavior, ampliamos su trabajo y compartimos el conjunto de datos de Conceptos Físicos de forma abierta. Este conjunto de datos de video sintético traslada el paradigma de VoE para evaluar cinco conceptos físicos: solidez, persistencia del objeto, continuidad, “inmutabilidad” e inercia direccional.

Con un punto de referencia para el conocimiento físico en mano, nos centramos en la tarea de construir un modelo capaz de aprender sobre el mundo físico. Una vez más, recurrimos a los psicólogos del desarrollo en busca de inspiración. Los investigadores no solo catalogaron lo que los bebés saben sobre el mundo físico, sino que también postularon los mecanismos que podrían permitir este comportamiento. A pesar de la variabilidad, estas explicaciones tienen un papel central para la idea de dividir el mundo físico en un conjunto de objetos que evolucionan a lo largo del tiempo.

Basándonos en este trabajo, construimos un sistema al que apodamos PLATO (Aprendizaje de Física a través de Codificación Automática y Seguimiento de Objetos). PLATO representa y razona sobre el mundo como un conjunto de objetos. Realiza predicciones sobre dónde estarán los objetos en el futuro en función de dónde han estado en el pasado y con qué otros objetos están interactuando.

Después de entrenar a PLATO con videos de interacciones físicas simples, descubrimos que PLATO superó las pruebas en nuestro conjunto de datos de Conceptos Físicos. Además, entrenamos modelos “planos” que eran tan grandes (o incluso más grandes) que PLATO pero no utilizaban representaciones basadas en objetos. Cuando probamos esos modelos, descubrimos que no pasaron todas nuestras pruebas. Esto sugiere que los objetos son útiles para aprender física intuitiva, respaldando las hipótesis de la literatura del desarrollo.

También queríamos determinar cuánta experiencia era necesaria para desarrollar esta capacidad. Se ha demostrado evidencia de conocimiento físico en bebés de tan solo dos meses y medio de edad. ¿Cómo se desempeña PLATO en comparación? Al variar la cantidad de datos de entrenamiento utilizados por PLATO, descubrimos que PLATO podría aprender nuestros conceptos físicos con tan solo 28 horas de experiencia visual. La naturaleza limitada y sintética de nuestro conjunto de datos significa que no podemos hacer una comparación directa entre la cantidad de experiencias visuales recibidas por los bebés y PLATO. Sin embargo, este resultado sugiere que la física intuitiva se puede aprender con relativamente poca experiencia si se apoya a través de un sesgo inductivo para representar el mundo como objetos.

Finalmente, queríamos probar la capacidad de PLATO para generalizar. En el conjunto de datos de Conceptos Físicos, todos los objetos en nuestro conjunto de prueba también están presentes en el conjunto de entrenamiento. ¿Qué sucede si probamos a PLATO con objetos que nunca ha visto antes? Para hacer esto, aprovechamos un subconjunto de otro conjunto de datos sintético desarrollado por investigadores del MIT. Este conjunto de datos también examina el conocimiento físico, aunque con apariencias visuales diferentes y un conjunto de objetos que PLATO nunca ha visto antes. PLATO pasó la prueba, sin necesidad de volver a entrenar, a pesar de ser probado con estímulos completamente nuevos.

Esperamos que este conjunto de datos pueda proporcionar a los investigadores una comprensión más específica de las habilidades de sus modelos para comprender el mundo físico. En el futuro, esto se puede ampliar para probar más aspectos de la física intuitiva mediante el aumento de la lista de conceptos físicos probados y el uso de estímulos visuales más ricos, incluyendo nuevas formas de objetos o incluso videos del mundo real.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Descifrando la regulación génica con Deep Learning Un nuevo enfoque de IA para entender el empalme alternativo

El empalme alternativo es un proceso fundamental en la regulación génica, que permite que un solo gen produzca múltip...

Inteligencia Artificial

Procyon Photonics La startup dirigida por estudiantes de secundaria que podría revolucionar la informática

Procyon cree que podría ser posible ejecutar las redes neuronales del modelo de lenguaje de ChatGPT en su hardware'.

Inteligencia Artificial

Este boletín de IA es todo lo que necesitas #65

Esta semana en IA, tuvimos avances en la regulación de la IA desde el Capitolio líderes tecnológicos como Elon Musk y...

Ciencia de Datos

Investigadores enseñan a una IA a escribir mejores leyendas de gráficos

Un nuevo conjunto de datos puede ayudar a los científicos a desarrollar sistemas automáticos que generen leyendas más...

Inteligencia Artificial

Conoce a Baichuan 2 Una serie de modelos de lenguaje multilingües a gran escala que contienen 7B y 13B de parámetros, entrenados desde cero, con 2.6T tokens.

Los modelos de lenguaje grandes han experimentado avances significativos y alentadores en los últimos años. Los model...