Esta Herramienta de IA Explica Cómo la IA ‘Ve’ Imágenes y por qué Puede Equivocarse al Confundir un Astronauta con una Pala.

This AI Tool Explains How AI 'Sees' Images and Why It Can Mistake an Astronaut for a Shovel.

Es ampliamente reconocido que la inteligencia artificial (IA) ha logrado avances significativos en los últimos años, lo que ha llevado a logros notables y resultados innovadores. Sin embargo, no es cierto que la IA pueda obtener resultados igualmente impresionantes en todas las tareas. Por ejemplo, aunque la IA puede superar el rendimiento humano en ciertas tareas visuales, como el reconocimiento facial, también puede mostrar errores desconcertantes en el procesamiento y clasificación de imágenes, lo que resalta la naturaleza desafiante de la tarea en cuestión. Como resultado, comprender el funcionamiento interno de dichos sistemas para la tarea correspondiente y cómo llegan a ciertas decisiones se ha convertido en un tema de gran interés e investigación entre investigadores y desarrolladores. Se sabe que, al igual que el cerebro humano, los sistemas de IA emplean estrategias para analizar y categorizar imágenes. Sin embargo, los mecanismos precisos detrás de estos procesos siguen siendo elusivos, lo que resulta en un modelo de caja negra.

Por lo tanto, existe una creciente demanda de métodos de explicabilidad para interpretar las decisiones tomadas por los modelos de aprendizaje automático modernos, en particular las redes neuronales. En este contexto, los métodos de atribución, que generan mapas de calor que indican la importancia de los píxeles individuales en influir en la decisión de un modelo, han ganado popularidad. Sin embargo, investigaciones recientes han puesto de manifiesto las limitaciones de estos métodos, ya que tienden a centrarse únicamente en las regiones más relevantes de una imagen, revelando dónde mira el modelo sin aclarar lo que el modelo percibe dentro de esas áreas. Por lo tanto, para desmitificar las redes neuronales profundas y descubrir las estrategias utilizadas por los sistemas de IA para procesar imágenes, un equipo de investigadores del Carney Institute for Brain Science de la Universidad de Brown y algunos científicos informáticos del Instituto Toulouse de Inteligencia Artificial y Natural, Francia, colaboraron para desarrollar CRAFT (Concept Recursive Activation FacTorization for Explainability). Esta innovadora herramienta tiene como objetivo discernir el “qué” y el “dónde” se enfoca un modelo de IA durante el proceso de toma de decisiones, enfatizando así las disparidades en cómo el cerebro humano y un sistema de visión por computadora comprenden la información visual. El estudio también se presentó en la prestigiosa Conferencia de Visión por Computadora y Reconocimiento de Patrones 2023, celebrada en Canadá.

Como se mencionó anteriormente, comprender cómo los sistemas de IA toman decisiones utilizando regiones específicas de una imagen mediante métodos de atribución ha sido un desafío. Sin embargo, simplemente identificar las regiones influyentes sin aclarar por qué esas regiones son cruciales no ofrece una explicación completa a los humanos. CRAFT aborda esta limitación aprovechando técnicas modernas de aprendizaje automático para desentrañar las representaciones visuales complejas y multidimensionales aprendidas por las redes neuronales. Con el fin de mejorar la comprensión, los investigadores han desarrollado un sitio web fácil de usar donde las personas pueden explorar y visualizar de manera eficiente estos conceptos fundamentales utilizados por las redes neuronales para clasificar objetos. Además, los investigadores también destacaron que, con la introducción de CRAFT, los usuarios no solo obtienen información sobre los conceptos empleados por un sistema de IA para construir una imagen y comprender lo que el modelo percibe en áreas específicas, sino que también entienden la jerarquía de clasificación de estos conceptos. Este avance innovador ofrece un recurso valioso para desentrañar el proceso de toma de decisiones de los sistemas de IA y mejorar la transparencia en sus resultados de clasificación.

En esencia, las principales contribuciones del trabajo realizado por los investigadores se pueden resumir en tres puntos principales. En primer lugar, el equipo ideó un enfoque recursivo para identificar y descomponer de manera efectiva los conceptos en múltiples capas. Esta estrategia innovadora permite una comprensión integral de los componentes subyacentes dentro de la red neuronal. En segundo lugar, se ha introducido un método revolucionario para estimar con precisión la importancia de los conceptos mediante la utilización de índices de Sobol. Por último, la implementación de la diferenciación implícita ha revolucionado la creación de mapas de atribución de conceptos, desbloqueando una herramienta poderosa para visualizar y comprender la asociación entre conceptos y características a nivel de píxeles. Además, el equipo realizó una serie de evaluaciones experimentales para respaldar la eficacia y la importancia de su enfoque. Los resultados revelaron que CRAFT supera a todos los demás métodos de atribución, consolidando su notable utilidad y estableciéndose como un punto de partida para futuras investigaciones en métodos de explicabilidad basados en conceptos.

Los investigadores también destacaron la importancia de comprender cómo las computadoras perciben las imágenes. Al obtener conocimientos profundos sobre las estrategias visuales empleadas por los sistemas de IA, los investigadores obtienen una ventaja competitiva para mejorar la precisión y el rendimiento de las herramientas basadas en visión. Además, esta comprensión resulta beneficiosa contra ataques adversarios y cibernéticos al ayudar a los investigadores a comprender cómo los atacantes pueden engañar a los sistemas de IA mediante sutiles alteraciones en las intensidades de píxeles de formas apenas perceptibles para los humanos. En cuanto al trabajo futuro, los investigadores están entusiasmados con el día en que los sistemas de visión por computadora puedan superar las capacidades humanas. Con el potencial de abordar desafíos sin resolver como el diagnóstico del cáncer, el reconocimiento de fósiles, etc., el equipo cree firmemente que estos sistemas tienen el potencial de transformar numerosos campos.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Conoce a Llemma el modelo de lenguaje matemático de próxima generación que supera los estándares actuales

Los modelos de lenguaje entrenados en diversas mezclas de texto muestran una comprensión y generación de lenguaje gen...

Ciencia de Datos

Investigadores crean una herramienta para simular con precisión sistemas complejos.

El sistema que desarrollaron elimina una fuente de sesgo en las simulaciones, lo que conduce a algoritmos mejorados q...

Inteligencia Artificial

Acelerando el tiempo para obtener conocimientos con las colecciones de series temporales de MongoDB y Amazon SageMaker Canvas

Este es un artículo de invitado escrito conjuntamente con Babu Srinivasan de MongoDB. A medida que las industrias evo...