Cerrando la brecha entre la comprensión humana y el aprendizaje automático Inteligencia Artificial Explicable como solución.

Closing the gap between human understanding and machine learning with Explainable Artificial Intelligence as the solution.

Este artículo profundiza en la importancia de la Inteligencia Artificial Explicable (XAI), cuáles son los desafíos en la construcción de modelos de IA interpretables y algunas pautas prácticas para que las empresas construyan modelos XAI.

Introducción

¿Alguna vez has abierto tu aplicación de compras favorita y lo primero que ves es una recomendación de un producto que ni siquiera sabías que necesitabas, pero terminas comprando gracias a la recomendación oportuna? ¿O has abierto tu aplicación de música favorita y te has deleitado al ver una joya olvidada de tu artista favorito recomendada en la parte superior como algo “que te podría gustar”? Consciente o inconscientemente, todos nosotros encontramos decisiones, acciones o experiencias que hoy en día han sido generadas por la Inteligencia Artificial (IA). Mientras que algunas de estas experiencias son bastante inocuas (¿a quién no le ha gustado una recomendación de música perfecta?), otras pueden causar algunas molestias (¿”Cómo sabía esta aplicación que estaba pensando en hacer un programa de pérdida de peso”?). Esta molestia se convierte en preocupación y desconfianza cuando se trata de asuntos de privacidad sobre uno mismo y sus seres queridos. Sin embargo, saber cómo o por qué se te recomendó algo puede ayudar a aliviar un poco esa molestia.

Es aquí donde entra en juego la IA Explicable, o XAI. A medida que los sistemas habilitados para IA se vuelven cada vez más ubicuos, la necesidad de comprender cómo estos sistemas toman decisiones está creciendo. En este artículo, exploraremos XAI, discutiremos los desafíos en los modelos de IA interpretables, los avances en la interpretación de estos modelos y proporcionaremos pautas para que las empresas e individuos implementen XAI en sus productos para fomentar la confianza del usuario en la IA.

¿Qué es la IA Explicable?

La IA Explicable (XAI) es la capacidad de los sistemas de IA de proporcionar explicaciones para sus decisiones o acciones. XAI cubre la importante brecha entre un sistema de IA que decide y el usuario final que comprende por qué se tomó esa decisión. Antes del advenimiento de la IA, los sistemas solían basarse en reglas (por ejemplo, si un cliente compra pantalones, recomendar cinturones. O si una persona enciende su “Smart TV”, mantener rotando la recomendación n.º 1 entre 3 opciones fijas). Estas experiencias proporcionaban una sensación de previsibilidad. Sin embargo, a medida que la IA se volvió más común, conectar los puntos hacia atrás desde por qué se muestra algo o por qué se tomó alguna decisión por un producto no es sencillo. La IA Explicable puede ayudar en estos casos.

La IA Explicable (XAI) permite a los usuarios comprender por qué un sistema de IA decidió algo y qué factores influyeron en la decisión. Por ejemplo, cuando abres tu aplicación de música, puedes ver un widget llamado “Porque te gusta Taylor Swift”, seguido de recomendaciones de música pop similares a las canciones de Taylor Swift. O puedes abrir una aplicación de compras y ver “Recomendaciones basadas en tu historial de compras reciente”, seguido de recomendaciones de productos para bebés porque compraste algunos juguetes y ropa para bebés en los últimos días.

XAI es particularmente importante en áreas donde se toman decisiones de alto riesgo por parte de la IA. Por ejemplo, el trading algorítmico y otras recomendaciones financieras, la salud, los vehículos autónomos y más. Ser capaz de proporcionar una explicación para las decisiones puede ayudar a los usuarios a comprender la lógica, identificar cualquier sesgo introducido en la toma de decisiones del modelo debido a los datos en los que se entrena, corregir errores en las decisiones y ayudar a construir la confianza entre los humanos y la IA. Además, con las crecientes directrices regulatorias y requisitos legales que están surgiendo, la importancia de XAI solo está aumentando.

Desafíos en XAI

Si XAI proporciona transparencia a los usuarios, ¿por qué no hacer que todos los modelos de IA sean interpretables? Hay varios desafíos que impiden que esto suceda.

Los modelos de IA avanzados como las redes neuronales profundas tienen múltiples capas ocultas entre las entradas y las salidas. Cada capa recibe la entrada de la capa anterior, realiza cálculos sobre ella y la pasa como entrada a la siguiente capa. Las complejas interacciones entre capas dificultan el seguimiento del proceso de toma de decisiones para hacerlo interpretable. Esta es la razón por la que a menudo se denominan modelos opacos.

Estos modelos también procesan datos de alta dimensión como imágenes, audio, texto y más. Ser capaz de interpretar la influencia de cada característica para poder determinar cuál contribuyó más a una decisión es un desafío. Simplificar estos modelos para hacerlos más interpretables resulta en una disminución de su rendimiento. Por ejemplo, modelos más simples y “comprensibles” como los árboles de decisiones pueden sacrificar el rendimiento predictivo. Como resultado, no es aceptable comprometer el rendimiento y la precisión en aras de la previsibilidad.

Avances en XAI

Con la creciente necesidad de XAI para seguir construyendo la confianza humana en la IA, ha habido avances en los últimos tiempos en esta área. Por ejemplo, hay algunos modelos como los árboles de decisión o los modelos lineales que hacen que la interpretación sea bastante obvia. También hay modelos de IA simbólicos o basados en reglas que se centran en la representación explícita de información y conocimiento. A menudo se necesita que los humanos definan reglas y alimenten información de dominio a los modelos. Con el desarrollo activo que está sucediendo en este campo, también hay modelos híbridos que combinan el aprendizaje profundo con la interpretación, minimizando el sacrificio hecho en el rendimiento.

Directrices para Implementar XAI en Productos

Empoderar a los usuarios para que entiendan cada vez más por qué los modelos de IA deciden lo que deciden puede ayudar a fomentar la confianza y la transparencia sobre los modelos. Puede llevar a una colaboración mejorada y simbiótica entre humanos y máquinas donde el modelo de IA ayuda a los humanos en la toma de decisiones con transparencia y los humanos ayudan a ajustar el modelo de IA para eliminar sesgos, inexactitudes y errores.

A continuación, se presentan algunas formas en que las empresas y las personas pueden implementar XAI en sus productos:

  1. Seleccione un Modelo Interpretable donde pueda hacerlo – Cuando sean suficientes y funcionen bien, se deben seleccionar modelos de IA interpretables en lugar de aquellos que no son fácilmente interpretables. Por ejemplo, en el campo de la salud, modelos más simples como los árboles de decisión pueden ayudar a los médicos a entender por qué un modelo de IA recomendó un cierto diagnóstico, lo que puede ayudar a fomentar la confianza entre el médico y el modelo de IA. Se deben usar técnicas de ingeniería de características como codificación one-hot o escalado de características que mejoren la interpretabilidad.
  2. Use Explicaciones Post-Hoc – Use técnicas como la importancia de características y los mecanismos de atención para generar explicaciones post-hoc. Por ejemplo, LIME (Explicaciones Agnósticas del Modelo Localmente Interpretable) es una técnica que explica las predicciones de los modelos. Genera puntuaciones de importancia de características para resaltar la contribución de cada característica a la decisión de un modelo. Por ejemplo, si termina “gustando” una recomendación de lista de reproducción en particular, el método LIME intentaría agregar y eliminar ciertas canciones de la lista de reproducción y predecir la probabilidad de que le guste la lista de reproducción y concluir que los artistas cuyas canciones están en la lista de reproducción juegan un papel importante en que le guste o no la lista de reproducción.
  3. Comunicación con los Usuarios – Se pueden utilizar técnicas como LIME o SHAP (Explicaciones Aditivas de Shapley) para proporcionar una explicación útil sobre decisiones o predicciones locales específicas sin necesidad de explicar todas las complejidades del modelo en general. También se pueden aprovechar señales visuales como mapas de activación o mapas de atención para resaltar qué entradas son más relevantes para la salida generada por un modelo. Las tecnologías recientes como Chat GPT se pueden utilizar para simplificar explicaciones complejas en un lenguaje sencillo que los usuarios puedan entender. Por último, dar a los usuarios cierto control para que puedan interactuar con el modelo puede ayudar a generar confianza. Por ejemplo, los usuarios podrían intentar ajustar las entradas de diferentes maneras para ver cómo cambia la salida.
  4. Monitoreo Continuo – Las empresas deben implementar mecanismos para monitorear el rendimiento de los modelos y detectar y alertar automáticamente cuando se detecten sesgos o desviaciones. Debe haber una actualización y ajuste regular de los modelos, así como auditorías y evaluaciones para asegurarse de que los modelos cumplan con las leyes regulatorias y los estándares éticos. Por último, aunque sea de manera esporádica, debe haber seres humanos involucrados para proporcionar comentarios y correcciones según sea necesario.

Conclusión

En resumen, a medida que la IA continúa creciendo, se vuelve imperativo construir XAI para mantener la confianza del usuario en la IA. Al adoptar las directrices articuladas anteriormente, las empresas y las personas pueden construir IA que sea más transparente, comprensible y simple. Cuanto más adopten las empresas XAI, mejor será la comunicación entre los usuarios y los sistemas de IA, y más seguros se sentirán los usuarios al permitir que la IA mejore sus vidas. Ashlesha Kadam lidera un equipo de productos globales en Amazon Music que construye experiencias musicales en Alexa y las aplicaciones de Amazon Music (web, iOS, Android) para millones de clientes en más de 45 países. También es una defensora apasionada de las mujeres en la tecnología, que actúa como copresidenta de la pista de Interacción Humano-Computadora (HCI) para la Celebration Grace Hopper (la conferencia de tecnología más grande para mujeres en tecnología con más de 30.000 participantes en 115 países). En su tiempo libre, a Ashlesha le encanta leer ficción, escuchar podcasts empresariales y tecnológicos (su favorito actual es Acquired), hacer senderismo en el hermoso Noroeste del Pacífico y pasar tiempo con su esposo, su hijo y su Golden Retriever de 5 años.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Agrupación desatada Entendiendo el agrupamiento K-Means

Aprende cómo encontrar patrones ocultos y extraer conocimientos significativos utilizando el Aprendizaje No Supervisa...

Inteligencia Artificial

La Guía Esencial para la Ingeniería de Instrucciones en ChatGPT

Adéntrate en la 'Ingeniería de Instrucciones' con nuestra guía exhaustiva, centrada en su impacto en la base de usuar...

Inteligencia Artificial

NVIDIA presenta FlexiCubes un nuevo enfoque para generar mallas de alta calidad a partir de flujos de trabajo neurales como la fotogrametría y la IA generativa.

La inteligencia artificial (IA) ha vuelto a empujar los límites de lo posible con la llegada de las tuberías de IA de...

Inteligencia Artificial

¡La Bendición de la Dimensionalidad?! (Parte 1)

Creemos que se puede lograr un gran avance en uno o más de estos problemas si un grupo cuidadosamente seleccionado de...

Noticias de Inteligencia Artificial

El mercado oculto de China para las poderosas tarjetas Nvidia de inteligencia artificial

En las bulliciosas calles del área de electrónica de Huaqiangbei en Shenzhen, ha surgido un mercado subterráneo de ch...

Inteligencia Artificial

Explorando el poder y las limitaciones de GPT-4

Destapando GPT-4 Descifrando su impacto en la ciencia de datos y explorando sus fortalezas y límites.