Araucana XAI Explicabilidad Local con Árboles de Decisión para la Salud

Explicabilidad Local en Salud con Árboles de Decisión Araucana XAI

Presentación de un nuevo enfoque de XAI agnóstico de modelo, post hoc basado en CART para proporcionar explicaciones locales que mejoran la transparencia de la toma de decisiones asistida por IA en el campo de la salud

El término 'Araucana' proviene del pino araucaria, originario de Chile, pero también es el nombre de una hermosa raza de gallina doméstica. © MelaniMarfeld de Pixabay

¿Por qué la IA se equivocó en este caso?

En el ámbito de la inteligencia artificial, existe una creciente preocupación por la falta de transparencia y comprensibilidad de los sistemas de IA complejos. Investigaciones recientes se han dedicado a abordar este problema mediante el desarrollo de modelos explicativos que arrojan luz sobre el funcionamiento interno de sistemas opacos como el boosting, bagging y técnicas de deep learning.

Explicabilidad Local y Global

Los modelos explicativos pueden arrojar luz sobre el comportamiento de los sistemas de IA de dos formas distintas:

  • Explicabilidad global. Los explicadores globales proporcionan una comprensión integral de cómo se comporta el clasificador de IA en su conjunto. Su objetivo es descubrir patrones generales, tendencias, sesgos y otras características que se mantienen consistentes en diferentes entradas y escenarios.
  • Explicabilidad local. Por otro lado, los explicadores locales se centran en brindar información sobre el proceso de toma de decisiones del sistema de IA para una única instancia. Al resaltar las características o entradas que influyeron significativamente en la predicción del modelo, un explicador local ofrece una idea de cómo se llegó a una decisión específica. Sin embargo, es importante tener en cuenta que estas explicaciones pueden no ser aplicables a otras instancias ni proporcionar una comprensión completa del comportamiento general del modelo.

La creciente demanda de sistemas de IA confiables y transparentes no solo se debe a la amplia adopción de modelos complejos de caja negra, conocidos por su precisión pero también por su limitada interpretabilidad. También está motivada por la necesidad de cumplir con nuevas regulaciones destinadas a proteger a las personas contra el mal uso de datos y aplicaciones basadas en datos, como la Ley de Inteligencia Artificial, el Reglamento General de Protección de Datos (GDPR) o los Principios Éticos para la Inteligencia Artificial del Departamento de Defensa de los Estados Unidos.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

El próximo guardia de seguridad de tu escuela podría ser un robot

Varias compañías tecnológicas han comenzado a ofrecer robots de seguridad a las escuelas de Estados Unidos.

Inteligencia Artificial

Anunciando nuevas herramientas para ayudar a cada negocio a aprovechar la IA generativa

Desde startups hasta empresas, organizaciones de todos los tamaños están comenzando a utilizar la IA generativa. Quie...

Inteligencia Artificial

Herramienta LLM encuentra y remedia vulnerabilidades de software

La empresa de software Vicarius presentó vuln_GPT, una herramienta de inteligencia artificial generativa que identifi...

Investigación

Investigadores de la Universidad de Surrey lanzan una herramienta revolucionaria de detección de objetos basada en bocetos en el aprendizaje automático.

Desde tiempos prehistóricos, las personas han utilizado bocetos para comunicación y documentación. Durante la última ...

Inteligencia Artificial

La IA detecta emisiones de metano desde el espacio

Una nueva herramienta de aprendizaje automático utiliza datos de satélites hiperespectrales para detectar automáticam...

Inteligencia Artificial

La FTC investiga si ChatGPT perjudica a los consumidores

La demanda de la agencia de los documentos de OpenAI sobre los riesgos de la inteligencia artificial marca la mayor a...