¿Cómo podemos incorporar valores humanos en la IA?

Incorporación de valores humanos en la IA.

Extrayendo de la filosofía para identificar principios justos para la IA ética

A medida que la inteligencia artificial (IA) se vuelve más poderosa y se integra más profundamente en nuestras vidas, las preguntas sobre cómo se utiliza y se implementa son cada vez más importantes. ¿Qué valores guían a la IA? ¿De quién son esos valores? ¿Y cómo se seleccionan?

Estas preguntas arrojan luz sobre el papel que desempeñan los principios, los valores fundamentales que impulsan decisiones importantes y pequeñas en la IA. Para los seres humanos, los principios ayudan a dar forma a la forma en que vivimos nuestras vidas y nuestro sentido de lo correcto y lo incorrecto. Para la IA, dan forma a su enfoque en una variedad de decisiones que implican compensaciones, como la elección entre priorizar la productividad o ayudar a quienes más lo necesitan.

En un artículo publicado hoy en Proceedings of the National Academy of Sciences, nos inspiramos en la filosofía para encontrar formas de identificar mejor los principios que guían el comportamiento de la IA. Específicamente, exploramos cómo se puede aplicar un concepto conocido como el “velo de la ignorancia” – un experimento mental destinado a ayudar a identificar principios justos para las decisiones grupales – a la IA.

En nuestros experimentos, descubrimos que este enfoque alentaba a las personas a tomar decisiones basadas en lo que consideraban justo, ya sea que les beneficiara directamente o no. También descubrimos que los participantes eran más propensos a seleccionar una IA que ayudara a aquellos que estaban en mayor desventaja cuando razonaban detrás del velo de la ignorancia. Estos conocimientos podrían ayudar a los investigadores y responsables políticos a seleccionar principios para un asistente de IA de una manera que sea justa para todas las partes.

El velo de la ignorancia (derecha) es un método para encontrar consenso sobre una decisión cuando hay opiniones diversas en un grupo (izquierda).

Una herramienta para una toma de decisiones más justa

Un objetivo clave para los investigadores de IA ha sido alinear los sistemas de IA con los valores humanos. Sin embargo, no hay consenso sobre un único conjunto de valores humanos o preferencias para gobernar la IA: vivimos en un mundo donde las personas tienen antecedentes, recursos y creencias diversos. ¿Cómo debemos seleccionar principios para esta tecnología, dados tales opiniones diversas?

Aunque este desafío surgió para la IA durante la última década, la amplia pregunta de cómo tomar decisiones justas tiene una larga tradición filosófica. En la década de 1970, el filósofo político John Rawls propuso el concepto del velo de la ignorancia como solución a este problema. Rawls argumentó que cuando las personas seleccionan principios de justicia para una sociedad, deben imaginar que lo están haciendo sin conocimiento de su posición particular en esa sociedad, incluyendo, por ejemplo, su estatus social o nivel de riqueza. Sin esta información, las personas no pueden tomar decisiones de manera egoísta y, en su lugar, deben elegir principios que sean justos para todos los involucrados.

Como ejemplo, piensa en pedirle a un amigo que corte el pastel en tu fiesta de cumpleaños. Una forma de asegurarse de que los trozos de pastel estén proporcionados de manera justa es no decirles qué trozo será el suyo. Este enfoque de retener información parece simple, pero tiene amplias aplicaciones en campos como la psicología y la política para ayudar a las personas a reflexionar sobre sus decisiones desde una perspectiva menos egoísta. Se ha utilizado como un método para alcanzar un acuerdo grupal sobre temas controvertidos, que van desde la sentencia hasta la tributación.

Sobre esta base, investigaciones anteriores de DeepMind propusieron que la naturaleza imparcial del velo de la ignorancia puede ayudar a promover la equidad en el proceso de alinear los sistemas de IA con los valores humanos. Diseñamos una serie de experimentos para probar los efectos del velo de la ignorancia en los principios que las personas eligen para guiar un sistema de IA.

¿Maximizar la productividad o ayudar a los más desfavorecidos?

En un “juego de recolección” en línea, pedimos a los participantes que jugaran un juego grupal con tres jugadores de computadora, donde el objetivo de cada jugador era recolectar madera cosechando árboles en territorios separados. En cada grupo, algunos jugadores tuvieron suerte y se les asignó una posición ventajosa: los árboles poblaban densamente su campo, lo que les permitía recolectar madera de manera eficiente. Otros miembros del grupo estaban en desventaja: sus campos eran escasos, lo que requería un esfuerzo mayor para recolectar árboles.

Cada grupo fue asistido por un único sistema de IA que podía dedicar tiempo a ayudar a los miembros del grupo a recolectar árboles. Pedimos a los participantes que eligieran entre dos principios para guiar el comportamiento del asistente de IA. Bajo el “principio de maximización”, el asistente de IA buscaría aumentar el rendimiento de la cosecha del grupo centrándose predominantemente en los campos más densos. Mientras que bajo el “principio de priorización”, el asistente de IA se enfocaría en ayudar a los miembros del grupo desfavorecidos.

Una ilustración del 'juego de recolección' donde los jugadores (mostrados en rojo) ocupan un campo denso que es más fácil de cosechar (los dos cuadrantes superiores) o un campo disperso que requiere más esfuerzo para recolectar árboles.

Colocamos a la mitad de los participantes detrás del velo de la ignorancia: enfrentaron la elección entre diferentes principios éticos sin saber cuál campo sería el suyo, por lo que no sabían cuán ventajosos o desfavorecidos estaban. Los participantes restantes tomaron la decisión sabiendo si estaban mejor o peor.

Fomentando la equidad en la toma de decisiones

Descubrimos que si los participantes no conocían su posición, consistentemente preferían el principio de priorización, donde el asistente de IA ayudaba a los miembros del grupo desfavorecidos. Este patrón surgió de manera consistente en las cinco variaciones diferentes del juego, y cruzó fronteras sociales y políticas: los participantes mostraron esta tendencia a elegir el principio de priorización independientemente de su apetito por el riesgo o su orientación política. En cambio, los participantes que conocían su propia posición eran más propensos a elegir el principio que les beneficiara más, ya sea el principio de priorización o el principio de maximización.

Un gráfico que muestra el efecto del velo de la ignorancia en la probabilidad de elegir el principio de priorización, donde el asistente de IA ayudaría a aquellos en peor situación. Los participantes que no conocían su posición eran mucho más propensos a apoyar este principio para gobernar el comportamiento de la IA.

Cuando preguntamos a los participantes por qué tomaron su decisión, aquellos que no conocían su posición eran especialmente propensos a expresar preocupaciones sobre la equidad. Con frecuencia explicaban que era justo que el sistema de IA se centrara en ayudar a las personas que estaban en peor situación en el grupo. En cambio, los participantes que conocían su posición discutían con mucha más frecuencia su elección en términos de beneficios personales.

Por último, después de que el juego de recolección terminó, planteamos una situación hipotética a los participantes: si jugaran el juego nuevamente, esta vez sabiendo que estarían en un campo diferente, ¿elegirían el mismo principio que la primera vez? Nos interesaban especialmente las personas que previamente se beneficiaron directamente de su elección, pero que no se beneficiarían de la misma elección en un nuevo juego.

Descubrimos que las personas que previamente tomaban decisiones sin conocer su posición eran más propensas a seguir respaldando su principio, incluso cuando sabían que ya no les favorecería en su nuevo campo. Esto proporciona evidencia adicional de que el velo de la ignorancia fomenta la equidad en la toma de decisiones de los participantes, llevándolos a principios que estaban dispuestos a defender incluso cuando ya no se beneficiaban directamente de ellos.

Principios más justos para la IA

La tecnología de IA ya está teniendo un efecto profundo en nuestras vidas. Los principios que rigen la IA dan forma a su impacto y a cómo se distribuirán estos posibles beneficios.

Nuestra investigación analizó un caso donde los efectos de diferentes principios eran relativamente claros. Esto no siempre será así: la IA se implementa en una variedad de dominios que a menudo dependen de un gran número de reglas para guiarlos, potencialmente con efectos secundarios complejos. No obstante, el velo de la ignorancia aún puede informar la selección de principios, ayudando a garantizar que las reglas que elijamos sean justas para todas las partes.

Para asegurarnos de construir sistemas de IA que beneficien a todos, necesitamos una amplia investigación con una amplia gama de aportes, enfoques y retroalimentación de diversas disciplinas y de la sociedad. El velo de la ignorancia puede proporcionar un punto de partida para la selección de principios con los que alinear la IA. Se ha implementado de manera efectiva en otros ámbitos para obtener preferencias más imparciales. Esperamos que, con una investigación y atención adicionales al contexto, pueda desempeñar el mismo papel para los sistemas de IA que se están construyendo e implementando en la sociedad actual y en el futuro.

Lea más sobre el enfoque de DeepMind sobre seguridad y ética .

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Ciencia de Datos

vLLM PagedAttention para una inferencia LLM 24 veces más rápida

En este artículo, explico qué es PagedAttention y por qué acelera significativamente la decodificación.

Inteligencia Artificial

Keshav Pingali reconocido con el Premio ACM-IEEE CS Ken Kennedy

El premio se entregará formalmente a Pingali en noviembre en la Conferencia Internacional sobre Computación de Alto R...

Inteligencia Artificial

Cómo Patsnap utilizó la inferencia de GPT-2 en Amazon SageMaker con baja latencia y costo

Esta publicación de blog fue coescrita, e incluye una introducción, por Zilong Bai, ingeniero principal de procesamie...

Inteligencia Artificial

Buscar inteligentemente el contenido de Drupal utilizando Amazon Kendra

Amazon Kendra es un servicio de búsqueda inteligente impulsado por aprendizaje automático (ML). Amazon Kendra te ayud...