El problema de percepción pública del Aprendizaje Automático

Percepción pública del Aprendizaje Automático

Por qué la alfabetización en aprendizaje automático para el público debe ser una prioridad para la ciencia de datos y qué podemos hacer al respecto.

Foto de Andrew Seaman en Unsplash

Recientemente estuve escuchando un podcast con una variedad de personas inteligentes y reflexivas (cuyos nombres no compartiré, por cortesía) hablando sobre cómo se puede utilizar la inteligencia artificial en el campo de la salud. Ya tenía mis reservas, porque estaban utilizando el término “IA”, que a menudo significa todo y nada al mismo tiempo. Pero seguí escuchando, y discutieron ideas sobre cómo se podrían incorporar herramientas de IA (en realidad, solo aprendizaje automático) en la práctica médica. Estas herramientas incluían sugerir diagnósticos basados en síntomas y ajustar las dosis de medicamentos según los signos vitales y las condiciones del paciente, lo cual parecía prometedor y práctico.

Sin embargo, en el siguiente momento me sorprendí un poco, porque uno de los oradores (un médico) dijo (parafraseo) “parece que la IA ha empeorado en matemáticas”. Esto me quedó grabado no solo durante el resto del podcast, sino también durante todo el fin de semana.

Cuando personas educadas y inteligentes están tan confundidas y desinformadas sobre lo que es el aprendizaje automático, tenemos un problema. (Voy a evitar utilizar el término “IA” porque realmente creo que confunde más que aclara nuestro significado. En este contexto, estas personas estaban discutiendo sobre aprendizaje automático y productos que lo utilizan, aunque no fueran conscientes de ello.)

En el caso del médico, probablemente se refería a los Modelos de Lenguaje Amplio (LLM, por sus siglas en inglés) cuando hizo el comentario sobre matemáticas. De alguna manera, había llegado a creer que un modelo entrenado para organizar palabras de manera sofisticada en respuesta a estímulos también debería ser capaz de realizar cálculos matemáticos. No es bueno en eso (¡no fue entrenado para eso!) y su imagen de todas las áreas del aprendizaje automático se vio empañada por esta realidad.

Contrario a esta idea errónea, los científicos de datos entienden que los LLM representan solo una pequeña parte del panorama más amplio del aprendizaje automático. Muchos otros algoritmos y modelos destacan en cálculos matemáticos porque ese es su propósito específico. (Como dijo un amigo cuando le conté esta historia, “¡los modelos de aprendizaje automático simplemente SON matemáticas!”) El problema está al comienzo de este párrafo: los científicos de datos lo saben, pero el público en general realmente no lo sabe.

…los científicos de datos entienden que los LLM representan solo una pequeña parte del panorama más amplio del aprendizaje automático.

Podría pasar un artículo completo hablando sobre la diferencia entre los modelos de lenguaje y otras formas de aprendizaje automático, pero eso no es lo que me interesa realmente hoy. En cambio, quiero hablar sobre por qué debemos preocuparnos de que las personas no tengan esta información y cuáles pueden ser las implicaciones.

¿Por qué debería importarnos si el público en general sabe algo sobre el aprendizaje automático?

Como sociólogo convertido en científico de datos, me preocupa mucho cómo las personas interactúan con la ciencia de datos y el aprendizaje automático. Tengo una filosofía personal al respecto: si tu aprendizaje automático no beneficia a las personas o al mundo que nos rodea de alguna manera, realmente no importa. Creo que el propósito del esfuerzo humano debe ser mejorar las vidas de los demás, y eso también se aplica al aprendizaje automático.

Sin embargo, incluso si no compartes esa filosofía, sostengo que aún deberías preocuparte de si el público en general comprende los conceptos básicos del aprendizaje automático. Si las personas carecen de esta comprensión, la adopción de herramientas valiosas y confiables puede estancarse.

Mi argumento es algo así:

  1. Las personas no están naturalmente preparadas para comprender e interactuar con el aprendizaje automático.
  2. Sin comprender estas herramientas, algunas personas pueden evitarlas o desconfiar de ellas.
  3. Peor aún, algunas personas pueden utilizar incorrectamente estas herramientas debido a la desinformación, lo que resulta en consecuencias perjudiciales.
  4. Después de experimentar las consecuencias negativas del uso incorrecto, las personas pueden mostrar reticencia a adoptar futuras herramientas de aprendizaje automático que podrían mejorar sus vidas y comunidades.

El aprendizaje automático solo funciona en la medida en que las personas que lo utilizan puedan maximizar su funcionamiento. Rutinariamente veo y escucho ejemplos como la anécdota con la que comencé en mi propia vida, donde las personas parten de concepciones extremadamente desinformadas sobre qué es o puede ser el ML, y construyen marcos mentales sobre esta base defectuosa. Esto lleva a que todo su mapa cognitivo sobre qué es el aprendizaje automático sea incorrecto.

Lo que esto significa para el campo de la ciencia de datos es que todo nuestro trabajo en el servicio de construir un aprendizaje automático cada vez más avanzado está limitado en su posibilidad no por la cantidad de GPUs que podamos obtener, sino por nuestra capacidad para explicar lo que construimos y educar al público sobre lo que significa y cómo usarlo.

…nuestro trabajo en el servicio de construir aprendizaje automático más avanzado está limitado en su posibilidad no por la cantidad de GPUs que podamos obtener, sino por nuestra capacidad para explicar lo que construimos.

Las personas no están preparadas innatamente para entender el aprendizaje automático

Recientemente leí un artículo llamado “Por qué Johnny no puede guiar” (Zamfirescu-Pereira, Wong, Hartmann y Yang, abril de 2023). Esto me hizo pensar mucho en cómo los no científicos de datos piensan y lidian con la IA generativa en particular, pero también con el aprendizaje automático en general.

Puede que escriba más sobre este artículo en otro momento, pero para este argumento, el punto valioso es este: Las personas tienden a aplicar sus marcos establecidos para interactuar con otras personas a sus interacciones con sistemas de aprendizaje automático, lo que lleva a resultados mediocres y frustración del usuario.

Las personas tienden a aplicar sus marcos establecidos para interactuar con otras personas a sus interacciones con sistemas de aprendizaje automático, lo que lleva a resultados mediocres y frustración del usuario.

Ahora, no creo que esto sea irreparable. De hecho, creo que los seres humanos siempre necesitan aprender a usar nuevas herramientas, y que definitivamente podemos lograrlo. Piensa en cómo gradualmente aprendimos a usar computadoras y luego teléfonos inteligentes. No fue inmediatamente obvio qué hacer o cómo hacernos “entendidos” por los dispositivos frente a nosotros.

Esto se resolvió en su mayoría mediante una combinación de tiempo, mejoras en el diseño de los dispositivos para hacerlos más intuitivos (por ejemplo, la tecnología que viene a nuestro encuentro donde estamos) y educación. Cuando era joven, las personas mayores o menos conocedoras de la tecnología tenían acceso a clases gratuitas o de bajo costo de computación en colegios comunitarios locales, por ejemplo. El objetivo no era aprender programación, sino simplemente aprender a usar las computadoras de manera efectiva, porque eran herramientas increíblemente útiles.

Creo que este proceso también puede funcionar para el aprendizaje automático, pero hay algunas diferencias. Por un lado, gran parte del aprendizaje automático se nos oculta o se envuelve en una interfaz antropomórfica (en el caso de los chatbots LLM, por ejemplo). Muchos de los resultados de los modelos de aprendizaje automático llegan a nuestras vidas sin que nos demos cuenta de que están ahí, como la personalización de resultados de búsqueda o las alertas en aplicaciones basadas en predicciones de lo que queremos o necesitamos, solo por mencionar algunos. En el caso de la IA generativa, gran parte del aprendizaje automático está debajo de la superficie de un chatbot conversacional, y naturalmente estamos inclinados a interactuar con él como lo haríamos con cualquier compañero de conversación humano. Sin embargo, esto es un error, como describen los autores en el artículo mencionado anteriormente. En este momento, los mejores resultados de un LLM no se logran simplemente hablando con él “como una persona”.

Algunas personas no usarán cosas que no entienden

Esta realidad crea algunas condiciones de las que debemos ser conscientes. En primer lugar, muchas personas no van a aceptar que el aprendizaje automático sea totalmente beneficioso y fácil. Muchas personas miran la nueva era de la IA generativa y se alarman en lugar de emocionarse. Esta es una reacción razonable para muchos. Por un lado, tenemos muchas referencias culturales y exposiciones que nos han enseñado que las computadoras “demasiado inteligentes” son peligrosas y debemos estar en guardia.

Las personas sintieron lo mismo acerca de las computadoras personales. Algunos estaban preocupados por la capacidad y el poder que podrían tener, o nerviosos por su propia capacidad real para entender y usarlos. Esas clases de computación en los colegios comunitarios ayudaron a las personas indecisas a establecer una relación cómoda con la idea de las computadoras. Desafortunadamente, no veo que el campo de la ciencia de datos esté teniendo ese mismo cuidado con los miembros inciertos del público hoy en día.

Adoptar nuevas tecnologías siempre es un desafío, no porque las personas sean poco inteligentes o carentes de curiosidad, sino debido a preocupaciones genuinas sobre posibles riesgos. Reconocer estas preocupaciones y demostrar un compromiso para prevenir resultados negativos puede mejorar la credibilidad del aprendizaje automático con el público.

Otras personas usarán y abusarán de cosas que no entienden

Por otro lado, hay muchas personas que se han sumergido en la interacción con el aprendizaje automático, especialmente con LLMs, de lleno. Las personas lo están utilizando para todo tipo de cosas, incluido el trabajo en diversas industrias y también para el entretenimiento. La exageración y la cobertura mediática han aumentado la conciencia sobre la tecnología LLM y su potencial, y casi todas las empresas con un ordenador en sus instalaciones están tratando de incorporar la inteligencia artificial en su estrategia empresarial.

Sin embargo, hay un lado negativo en toda esta emoción. Cuando las personas comienzan a utilizar el aprendizaje automático, como LLMs, comienzan a darse cuenta de los problemas y las formas en que la tecnología no cumple con las expectativas exageradas. Tal vez el chatbot no entienda tu pregunta, o las predicciones del modelo no sean siempre perfectas, pero el usuario final espera que la máquina no cometa errores. ¿Por qué esperan eso? Porque lo que saben sobre el aprendizaje automático proviene de la cultura popular y la exageración. Los científicos de datos no hemos dedicado tiempo a explicar qué expectativas son razonables y cuáles siguen siendo material de ciencia ficción.

Después de utilizar herramientas que no entienden, las personas temerán usar nuevas herramientas en el futuro

Entonces, ¿qué sucede cuando prometemos demasiado y entregamos menos de lo esperado en cuanto a soluciones de aprendizaje automático para usuarios no especializados? En muchos casos, tendremos personas decepcionadas y desilusionadas que podrían haber sido grandes defensores de las nuevas tecnologías. Serán menos propensos a probar la próxima versión o a utilizar el aprendizaje automático en el futuro, porque lo intentaron y se quemaron.

Piensa en este ejemplo: el abogado que utilizó ChatGPT para obtener citas para un informe. Cuando salió esta historia, la comunidad de ciencia de datos criticó al abogado. “¿Quién haría eso? ¿No sabían que no se puede confiar en ChatGPT para la precisión de cosas como esa?”

De hecho, siento mucha pena por este abogado, aunque estas consecuencias fueron el resultado de cierta negligencia. La promesa de ChatGPT parece casi mágica para gran parte del público y las representaciones mediáticas sobre las cosas casi milagrosas que puede hacer han alimentado esta idea. Muchas personas se enteraron por primera vez de que ChatGPT “mentirá” leyendo sobre este caso.

Estas percepciones erróneas surgen de la antropomorfización de los LLMs, asumiendo que tienen razonamiento similar al humano y habilidades para discernir la verdad. En realidad, ChatGPT es un modelo muy sofisticado que ordena las palabras en reacción a un estímulo que le das. Está entrenado para producir un lenguaje muy comprensible. Pero ChatGPT no tiene concepto de “verdad” o “mentira”. No tiene embeddings internos para representar si algo es preciso. Por lo tanto, cuando las noticias hablan de ChatGPT mintiendo o “alucinando”, todo esto es un poco engañoso.

Sin embargo, el punto importante es que ahora tenemos un grupo de personas que vieron estas noticias, sin mencionar al abogado involucrado, que ahora están, como mínimo, ansiosos por saber si se puede confiar en cualquier cosa que obtengan de ChatGPT. Todo este escenario realmente no les ayudó a comprender la idea de los LLMs, y ciertamente no ayudó al objetivo más amplio de aplicar el aprendizaje automático donde puede ser beneficioso. Alguien se quemó por falta de educación sobre cómo funciona el modelo, otras personas se rieron al respecto, y ahora hemos creado muchos más escépticos que evitarán el uso de al menos algunas formas de aprendizaje automático en el futuro.

Todo esto nos lleva al mismo lugar y al mismo problema: cuando no hay una educación pública adecuada sobre una tecnología, dejamos la tarea de educar al público en fuentes poco confiables y sesgadas que tienen prioridades distintas al bien común. Solo tienes que preguntar a cualquier profesional de la salud pública que intenta aumentar la adopción de las vacunas en estos días. El aprendizaje automático podría seguir fácilmente ese mismo camino desafortunado si no nos adelantamos en la educación del público.

¿Qué podemos hacer para resolver este problema?

¿Cómo podemos, como practicantes de la ciencia de datos, cerrar la brecha entre nuestra experiencia técnica y la conciencia del público? Como antiguo educador, esto me importa mucho. Es importante que el público realmente comprenda lo que el aprendizaje automático puede hacer por nosotros, porque tenemos la oportunidad de hacer mucho bien con ello.

Una cosa que creo que podemos hacer es invertir más tiempo y energía en la educación del público. No estoy diciendo que cada persona en la calle necesite un tutorial sobre retropropagación o arquitectura de codificadores. (Sería como decir que las personas necesitan estudiar microchips para ser usuarios efectivos de computadoras). Pero sí creo que hay algunos elementos esenciales que las personas necesitan comprender sobre el aprendizaje automático para poder ser usuarios informados de la tecnología, incluyendo la ética, los riesgos y las limitaciones de lo que es posible en este momento. Como campo, la ciencia de datos necesita tener una idea de qué información necesita una persona para ser un usuario exitoso y efectivo del aprendizaje automático, y cómo podemos compartirla.

Si no estuviéramos presenciando un cambio tan dramático hacia que los LLM estén al alcance del público, podríamos esperar. Los resultados básicos de los modelos predictivos suelen ser intermediados por un profesional de la ciencia de datos, en el sentido de que las entradas del modelo se diseñan cuidadosamente y los resultados se presentan de manera reflexiva. Sin embargo, esto no es cierto en el caso de los chatbots de LLM. Las personas pueden ingresar cualquier cosa que deseen y nadie controla lo que regresa. Los usuarios necesitan mucho más conocimiento para producir y consumir esta información de manera responsable.

En segundo lugar, creo que la ciencia de datos como campo debe ser mucho más vocal e insistente en desacuerdo con el exceso de hype y exageración de lo que el aprendizaje automático realmente puede hacer y de lo que es capaz. La mayoría de esto lo encuentro en medios de click-bait, o incluso en algunos periodismos teóricamente confiables. No me malinterpreten, el aprendizaje automático es realmente asombroso y puede hacer cosas increíbles. Sin embargo, no es perfecto y no debemos permitir que nadie finja que lo es sin oponernos.

Al ignorar este problema, corremos el riesgo de retrasar el progreso en el aprendizaje automático, no necesariamente en su progreso tecnológico (aunque la falta de comprensión del aprendizaje automático por parte del Congreso podría tener ese efecto), sino en el progreso de sus aplicaciones reales en la vida práctica. No quiero ver el increíble potencial de esta tecnología ser marginado o minimizado porque no ayudamos al público a estar preparado para ella.

Ver más de mi trabajo en www.stephaniekirmer.com.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

¿Qué puedes hacer cuando la inteligencia artificial miente sobre ti?

Las personas tienen poca protección o recurso cuando la tecnología crea y difunde falsedades sobre ellas.

Inteligencia Artificial

Generación rápida y precisa de hologramas acústicos utilizando un marco basado en aprendizaje profundo

El equipo liderado por el profesor Hwang Jae-Yoon del Departamento de Ingeniería Eléctrica y Ciencias de la Computaci...

Inteligencia Artificial

Automatiza la preetiquetado de PDFs para Amazon Comprehend

Amazon Comprehend es un servicio de procesamiento del lenguaje natural (NLP, por sus siglas en inglés) que proporcion...

Inteligencia Artificial

Se analiza el sonido de la tos para identificar la gravedad de los pacientes de COVID-19

Un estudio identificó características tos que pueden ayudar a evaluar la gravedad de la COVID-19 y permitir el monito...