5 Consideraciones Éticas para la IA Generativa

Ética para IA Generativa

Incluso antes del actual auge de la IA, las preocupaciones éticas siempre estuvieron en la mente de los científicos de datos. Ahora, con el crecimiento de la IA generativa en la imaginación pública, estas preocupaciones solo han aumentado a medida que surgen diferentes problemas en relación con la IA. Mientras la IA sigue creciendo, quedan muchas preguntas sin respuesta. Con eso en mente, aquí hay algunas preguntas éticas a considerar a medida que la IA continúa expandiéndose por todo el mundo.

Fuentes de datos: ¿en qué se entrenó el modelo?

Uno de los lugares más fáciles para ver esta preocupación es la comunidad artística. En el verano de 2022, el mundo del arte se inundó con una corriente constante de arte generado por IA. Al principio, muchos se preocuparon de que esto pudiera desplazar a los artistas, pero a medida que pasaba el tiempo, la forma en que se entrenaron estos modelos llamó la atención del mundo del arte. Esto se debe a que muchos artistas y sus seguidores comenzaron a resistirse a la IA que genera arte, ya que muchos de estos programas se entrenaron con arte humano existente sin el permiso o consentimiento del artista.

De hecho, en octubre salió a la luz que Stable Diffusion utilizó obras de arte de artistas reales para entrenar su programa de IA generativa. Esto planteó muchas preocupaciones éticas, ya que se comenzó a cuestionar lo que se podría considerar plagio. Gran parte de la ira surgió debido a la falta de aviso o permiso por parte de los artistas. Muchos se sintieron excluidos de la discusión y sus estilos distintivos se utilizaron para entrenar un programa que solo requería información de texto para producir trabajos similares que les llevó años dominar.

No solo ocurre dentro del mundo del arte en sí, también se deben plantear cuestiones de privacidad, gobernanza de datos y más a medida que más y más modelos se entrenan con más y más datos sin el consentimiento de las personas de las que se extrae la información. Esto ni siquiera aborda el problema del sesgo cuando un conjunto de datos no se maneja correctamente. Solo hay que recordar el infame chatbot Tay lanzado por Microsoft. Solo se necesitaron unas pocas horas de interacción en línea antes de que la IA se volviera tan hostil y racista que el gigante tecnológico tuvo que desconectarlo rápidamente.

Salida

ChatGPT ya se ha metido en problemas debido al contenido que genera, afirmando que ciertas personas están relacionadas con delitos graves. En un caso, la persona generada ha presentado una demanda contra OpenAI. Y para aquellos que pueden no entenderlo completamente, es simple. Solo se necesita una acusación en línea antes de que cualquier búsqueda en Google que involucre su información arroje información falsa. Esto podría arruinar tanto vidas como reputaciones. Por eso, en los últimos meses ha habido llamados a frenar el desarrollo de la IA hasta que se puedan resolver problemas como las alucinaciones de la IA.

En otro caso, un abogado utilizó ChatGPT para citar y construir un expediente para una demanda en la que estaba trabajando. El único problema fue que ChatGPT citó casos que nunca sucedieron y los inventó. Como puedes imaginar, el juez no estaba muy contento, ya que esto podría arruinar la carrera de alguien. Por último, está la salida que podría ser utilizada y que, honestamente, la IA no puede decirle al usuario que no es como fue diseñada. Vimos esto hace un mes cuando un profesor de Texas acusó falsamente a los estudiantes de usar IA al alimentar sus ensayos en ChatGPT y pedirle al chatbot que determinara si estaban escritos por IA.

Si te lo estás preguntando, no, ChatGPT no puede hacer eso. Por eso, la salida es un problema crítico para la IA generativa, ya que muchos han recurrido a la tecnología y ahora dependen en gran medida de la información que produce.

Consecuencias no deseadas

Existen otras consecuencias derivadas de una salida incorrecta que van más allá de lo mencionado anteriormente. Imagina una conferencia de prensa de un líder mundial afirmando que ha contactado con extraterrestres de otro mundo. O, aún más peligroso, un anuncio afirmando que su nación iba a entrar en guerra con una nación vecina o un grupo de vecinos. Tan rápido como ha avanzado la tecnología Deepfake, cada vez es más difícil determinar qué es real y qué no lo es, pero no tiene que involucrar a un líder mundial. Ya hay informes de estafas de chat de voz falsificado.

Los criminales impulsados por IA utilizan la tecnología Deepfake para clonar básicamente las voces de sus objetivos y luego contactar a sus familias en un intento de obtener dinero u otros recursos. Esto no es ciencia ficción, ya está aquí.

Propiedad intelectual

Si hay algo que las empresas no desean, es que se maneje incorrectamente su propiedad intelectual. Esto se ha vuelto tan grave que incluso los abogados de Amazon tuvieron que recordar a los ingenieros de software que no usen ChatGPT para responder preguntas de codificación que podrían comprometer sus derechos de propiedad, ya que cada entrada al chatbot solo le enseña más. Por lo tanto, OpenAI podría, teóricamente, obtener una ventaja competitiva a medida que los trabajadores de posibles competidores utilicen su IA para responder preguntas relacionadas con el trabajo.

Violaciones de privacidad de datos

Una industria que tiene grandes expectativas sobre la IA generativa es la atención médica. La tecnología ayuda a reducir los costos administrativos, eliminar los cuellos de botella de la información para mejorar la atención y brindar a los médicos una mayor visión de la historia médica. La IA generativa también está a la vanguardia del desarrollo de nuevos medicamentos y máquinas con un potencial prometedor.

Pero hay una trampa. A diferencia de la mayoría de las industrias, el campo de la atención médica tiene leyes muy estrictas, tanto estatales como federales en los Estados Unidos, cuando se trata de la protección de los registros médicos. Por eso, la gobernanza de datos y las plataformas empresariales son cruciales cuando se trata de emplear la IA en el campo. De lo contrario, los registros médicos privados de decenas de millones de personas podrían estar al alcance de todos. Pero esta es solo una industria. La mayoría de los LLM, hasta hace muy poco, utilizaban la extracción de datos web para entrenar sus modelos.

Por lo tanto, existe una gran cantidad de información utilizada para entrenar modelos que plantean enormes preocupaciones de privacidad. Esto es precisamente por qué los llamados a una IA responsable han crecido tan rápidamente de manera global.

Conclusión

Aunque la IA generativa se ha convertido en el nuevo superpoder en la ciencia de datos y muchos están acudiendo para mejorar y garantizar su futuro profesional, todavía existen muchas preocupaciones éticas que deben abordarse si la comunidad de la ciencia de datos desea que la tecnología continúe beneficiando a la comunidad global.

ODSC organiza una Cumbre de IA Generativa gratuita el 20 de julio. Obtén tu pase hoy y obtén nuevos conocimientos y habilidades mejoradas de IA generativa. Entonces, ¿a qué estás esperando?

¡Obtén tu pase a la Cumbre Virtual de IA Generativa hoy mismo!

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Meer Pyrus Base Una nueva plataforma de código abierto basada en Python para la simulación bidimensional (2D) de RoboCup Soccer

La robótica, la rama dedicada por completo al campo de la Ingeniería Electrónica e Informática, está ahora conectada ...

Inteligencia Artificial

Robo-Dog establece el récord mundial de los 100 metros en la categoría sprint según el Guinness World Records

Guinness World records etiquetó a un robot parecido a un perro creado por un equipo del Instituto Avanzado de Ciencia...

Inteligencia Artificial

Investigadores de Microsoft Research y Georgia Tech revelan los límites estadísticos de las alucinaciones en los modelos de lenguaje

Un problema clave que ha surgido recientemente en los Modelos de Lenguaje es la alta tasa a la que proporcionan infor...