3 prácticas emergentes para una IA generativa responsable

3 prácticas emergentes para IA generativa responsable

El trabajo continuo de Google en IA impulsa herramientas que utilizan miles de millones de personas todos los días, incluyendo Google Search, Translate, Maps y más. Algunos de los trabajos que nos emocionan más implican el uso de la IA para resolver problemas sociales importantes, desde pronósticos de inundaciones y reducción de carbono hasta mejorar la atención médica. Hemos aprendido que la IA tiene el potencial de tener un impacto de gran alcance en las crisis globales que enfrenta todo el mundo, al mismo tiempo que expande los beneficios de las innovaciones existentes a las personas de todo el mundo.

Es por eso que la IA debe desarrollarse de manera responsable, abordando preocupaciones identificables como la equidad, la privacidad y la seguridad, con colaboración en todo el ecosistema de la IA. Y es por eso que, después de anunciar que éramos una empresa “centrada en la IA” en 2017, compartimos nuestros Principios de IA y desde entonces hemos construido una estructura de gobierno de Principios de IA extensa y escalable, así como un proceso de revisión ética repetible. Para ayudar a otros a desarrollar IA de manera responsable, también hemos desarrollado un conjunto de herramientas creciente de IA Responsable.

Cada año, compartimos un informe detallado sobre nuestros procesos de evaluación de riesgos, revisiones éticas y mejoras técnicas en una actualización anual disponible públicamente: 2019, 2020, 2021, 2022, complementada con una breve revisión a mitad de año de nuestro propio progreso que cubre lo que vemos en la industria.

Este año, la IA generativa está recibiendo más enfoque público, conversación e interés colaborativo que cualquier otra tecnología emergente en nuestra vida. Eso es algo bueno. Este espíritu colaborativo solo puede beneficiar el objetivo del desarrollo responsable de la IA en el camino para desbloquear sus beneficios, desde ayudar a las pequeñas empresas a crear campañas publicitarias más atractivas hasta permitir que más personas desarrollen prototipos de nuevas aplicaciones de IA, incluso sin escribir ningún código.

Por nuestra parte, hemos aplicado los Principios de IA y un proceso de revisión ética a nuestro propio desarrollo de IA en nuestros productos, y la IA generativa no es una excepción. Lo que hemos descubierto en los últimos seis meses es que hay formas claras de promover prácticas más seguras y socialmente beneficiosas para abordar preocupaciones de la IA generativa, como el sesgo injusto y la veracidad. Integrarnos de manera proactiva consideraciones éticas desde el principio en el proceso de diseño y desarrollo y hemos ampliado significativamente nuestras revisiones de esfuerzos de IA en etapa inicial, con un enfoque en la orientación en torno a proyectos de IA generativa.

Para nuestra actualización a mitad de año, nos gustaría compartir tres de nuestras mejores prácticas basadas en esta orientación y en lo que hemos hecho en nuestro diseño, revisiones y desarrollo previos al lanzamiento de la IA generativa: diseñar para la responsabilidad, realizar pruebas adversarias y comunicar explicaciones simples y útiles.

1. Diseñar para la responsabilidad.

Es importante identificar y documentar los posibles daños y comenzar el proceso de desarrollo del producto de IA generativa con el uso de conjuntos de datos, clasificadores y filtros responsables para abordar esos daños de manera proactiva. A partir de esa base, también:

  • Participar en talleres junto a la comunidad de investigación para identificar formas completas de construir IA confiable. Recientemente, hemos apoyado y ayudado a avanzar en foros como Consideraciones éticas en aplicaciones creativas de visión por computadora y Consideraciones transculturales en PLN.
  • Desarrollar una política de uso prohibido antes del lanzamiento, basada en los daños identificados al principio del proceso de investigación, desarrollo y revisión ética.
  • Utilizar enfoques técnicos como clasificadores y otras herramientas para detectar y filtrar salidas que violen políticas, y métodos adicionales como los incluidos en el conjunto de herramientas de IA Responsable. Recientemente, hemos agregado una nueva versión de la Herramienta de Interpretación del Aprendizaje (LIT) al conjunto de herramientas, para la depuración y comprensión del modelo, y el conjunto de datos Ejemplos de Tono de Piel de Monje (MST-E) para ayudar a los profesionales de la IA a utilizar la escala inclusiva de Tono de Piel de Monje (MST).
  • Reunir a un grupo de expertos externos de una variedad de campos, como el derecho y la educación, para discusiones sólidas sobre resultados equitativos del producto. Nuestra Ongoing Equitable AI Research Roundtable (EARR), por ejemplo, continúa reuniéndose con líderes de pensamiento que representan a comunidades históricamente subrepresentadas en posiciones de liderazgo de IA, centrándose en temas de IA generativa.
  • Ofrecer un lanzamiento experimental y gradual a probadores de confianza para obtener comentarios.
  • Participar de manera proactiva con responsables de políticas, reguladores de privacidad y expertos mundiales en el tema de manera continua para informar lanzamientos más amplios, como lo hicimos antes de expandir Bard a 40 idiomas y audiencias internacionales.

2. Realizar pruebas adversarias.

Los desarrolladores pueden someter a pruebas de estrés los modelos de IA generativa internamente para identificar y mitigar posibles riesgos antes del lanzamiento y de cualquier lanzamiento continuo. Por ejemplo, con Bard, nuestro experimento que permite a las personas colaborar con IA generativa, realizamos pruebas de salidas que podrían interpretarse como parecidas a una persona, lo cual puede llevar a malentendidos potencialmente perjudiciales, y luego creamos una salvaguardia al restringir el uso de declaraciones de “yo” por parte de Bard para limitar el riesgo de antropomorfización inapropiada que descubrimos durante las pruebas. También:

  • Solicitar aportes de comunidades en etapas tempranas del proceso de investigación y desarrollo para desarrollar una comprensión de los contextos sociales. Esto puede ayudar a informar pruebas de estrés exhaustivas. Por ejemplo, recientemente nos asociamos con MLCommons y Kaggle para crear Adversarial Nibbler, una competencia pública de IA para obtener promociones adversariales y probar modelos de texto a imagen, con el objetivo de identificar brechas no vistas o “desconocidas” en la evaluación de modelos de generación de imágenes.
  • Realizar pruebas internas e inclusivas. Antes de lanzar Bard, seleccionamos a un grupo de cientos de empleados de Google con una amplia variedad de antecedentes y experiencias culturales, que se ofrecieron como voluntarios para violar intencionalmente nuestras políticas y probar el servicio. Continuamos realizando estas pruebas adversarias internas para informar las expansiones y lanzamientos de nuevas funciones de Bard.
  • Ajustar y aplicar pruebas de seguridad adversarias para abordar preocupaciones específicas de la IA generativa. Por ejemplo, hemos evolucionado nuestros esfuerzos continuos de “equipo rojo”, un enfoque de prueba de estrés que identifica vulnerabilidades a los ataques, para “hackear éticamente” nuestros sistemas de IA y respaldar nuestro nuevo Marco de IA Segura. Ampliaremos aún más el enfoque de piratería ética a la IA generativa, compartiendo un modelo de lenguaje grande para pruebas adversarias públicas en la conferencia DEFCON de este año.

Artículo relacionado

El Equipo Rojo de IA de Google: los hackers éticos que hacen que la IA sea más segura

Hoy, estamos publicando información sobre el Equipo Rojo de IA de Google por primera vez.

Leer artículo

3. Comunicar explicaciones simples y útiles.

En el lanzamiento, buscamos ofrecer una comunicación clara sobre cuándo y cómo se utiliza la IA generativa. Nos esforzamos por mostrar cómo las personas pueden ofrecer comentarios y cómo tienen el control. Por ejemplo, para Bard, algunas de nuestras prácticas de explicabilidad incluyeron:

  • El botón “Google It” proporciona consultas de búsqueda relevantes para ayudar a los usuarios a validar preguntas basadas en hechos
  • Iconos de pulgar hacia arriba y hacia abajo como canales de retroalimentación
  • Enlaces para informar problemas y ofrecer soporte operativo para garantizar una respuesta rápida a los comentarios de los usuarios
  • Control del usuario para almacenar o eliminar la actividad de Bard

También nos esforzamos por ser claros con los usuarios cuando interactúan con una nueva tecnología de IA generativa en la fase experimental. Por ejemplo, las versiones de Labs como NotebookLM están etiquetadas prominentemente con “Experimento”, junto con detalles específicos sobre las características limitadas disponibles durante el período de acceso temprano.

Otra práctica de explicabilidad es la documentación exhaustiva sobre cómo funciona el servicio o producto de IA generativa. Para Bard, esto incluyó una descripción general completa que ofrece claridad sobre el límite en el número de interacciones para garantizar calidad, precisión y prevenir la personificación potencial, así como otros detalles sobre seguridad, y un aviso de privacidad para ayudar a los usuarios a comprender cómo Bard maneja sus datos.

Mantener la transparencia también es clave. Publicamos un informe técnico detallado sobre PaLM-2, el modelo que actualmente impulsa a Bard, que incluye información basada en nuestra documentación interna de detalles de evaluación y orientación para investigadores y desarrolladores de IA sobre el uso responsable del modelo.

Además de las tres observaciones anteriores, nos enfocamos ampliamente en asegurar que las nuevas tecnologías de IA generativa tengan barreras innovadoras igualmente enfoadas en abordar preocupaciones como la procedencia de las imágenes. Nuestros esfuerzos incluyen marcar las imágenes generadas por herramientas de IA de Google (como Virtual Try On o Da Vinci Stickies) y ofrecer anotaciones de imágenes para que los editores indiquen cuándo una imagen es generada por IA.

Atreverse y ser responsable no están en desacuerdo entre sí, de hecho, van de la mano para promover la aceptación, adopción y utilidad de las nuevas tecnologías. A principios de este mes, iniciamos una discusión pública invitando a editores web, sociedad civil, academia y comunidades de IA a ofrecer ideas sobre enfoques y protocolos para respaldar el futuro desarrollo de Internet en la era de la IA generativa. A medida que avanzamos, seguiremos compartiendo cómo aplicamos prácticas emergentes para el desarrollo responsable de la IA generativa y la transparencia continua con nuestra Actualización Anual de los Principios de IA al final del año.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

AI diseña un nuevo robot desde cero en segundos

Un equipo de investigación liderado por científicos de la Universidad Northwestern creó una inteligencia artificial c...

Ciencia de Datos

Manteniendo la Calidad de Datos en Sistemas de Aprendizaje Automático

En el deslumbrante mundo del aprendizaje automático (ML), es bastante fácil quedar absorto en la emoción de idear alg...

Inteligencia Artificial

El Hackathon ofrece un vistazo del potencial cuántico

El Centro Nacional de Computación Cuántica del Reino Unido recientemente llevó a cabo su segundo hackathon cuántico e...

Inteligencia Artificial

Conoce AUDIT Un modelo de edición de audio guiado por instrucciones basado en modelos de difusión latente

Los modelos de difusión están avanzando rápidamente y facilitando la vida. Desde el Procesamiento del Lenguaje Natura...

Inteligencia Artificial

Amplios horizontes La presentación de NVIDIA señala el camino hacia nuevos avances en Inteligencia Artificial

Los avances dramáticos en el rendimiento del hardware han dado lugar a la IA generativa y a una rica variedad de idea...