Directrices éticas para el desarrollo de la biblioteca Diffusers

'Ética para desarrollar la biblioteca Diffusers'

¡Estamos en un viaje para hacer nuestras bibliotecas más responsables, un commit a la vez!

Como parte de la documentación de la biblioteca Diffusers, nos enorgullece anunciar la publicación de un marco ético.

Dadas las aplicaciones reales de los modelos de difusión en el mundo y los posibles impactos negativos en la sociedad, esta iniciativa tiene como objetivo guiar las decisiones técnicas de los mantenedores de la biblioteca Diffusers sobre las contribuciones de la comunidad. Deseamos ser transparentes en cómo tomamos decisiones y, sobre todo, queremos aclarar qué valores guían esas decisiones.

Vemos la ética como un proceso que aprovecha valores orientadores, acciones concretas y adaptación continua. Por esta razón, nos comprometemos a ajustar nuestras pautas con el tiempo, siguiendo la evolución del proyecto Diffusers y los valiosos comentarios de la comunidad que lo mantiene vivo.

  • Transparencia: nos comprometemos a ser transparentes en la gestión de las solicitudes de extracción, explicando nuestras elecciones a los usuarios y tomando decisiones técnicas.
  • Consistencia: nos comprometemos a garantizar a nuestros usuarios el mismo nivel de atención en la gestión del proyecto, manteniéndolo técnicamente estable y consistente.
  • Simplicidad: con el deseo de facilitar el uso y aprovechamiento de la biblioteca Diffusers, nos comprometemos a mantener los objetivos del proyecto simples y coherentes.
  • Accesibilidad: el proyecto Diffusers ayuda a reducir la barrera de entrada para los colaboradores que pueden ayudar a ejecutarlo incluso sin experiencia técnica. Al hacerlo, se hacen más accesibles los artefactos de investigación para la comunidad.
  • Reproducibilidad: nuestro objetivo es ser transparentes sobre la reproducibilidad del código, modelos y conjuntos de datos cuando se ponen a disposición a través de la biblioteca Diffusers.
  • Responsabilidad: como comunidad y a través del trabajo en equipo, tenemos una responsabilidad colectiva hacia nuestros usuarios anticipando y mitigando los posibles riesgos y peligros de esta tecnología.

Además, proporcionamos una lista no exhaustiva, ¡y esperamos que en constante expansión!, de características y mecanismos de seguridad implementados por el equipo de Hugging Face y la comunidad en general.

  • Comunidad: permite a la comunidad discutir y colaborar mejor en un proyecto.

  • Función de etiqueta: los autores de un repositorio pueden etiquetar su contenido como “No apto para todos los ojos”.

  • Exploración y evaluación de sesgos: el equipo de Hugging Face proporciona un Espacio para demostrar los sesgos en Stable Diffusion y DALL-E de manera interactiva. En este sentido, apoyamos y fomentamos la exploración y evaluación de sesgos.

  • Promoción de la seguridad en la implementación

    • Safe Stable Diffusion: mitiga el conocido problema de que los modelos, como Stable Diffusion, entrenados en conjuntos de datos no filtrados obtenidos de la web tienden a sufrir de degradación inapropiada. Paper relacionado: Safe Latent Diffusion: Mitigating Inappropriate Degeneration in Diffusion Models.

    • Liberación escalonada en el Hub: en situaciones particularmente sensibles, el acceso a algunos repositorios debe estar restringido. Esta liberación escalonada es un paso intermedio que permite a los autores del repositorio tener más control sobre su uso.

  • Licencias: OpenRAILs, un nuevo tipo de licencia, nos permite garantizar el acceso gratuito al tiempo que establecemos restricciones que aseguran un uso más responsable.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Investigación

Investigadores de LinkedIn y UC Berkeley proponen un nuevo método para detectar fotos de perfil generadas por IA.

La sofisticación de los perfiles falsos ha aumentado junto con la proliferación de medios generados por inteligencia ...

Inteligencia Artificial

Construyendo un Agente Conversacional con un Microservicio de Memoria con OpenAI y FastAPI

Desbloqueando Posibilidades Desarrolla Agentes Potenciados por IA con Python para Experiencias Personalizadas. Aprend...

Inteligencia Artificial

La colaboración multi-AI ayuda al razonamiento y la precisión factual en modelos de lenguaje grandes.

Los investigadores utilizan múltiples modelos de IA para colaborar, debatir y mejorar sus habilidades de razonamiento...

Inteligencia Artificial

Inteligencia Artificial y la Estética de la Generación de Imágenes

Introducción En esta emocionante integración de tecnología y capacidad creativa, la inteligencia artificial (IA) ha d...

Inteligencia Artificial

Microsoft AI lanza LLMLingua una técnica única de compresión rápida que comprime los mensajes para acelerar la inferencia de Modelos de Lenguaje Grandes (LLMs)

Los Modelos de Lenguaje de Gran Tamaño (LLM, por sus siglas en inglés), debido a su gran capacidad de generalización ...