Pol√≠tica de IA en @ūü§ó Respuesta a la solicitud de comentarios de la NTIA de EE.UU. sobre la responsabilidad de la IA

'AI Policy at @ūü§ó Response to the US NTIA's request for comments on AI accountability.'

El 12 de junio, Hugging Face presentó una respuesta a la solicitud de información del Departamento de Comercio de los Estados Unidos (NTIA) sobre la política de responsabilidad de la inteligencia artificial (IA). En nuestra respuesta, enfatizamos el papel de la documentación y las normas de transparencia en los procesos de responsabilidad de la IA, así como la necesidad de confiar en la amplia gama de conocimientos, perspectivas y habilidades de los diversos interesados en la tecnología para abordar las perspectivas desafiantes de una tecnología cuyo crecimiento sin precedentes plantea más preguntas de las que cualquier entidad individual puede responder.

La misi√≥n de Hugging Face es “democratizar el buen aprendizaje autom√°tico”. Entendemos el t√©rmino “democratizaci√≥n” en este contexto como hacer que los sistemas de aprendizaje autom√°tico no solo sean m√°s f√°ciles de desarrollar e implementar, sino tambi√©n m√°s f√°ciles de entender, interrogar y criticar para sus diversos interesados. Con ese fin, hemos trabajado en fomentar la transparencia y la inclusi√≥n a trav√©s de nuestros esfuerzos educativos, enfoque en la documentaci√≥n, pautas de la comunidad y enfoque de apertura responsable, as√≠ como en el desarrollo de herramientas de bajo y nulo c√≥digo para permitir que personas con diferentes niveles de conocimientos t√©cnicos analicen conjuntos de datos y modelos de aprendizaje autom√°tico. Creemos que esto ayuda a todos los interesados a comprender mejor las limitaciones de los sistemas de aprendizaje autom√°tico y c√≥mo se pueden utilizar de manera segura para servir mejor a los usuarios y a aquellos afectados por estos sistemas. Estos enfoques ya han demostrado su utilidad para promover la responsabilidad, especialmente en los proyectos m√°s grandes y multidisciplinarios que hemos ayudado a organizar, como BigScience (consulte nuestra serie de blogs sobre las implicaciones sociales del proyecto) y el proyecto m√°s reciente BigCode (cuya gobernanza se describe con m√°s detalle aqu√≠).

Concretamente, hacemos las siguientes recomendaciones para los mecanismos de responsabilidad:

  • Los mecanismos de responsabilidad deben centrarse en todas las etapas del proceso de desarrollo de IA. El impacto social de un sistema completo habilitado por IA depende de las decisiones tomadas en cada etapa del desarrollo de maneras imposibles de predecir por completo, y las evaluaciones que se centran √ļnicamente en la etapa de implementaci√≥n corren el riesgo de incentivar el cumplimiento superficial que no aborda problemas m√°s profundos hasta que hayan causado un da√Īo significativo.
  • Los mecanismos de responsabilidad deben combinar requisitos internos con acceso externo y transparencia. Los requisitos internos, como las buenas pr√°cticas de documentaci√≥n, dan forma a un desarrollo m√°s responsable y brindan claridad sobre la responsabilidad de los desarrolladores al permitir una tecnolog√≠a m√°s segura y confiable. El acceso externo a los procesos internos y las decisiones de desarrollo sigue siendo necesario para verificar afirmaciones y documentaci√≥n, y permitir que los muchos interesados en la tecnolog√≠a que se encuentran fuera de su cadena de desarrollo den forma de manera significativa a su evoluci√≥n y promuevan sus intereses.
  • Los mecanismos de responsabilidad deben invitar a la participaci√≥n del conjunto m√°s amplio posible de colaboradores, incluidos los desarrolladores que trabajan directamente en la tecnolog√≠a, las comunidades de investigaci√≥n multidisciplinarias, las organizaciones de defensa, los responsables de pol√≠ticas y los periodistas. Comprender el impacto transformador del r√°pido crecimiento en la adopci√≥n de la tecnolog√≠a de IA es una tarea que est√° m√°s all√° de la capacidad de cualquier entidad individual y requerir√° aprovechar toda la gama de habilidades y conocimientos de nuestra amplia comunidad de investigaci√≥n y de sus usuarios directos y poblaciones afectadas.

Creemos que dar prioridad a la transparencia tanto en los artefactos de aprendizaje automático en sí mismos como en los resultados de su evaluación será fundamental para cumplir con estos objetivos. Puede encontrar nuestra respuesta más detallada abordando estos puntos aquí.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Investigadores de NTU Singapur proponen OtterHD-8B un innovador modelo de IA multimodal evolucionado a partir de Fuyu-8B

Investigadores de S-Lab, Universidad Tecnológica de Nanyang, Singapur, presentan OtterHD-8B, un innovador modelo mult...

Inteligencia Artificial

Expertos en ciberseguridad se disponen a asegurar las elecciones de Estados Unidos en 2024

Un equipo de expertos en ciberseguridad establecido a través del Centro de Intercambio y Análisis de Información Tecn...

Inteligencia Artificial

Together AI presenta Llama-2-7B-32K-Instruct un avance en el procesamiento del lenguaje con contexto extendido

Ha surgido un desafío multifacético en el amplio campo del procesamiento del lenguaje natural: la capacidad de compre...

Inteligencia Artificial

OpenAI revela ChatGPT Enterprise con el poder de GPT-4

OpenAI, la organización pionera en investigación de IA, acaba de presentar un nuevo capítulo emocionante en el mundo ...

Investigación

Usando Inteligencia Artificial, científicos encuentran un medicamento que podría combatir infecciones resistentes a los medicamentos.

El algoritmo de aprendizaje automático identificó un compuesto que mata Acinetobacter baumannii, una bacteria que ace...