OpenAI, Microsoft y Google forman un cuerpo para ayudar en la regulación del desarrollo de la IA

OpenAI, Microsoft, and Google form a body to assist in the regulation of AI development.

El Frontier Model Forum es una nueva organización creada por OpenAI, Microsoft, Anthropic y Google para centrarse en el desarrollo “seguro y responsable” de modelos de IA de vanguardia. Este nuevo organismo de la industria reúne a cuatro de los gigantes tecnológicos más influyentes que desarrollan IA.

Según el grupo, su enfoque estará en lo que se llama modelos de IA de vanguardia, es decir, modelos de IA más avanzados que lo que está disponible actualmente. Brad Smith, el presidente de Microsoft, dijo sobre su motivación: “Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura, segura y permanezca bajo control humano,… Esta iniciativa es un paso vital para reunir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que beneficie a toda la humanidad”.

Los miembros fundadores del foro han declarado que sus objetivos son promover la investigación en seguridad de la IA. Parte de ello implica desarrollar estándares para la elevación de modelos, fomentar el desarrollo responsable de modelos de IA avanzados, discutir riesgos de confianza y seguridad con líderes políticos y académicos, y ayudar a desarrollar usos positivos para la IA.

Por lo tanto, esos usos positivos involucran la salud y la ciencia del clima. La membresía está abierta a cualquier organización que cumpla con criterios específicos. Según una publicación en el blog de Microsoft, para ser miembro del Frontier Model Forum, una organización debe cumplir con los siguientes criterios.

  • Desarrollar e implementar modelos de vanguardia (según lo definido por el Foro).
  • Demostrar un fuerte compromiso con la seguridad de los modelos de vanguardia, incluidos enfoques técnicos e institucionales.
  • Estar dispuesto a contribuir al avance de los esfuerzos del Frontier Model Forum, incluida la participación en iniciativas conjuntas y el apoyo al desarrollo y funcionamiento de la iniciativa.

Esto sucede mientras aumentan los llamados a la regulación de la IA en ambos lados del Atlántico, en Estados Unidos y Europa. China ya está implementando nuevos marcos regulatorios de IA generativa, y Corea del Sur y Japón siguen sus planes.

Hace unos días, líderes de la industria hablaron sobre este tema en la Casa Blanca. Esto demuestra que hay un creciente interés en asegurar que el desarrollo de la IA se realice con el mínimo daño posible. En marzo pasado, la Cámara de Comercio de Estados Unidos, el grupo comercial más grande del país, pidió a los responsables políticos que se sumaran a la regulación de la IA.

Esto ocurrió alrededor del mismo tiempo en que Goldman Sachs publicó informes que estimaban que la IA afectaría a cientos de millones de empleos al tiempo que impulsaría el PIB general de la economía mundial. Todo esto también ocurre cuando las principales empresas tecnológicas se comprometen cada vez más con la seguridad de la IA, como el marcado de agua.

Nota del editor: La IA responsable se está convirtiendo en un tema crítico en el desarrollo de la IA, y si desea mantenerse a la vanguardia de los últimos avances, debe escuchar a los líderes de la industria que lideran el camino. Obtendrá eso en la pista de Seguridad y Protección de Aprendizaje Automático de ODSC West 2023. Guarde su asiento y regístrese hoy.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

¡Gol! El equipo de NVIDIA se lleva el trofeo en Sistemas de Recomendación

Un equipo de cinco expertos en aprendizaje automático de NVIDIA, repartidos en cuatro continentes, ganó las tres tare...

Tecnología de IA

David Autor nombrado Científico Distinguido NOMIS 2023

La Fundación NOMIS honra al Profesor Ford de Economía por sus contribuciones en la comprensión de los efectos del cam...

Ciencia de Datos

Revelando el Precision@N y Recall@N en un Sistema de Recomendación

Las métricas de precisión son una métrica útil para evaluar el rendimiento general en el aprendizaje automático, ya q...

Inteligencia Artificial

Proyecto de ley bipartidista propone un panel de expertos para abordar los riesgos y regulaciones de la inteligencia artificial.

El Representante Ted Lieu (D-CA) está liderando el esfuerzo para brindar al Congreso la experiencia necesaria para co...

Ciencias de la Computación

Matthew Kearney Trayendo la inteligencia artificial y la filosofía al diálogo.

La doble especialización en informática y filosofía tiene como objetivo avanzar en el campo de la ética de la intelig...