El caso en contra de la regulación de la IA no tiene sentido

No tiene sentido la regulación de la IA

Opinión

Europa está en el camino correcto: el resto del mundo debería seguirlo

Creado por el autor vía MidJourney

Desde que OpenAI lanzó ChatGPT al mundo a finales de 2022, el mundo ha estado lleno de conversaciones sobre la Inteligencia Artificial Generativa y el futuro que podría crear. Los fanáticos del capitalismo ven esta tecnología como un beneficio neto; la continuación lógica del mundo digital, que ha contribuido a la creación de riqueza incalculable… para unos pocos selectos. Los escépticos, por otro lado, recuerdan lo mejor de la ciencia ficción de los años 80 y temen que estemos en camino de crear nuestro propio HAL / SHODAN / Ultron / SkyNet / GLaDOS.

Estas son las minorías ruidosas. La mayoría de las personas que se les presentan las posibilidades ofrecidas por la Inteligencia Artificial Generativa comprenden que la tecnología es simplemente una herramienta, sin una mente propia. La responsabilidad recae en los usuarios de “hacer el bien” con ella. Y si eso no es posible porque el “bien” es inherentemente subjetivo… entonces los gobiernos democráticos deben intervenir y regular.

Cómo (y si) se debe hacer esto aún se debate acaloradamente. La Unión Europea fue la primera en proponer la Ley de IA. Es un primer borrador imperfecto, pero tiene la ventaja de ser un intento real de gestionar una tecnología altamente disruptiva en lugar de dejar que los multimillonarios tecnológicos tomen decisiones. A continuación se muestra un resumen de la ley propuesta y los pros y contras de tales regulaciones.

¿Qué hay en la Ley de IA de la UE?

La Ley de IA coloca el riesgo en el centro de la discusión: “Las nuevas normas establecen obligaciones para los proveedores y usuarios según el nivel de riesgo de la inteligencia artificial. Si bien muchos sistemas de IA presentan un riesgo mínimo, deben evaluarse”.

  • La IA que representa niveles “inaceptables” de riesgo (manipulación del comportamiento, biometría en tiempo real y remota, puntuación social…) será prohibida
  • Los sistemas de IA de alto riesgo (relacionados con la aplicación de la ley, la educación, la inmigración…) “se evaluarán antes de ponerlos en el mercado y también a lo largo de su ciclo de vida”
  • Los sistemas de IA de riesgo limitado deberán “cumplir con requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones informadas”.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Libre de Limitaciones La Validación de las Alucinaciones de la Máquina en el MoMA

El científico de datos principal en Refik Anadol Studio, Christian Burke, relata su experiencia trabajando en la exhi...

Aprendizaje Automático

Tienes que ajustar esas dimensiones DreamEditor es un modelo de IA que edita escenas en 3D utilizando indicaciones de texto.

El dominio de visión por computadora 3D se ha inundado de NeRF en los últimos años. Surgieron como una técnica innova...

Inteligencia Artificial

Google Research presenta SPAE un AutoEncoder para generación multimodal con Modelos de Lenguaje (LLMs) grandes congelados.

Los Modelos de Lenguaje Grande (LLMs por sus siglas en inglés) han ganado rápidamente una enorme popularidad debido a...

Inteligencia Artificial

Herramienta LLM encuentra y remedia vulnerabilidades de software

La empresa de software Vicarius presentó vuln_GPT, una herramienta de inteligencia artificial generativa que identifi...

Aprendizaje Automático

Ajusta de forma interactiva Falcon-40B y otros LLMs en los cuadernos de Amazon SageMaker Studio utilizando QLoRA.

Ajustar modelos de lenguaje grandes (LLMs) permite adaptar modelos fundamentales de código abierto para lograr un mej...