EU AI Act ¿Un paso prometedor o una apuesta arriesgada para el futuro de la IA?

EU AI Act Promising step or risky bet for the future of AI?

El Acta de IA de la UE aparentemente tiene una gran laguna. Y esto podría significar eludir masivamente las regulaciones de IA por parte de gigantes tecnológicos como OpenAI

Imagen: Creador de imágenes de Bing + Canva

I. El primer salto en la regulación de IA está aquí

La UE terminó de redactar su Acta de IA este año el 14 de junio.

Y este es un salto inicial hacia una IA segura y mejor. Como sabrás, el Acta de IA de la UE es la primera ley de regulación internacional realizada sobre “Inteligencia Artificial”. Esta ley establece normas y regulaciones para que las empresas (llamadas proveedores) construyan sistemas de IA éticos. Los países europeos, así como importantes empresas de IA como OpenAI, han presentado sus propias sugerencias al parlamento.

El Acta de Inteligencia Artificial (AIA por sus siglas en inglés) insta a las empresas a seguir ciertos requisitos al trabajar con sistemas de IA. Esto incluye hacer KYC de los proveedores, revelar la arquitectura del sistema, detalles sobre la privacidad de los datos, etcétera. Esta ley fue el resultado de tres años de intensa elaboración de políticas, aunque los esfuerzos conjuntos de la UE en esta área se remontan a 2017. Sin embargo, fue recientemente cuando se hizo evidente la necesidad de regulaciones y ética en IA.

La gente se dio cuenta del poder de la magia de la IA, con herramientas como ChatGPT y Dalle, que funcionaban de manera tremendamente rápida, convirtiendo a todos en artistas y poetas de la noche a la mañana.

La gente se maravilló de la capacidad de las herramientas de IA. Y más tarde, se preocuparon por su seguridad. Se hizo evidente que estas máquinas podían generar desinformación convincente. El plagio y los problemas de derechos de autor causados por estos magos son un debate interminable en sí mismo, especialmente en el ámbito creativo.

Mientras que por un lado, la gente vendía cursos sobre indicaciones de IA y “las mejores X herramientas de IA que necesitas conocer antes de que el mundo se acabe…”, por otro lado había preocupación por la IA acelerada. Estas preocupaciones fueron planteadas predominantemente por expertos en IA. Y se preocuparon por la seguridad de estos magos que funcionan con algoritmos.

Fuente: https://www.metaculus.com/questions/8787/passing-of-the-ai-act/

¿Cuándo aprobará la UE el Acta de IA?

Tu envío ahora es un borrador. Una vez que esté listo, envía tu borrador para su revisión por parte de nuestro equipo de la comunidad…

www.metaculus.com

Mientras escribo esto, la legislación de la AIA todavía está en proceso. Su aplicación se realizará probablemente en 2023 o 2024. Además, habrá un período de gracia de potencialmente 24-36 meses antes de que la Ley entre en vigor. Suponiendo que el Acta de IA se redacte a finales de año, aún no estará plenamente en acción hasta dentro de dos o tres años.

Ahora que el Acta aún se está elaborando, este es un buen momento para analizarlo y ver si realmente puede controlar a estos magos de IA, o si hay algunas lagunas sospechosas en ellas.

II. Magos y su hechizo

Las empresas que apuestan por la IA lideran el futuro y la fortuna al mismo tiempo. El mercado mundial de IA generativa tiene un valor de más de $13 mil millones. Y cuando intentas regular una industria de esa magnitud, que superará los $22 mil millones para 2025, las regulaciones se vuelven desalentadoras. Sin mencionar que siempre hay una laguna en un proyecto de este tamaño.

Y tal es el caso de la AIA.

La AIA es importante y en los próximos años otras uniones intentarán construir sus propias leyes sobre esta estructura, haciéndolas consistentes a nivel mundial. Empresas como OpenAI y Anthropic, los grandes gigantes tecnológicos en el frente de la IA, ambos buscaron un organismo de regulación universal que establezca leyes sobre IA.

Mientras que la Ley de IA tuvo en cuenta la seguridad social, también creó regulaciones para apoyar a las empresas bajo dichas regulaciones, permitiéndolas prosperar sin aumentar la competencia. Esto se debe a que la Ley de IA requiere que las empresas compartan la información de su sistema con otros proveedores.

La responsabilidad es un problema importante al utilizar estas bestias algorítmicas. Esto crea un vacío, ya que ¿quién será responsable si estos magos se descontrolan?

La AIA abordó este vacío al aclarar los roles y responsabilidades de los proveedores de IA.

Con el aumento de startups de IA este año, la pregunta sobre los recursos computacionales, así como la cantidad de datos de entrenamiento, es crucial abordar. La Ley de IA busca poner un límite al entrenamiento de nuevos modelos, asegurando el desarrollo seguro de estos sistemas de IA. Fuente: Servilla et al. (2022)

Con el aumento de startups de IA este año, la pregunta sobre los recursos computacionales, así como la cantidad de datos de entrenamiento, es crucial abordar. La Ley de IA busca poner un límite al entrenamiento de nuevos modelos, asegurando el desarrollo seguro de estos sistemas de IA.

La AIA tiene en cuenta los intereses tanto de los proveedores (empresas de IA) como de los consumidores (los usuarios). Las innovaciones en IA deben continuar, a la vez que se abordan los riesgos asociados. Parte de hacer que la IA sea segura es desarrollarla de tal manera que sea más segura. Necesitas entrenar a una bestia para que se socialice.

La AIA se aseguró de que la regulación no ahogue a las grandes corporaciones ni obstaculice el avance tecnológico futuro.

Por supuesto, el borrador de la IA no puede satisfacer a todas las partes. Este fue el caso, obviamente, para las grandes empresas.

Las grandes corporaciones alegan que la UE está sobre regulando.

Recientemente, varios ejecutivos de grandes empresas tecnológicas, más de 150 para ser precisos, firmaron una carta abierta a la UE alegando que la AIA está sobre regulando la IA. Esta carta incluía las firmas de importantes líderes tecnológicos, como los CEOs de Renault y Siemens, el director ejecutivo de Heineken, el científico jefe de IA de Meta, entre otros.

Además, el poderoso CEO de OpenAI, Sam Altmann, también expresó su preocupación al afirmar que tendría que abandonar la UE si las reglas son demasiado estrictas. Según la AIA, tanto ChatGPT como su modelo de lenguaje GPT-4 podrían ser etiquetados como ‘alto riesgo’. Te mostraré lo que significa ‘alto riesgo’ en un momento.

Además, según Time, el CEO de OpenAI dijo: “Si podemos cumplir, lo haremos, y si no podemos, dejaremos de operar… Lo intentaremos. Pero hay límites técnicos a lo que es posible.”

En otro artículo de Times, se informó que OpenAI supuestamente intentó influir en la UE para que redactara a su favor. Y parece que sus esfuerzos dieron resultado en cierto sentido. Por otro lado, un artículo de Reuters informó que los legisladores de la UE estaban endureciendo las normas de la IA.

Dado que la Ley de IA en sí es exhaustiva, me referí al análisis realizado por una organización sin fines de lucro llamada Future Life Institute (FLI). Si recuerdas, esta fue la misma organización que emitió una carta abierta pidiendo una pausa de 6 meses en el desarrollo de la IA, que fue firmada por 1,125 líderes tecnológicos y expertos en IA.

El otro día, descubrí que FLI tenía su boletín semanal sobre la Ley de IA de la UE en Substack, mantenido por Risto Uuk, donde publica aspectos destacados, eventos importantes y análisis de FLI sobre la ley de la UE.

FLI ha hecho un buen trabajo al analizar la AIA. FLI ha investigado en el campo de la ética de la IA. FLI desarrolló el principio Asilomar AI, que es un conjunto de 23 pautas para el desarrollo seguro de la Inteligencia Artificial.

¡Hola lectores! Espero que estén disfrutando de este artículo. Este artículo es parte de mi boletín Creative Block, un boletín semanal sobre Tecnología e IA.

Si te gustaría leer más contenido como este, visita Creative Block.

Mientras leía uno de sus análisis, vi que la Ley de IA tiene algunos cambios clave que hacer. Tiene lagunas, bastante serias de hecho, que podrían permitir a los malos actores abusar de estas bestias de IA no reguladas.

Entonces, ¿cuáles son estas lagunas?

III. Sistemas de alto riesgo y evadir como excepciones

La AIA se basa en un enfoque basado en el riesgo.

Según este enfoque, se prohíben algunos usos de IA que se consideran perjudiciales; algunos usos deben seguir reglas estrictas; y algunos usos no perjudiciales de IA no están cubiertos por la AIA.

El segundo, es decir, aquellos sistemas que están sujetos a requisitos estrictos, se clasifican como sistemas de “alto riesgo”.

Cómo se clasifica el riesgo de IA según la UE. Fuente: https://www.ey.com/en_ch/ai/eu-draft-regulation-on-artificial-intelligence

Según la UE, los sistemas de “alto riesgo” son aquellos que afectarán negativamente a usted y a sus derechos fundamentales. La UE clasifica ampliamente los sistemas de alto riesgo en dos categorías:

1) Productos de IA que están sujetos a la legislación de seguridad de productos de la UE, que son los productos que la UE ha prohibido o retirado del mercado, o

2) Sistemas de IA que se encuadran en las siguientes ocho áreas específicas:

  • Identificación biométrica y categorización de personas naturales
  • Gestión y operación de infraestructuras críticas
  • Educación y formación profesional
  • Empleo, gestión de trabajadores y acceso al trabajo autónomo
  • Acceso y disfrute de servicios esenciales privados y servicios públicos y beneficios
  • Aplicación de la ley
  • Gestión de migración, asilo y control de fronteras
  • Asistencia en la interpretación y aplicación legal de la ley.

Si un sistema de IA se encuadra en alguno de los puntos enumerados anteriormente, se le considera de alto riesgo. Y sí, si te lo estabas preguntando, ChatGPT (especialmente la versión GPT4) parece encajar en todos ellos.

Y esto ha hecho que OpenAI se preocupe por la Ley de IA. Los presuntos esfuerzos de cabildeo de OpenAI podrían ser una de las razones. Evidentemente, muchas de sus aplicaciones, principalmente ChatGPT y su modelo GPT4, se clasificarían como de alto riesgo.

Tomemos este caso y preguntemos: ¿Se pueden considerar ChatGPT y GPT4 de alto riesgo? Y antes de que respondas, permíteme formular la pregunta a la manera de OpenAI: ¿Estas herramientas son inherentemente de alto riesgo?

La respuesta parece clara a partir de lo que hemos observado en los últimos meses. Las herramientas de IA como ChatGPT son de alto riesgo.

Ha habido ocasiones en las que estas herramientas han representado riesgos significativos. La desinformación por parte de estas herramientas sigue siendo un problema, alucinan y sueltan mentiras convincentes, aparentemente los líderes ponen fin a las guerras gracias a deep fakes, generan tus datos en internet, innumerables conflictos de derechos de propiedad intelectual… y muchos más. La lista continúa.

Intenté ser justo y mostrar los escenarios amplios de estos riesgos. Sin embargo, no soy ciego ante el hecho de que estas máquinas han demostrado ser perjudiciales a nivel individual.

Algunas cosas malas han sucedido debido a la IA. Por ejemplo, una persona se suicidó y escribí al respecto antes. Otro ejemplo es cuando algunos abogados tuvieron problemas por usar ChatGPT, ya que no sabían que el chatbot inventaba fuentes falsas. Estos son algunos ejemplos del lado oscuro de la IA.

No querrás despertar con esto en tu Feed de Noticias, ¿verdad? (fuente: Wion en msn.com)

Como puedes ver, puedo seguir y seguir. Para cuando publique esta publicación, habrá surgido otro incidente en el que las personas enfrentaron problemas. Alguien en algún lugar del vasto mundo se convierte en víctima de estos hechizos del mago de la IA. Esto muestra los límites del daño que estas máquinas algorítmicas tienen. Estos límites son prácticamente ilimitados.

FLI notó que sistemas como ChatGPT pueden evitar la etiqueta de alto riesgo, gracias al Artículo 4c de la AIA.

IV. Artículo 4c — La cláusula no vista de la AIA

El Artículo 4c es la excepción del Artículo 4b de la AIA.

El Artículo 4b establece las reglas para el desarrollo de los sistemas de IA y los proveedores de dichos sistemas. Según este artículo, si tienes la intención de crear un sistema de alto riesgo, debes proporcionar detalles de tu sistema a ‘otros’ proveedores como tú.

Esto es mal visto por las empresas de IA ya que tendrían que revelar información sobre su propio sistema. Esto también llevaría a una fuerte competencia en el mercado.

Clasificación de alto riesgo. Fuente: https://ai-regulation.com/guidance-on-high-risk-ai-systems-under-eu-ai-act/

La excepción a esta regla surge en la definición del Artículo 4c. Según esto, tú (como proveedor) NO tendrías que revelar información sobre tu sistema SI tu sistema no está clasificado como ‘alto riesgo’. Esto se podría lograr declarando que eliminaste todos los elementos de alto riesgo de tu sistema.

Esta ley es una disposición que permite a los proveedores evadir sus obligaciones. Si pueden convencer de que sus sistemas no son de ‘alto riesgo’ —y que no serán mal utilizados— no tendrán que revelar su sistema de IA.

La divulgación de cómo se crea un sistema de IA es vital para asegurarse de que los proveedores lo estén desarrollando de manera ética y segura.

Esto se convierte en la puerta trasera para evadir responsabilidades de los grandes jugadores en el mercado de la IA. Los expertos en IA y el FLI quieren que este artículo sea eliminado, ya que esto podría permitir a los gigantes tecnológicos evadir sus obligaciones y el juego limpio.

Esto podría ser una gran brecha, pero no considero que sea una gran falla en la AIA. Lo que se necesita en este momento es una mejor revisión de este artículo, o mejor aún, desechar por completo esta excepción.

La buena noticia es que la AIA todavía está en borrador. El FLI señaló este vacío y lo mencionó en su análisis.

Un aspecto destacado de la AIA, a pesar de la reacción negativa de las grandes corporaciones preocupadas por la sobre-regulación, es que la ley tiene como objetivo garantizar que las organizaciones europeas puedan mantenerse competitivas. Especialmente con otros actores importantes en países como Estados Unidos y China.

Por ejemplo, OpenAI y Anthropic se encuentran en Estados Unidos, mientras que Baidu Ernie se encuentra en China. Todos ellos son actores destacados en la carrera de la IA (aunque este último no tanto). Por lo tanto, en términos de competencia, las empresas europeas tienen un largo camino por recorrer para estar a la altura de la competencia.

V. El futuro acelerado, con un toque de realidad

Siguiendo la tendencia, con un toque de optimismo, la IA definitivamente moldeará la tecnología del futuro. La IA ya se utiliza en múltiples campos de alguna forma u otra. Ya sea utilizando IA para resolver estructuras de proteínas, utilizando simulaciones de IA en diversas áreas de la ingeniería, modernizando la educación utilizando IA, o incluso utilizando IA para cepillarse los dientes u otros casos de uso extraños, la IA se convertirá en lo normal, al igual que los teléfonos inteligentes.

Con tanta dependencia bajo un mismo paraguas, la seguridad y la ética también son características importantes que deben abordarse lo antes posible. ¿Podría ser un estilo de vida impulsado por la IA lo normal? Probablemente. Eso es debatible.

Es importante que las grandes corporaciones aborden estos problemas y desempeñen sus roles sinceramente con esfuerzos combinados. Y sí, los gigantes tecnológicos tienen responsabilidad porque son quienes están guiando al mundo hacia la nueva era de la IA.

Abordar las lagunas y cambiarlas temprano en la fase de borrador es mejor que perder tiempo enmendándolas más tarde.

Sin embargo, no todos los líderes tecnológicos muestran arrogancia, ni el concepto de ética en la IA es puramente imaginario. Por supuesto, no lo es. Casi todas las grandes compañías de IA tienen su propio código de seguridad. Pero la industria de la IA está en gran parte no regulada en este momento. Los modelos de IA llevan el riesgo inherente de lo que uno no podría prever. Los esfuerzos regulatorios llegaron demasiado tarde, ya que la IA floreció más que nunca. Pero más vale tarde que nunca, y la UE, afortunadamente, dio el primer paso importante para mantener la medida,

Mientras que puede ser un pequeño paso para una unión de 28 países, representa un salto significativo para el futuro de las personas en línea en esta nueva era de IA.

¿Estás interesado en mantenerte al día con los últimos avances en tecnología e inteligencia artificial?

Entonces no querrás perderte mi boletín semanal gratuito en substack, donde comparto ideas, noticias y análisis sobre todo lo relacionado con tecnología, ciencia e IA.

Creative Block | Aditya Anil | Substack

El boletín semanal sobre IA, tecnología y ciencia que te importa. Haz clic para leer Creative Block, por Aditya…

creativeblock.substack.com

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Aprendamos Inteligencia Artificial Juntos - Boletín de la Comunidad Towards AI #4

Buenos días, estimados entusiastas de la IA. En este número, compartimos un nuevo video para nuestra serie de videos ...

Inteligencia Artificial

ULTRA Modelos de base para el razonamiento del gráfico de conocimiento

Entrenar un solo modelo genérico para resolver conjuntos de datos arbitrarios siempre ha sido un sueño para los inves...

Inteligencia Artificial

AI Sesgo Desafíos y Soluciones

¿De dónde proviene el sesgo en la inteligencia artificial? Una vez que lo encontramos, ¿cómo podemos reducirlo o elim...

Inteligencia Artificial

IA Generativa en la Salud

Introducción La inteligencia artificial generativa ha ganado repentinamente tracción en los últimos años. No es sorpr...

Ciencia de Datos

10 Preguntas más frecuentes sobre listas en Python en Stack Overflow

Stack Overflow es una mina de oro de información donde puedes encontrar miles de preguntas y respuestas en software, ...