Empleando la IA Generativa Desentrañando las implicaciones de ciberseguridad de las herramientas de IA Generativa

Usando IA Generativa para entender implicaciones de ciberseguridad de herramientas de IA Generativa

Es justo decir que la inteligencia artificial generativa ha captado la atención de todas las salas de juntas y líderes empresariales del país. Una vez una tecnología marginal que era difícil de manejar y dominar, las puertas de la inteligencia artificial generativa se han abierto de par en par gracias a aplicaciones como ChatGPT o DALL-E. Ahora estamos presenciando una adopción masiva de la inteligencia artificial generativa en todas las industrias y grupos de edad, ya que los empleados encuentran formas de aprovechar la tecnología a su favor.

Una encuesta reciente indicó que el 29% de la Generación Z, el 28% de la Generación X y el 27% de los Millennials ahora utilizan herramientas de inteligencia artificial generativa como parte de su trabajo diario. En 2022, la adopción a gran escala de la inteligencia artificial generativa fue del 23%, y se espera que esa cifra se duplique al 46% para 2025.

La inteligencia artificial generativa es una tecnología incipiente pero en constante evolución que utiliza modelos entrenados para generar contenido original en diversas formas, desde texto escrito e imágenes, hasta videos, música e incluso código de software. Utilizando modelos de lenguaje de gran tamaño (LLMs) y enormes conjuntos de datos, la tecnología puede crear instantáneamente contenido único que es casi indistinguible del trabajo humano, y en muchos casos más preciso y convincente.

Sin embargo, aunque las empresas están utilizando cada vez más la inteligencia artificial generativa para apoyar sus operaciones diarias, y los empleados han sido rápidos en adoptarla, el ritmo de adopción y la falta de regulación han planteado importantes preocupaciones de ciberseguridad y cumplimiento normativo.

Según una encuesta de la población en general, más del 80% de las personas están preocupadas por los riesgos de seguridad que plantean ChatGPT y la inteligencia artificial generativa, y el 52% de los encuestados quiere que se detenga el desarrollo de la inteligencia artificial generativa para que las regulaciones puedan ponerse al día. Este sentimiento más amplio también ha sido expresado por las propias empresas, con un 65% de los altos líderes de tecnología de la información que no están dispuestos a permitir un acceso sin fricciones a herramientas de inteligencia artificial generativa debido a preocupaciones de seguridad.

La inteligencia artificial generativa sigue siendo un desconocido desconocido

Las herramientas de inteligencia artificial generativa se alimentan de datos. Los modelos, como los utilizados por ChatGPT y DALL-E, se entrenan con datos externos o disponibles libremente en Internet, pero para aprovechar al máximo estas herramientas, los usuarios necesitan compartir datos muy específicos. A menudo, al dar indicaciones a herramientas como ChatGPT, los usuarios compartirán información confidencial de la empresa para obtener resultados precisos y completos. Esto crea muchas incógnitas para las empresas. El riesgo de acceso no autorizado o divulgación no intencionada de información confidencial está “incorporado” cuando se utilizan herramientas de inteligencia artificial generativa disponibles libremente.

Este riesgo en sí mismo no es necesariamente algo malo. El problema es que estos riesgos aún no se han explorado adecuadamente. Hasta la fecha, no ha habido un análisis real del impacto empresarial de utilizar herramientas de inteligencia artificial generativa ampliamente disponibles, y los marcos legales y normativos globales en torno al uso de la inteligencia artificial generativa aún no han alcanzado ningún tipo de madurez.

La regulación aún está en proceso

Los reguladores ya están evaluando las herramientas de inteligencia artificial generativa en términos de privacidad, seguridad de datos y la integridad de los datos que producen. Sin embargo, como suele ocurrir con la tecnología emergente, el aparato regulador para respaldar y gobernar su uso va varios pasos por detrás. Si bien la tecnología está siendo utilizada por empresas y empleados en todas partes, los marcos regulatorios aún están en fase de desarrollo.

Esto crea un riesgo claro y presente para las empresas que, en este momento, no se está tomando tan en serio como debería. Los ejecutivos naturalmente están interesados en cómo estas plataformas introducirán beneficios comerciales materiales, como oportunidades de automatización y crecimiento, pero los gerentes de riesgo se preguntan cómo se regulará esta tecnología, cuáles podrían ser las implicaciones legales en última instancia y cómo se podría comprometer o exponer los datos de la empresa. Muchas de estas herramientas están disponibles libremente para cualquier usuario con un navegador y una conexión a Internet, por lo que, mientras esperan que la regulación se ponga al día, las empresas deben comenzar a pensar muy cuidadosamente en sus propias “reglas internas” sobre el uso de la inteligencia artificial generativa.

El papel de los CISO en la gobernanza de la inteligencia artificial generativa

Con marcos regulatorios aún insuficientes, los Directores de Seguridad de la Información (CISO) deben dar un paso al frente y desempeñar un papel crucial en la gestión del uso de la inteligencia artificial generativa dentro de sus organizaciones. Necesitan comprender quién está utilizando la tecnología y con qué propósito, cómo proteger la información empresarial cuando los empleados interactúan con herramientas de inteligencia artificial generativa, cómo gestionar los riesgos de seguridad de la tecnología subyacente y cómo equilibrar los compromisos de seguridad con el valor que ofrece la tecnología.

Esto no es tarea fácil. Se deben realizar evaluaciones detalladas de riesgos para determinar tanto los resultados negativos como los positivos como resultado de, en primer lugar, implementar la tecnología de manera oficial y, en segundo lugar, permitir que los empleados utilicen herramientas disponibles libremente sin supervisión. Dada la naturaleza de fácil acceso de las aplicaciones de inteligencia artificial generativa, los CISO deberán pensar cuidadosamente en la política de la empresa en torno a su uso. ¿Deben los empleados tener libertad para aprovechar herramientas como ChatGPT o DALL-E para facilitar su trabajo? ¿O debería restringirse o moderarse el acceso a estas herramientas, con pautas y marcos internos sobre cómo deben utilizarse? Un problema obvio es que incluso si se crearan pautas internas de uso, dado el ritmo al que evoluciona la tecnología, podrían quedar obsoletas cuando se finalicen.

Una forma de abordar este problema podría ser alejar el enfoque de las herramientas de IA generativa en sí mismas y, en su lugar, centrarse en la clasificación y protección de datos. La clasificación de datos siempre ha sido un aspecto clave para protegerlos de ser violados o filtrados, y eso también es válido en este caso de uso en particular. Implica asignar un nivel de sensibilidad a los datos, lo que determina cómo deben ser tratados. ¿Deben ser encriptados? ¿Deben ser bloqueados para ser contenidos? ¿Deben ser notificados? ¿Quién debe tener acceso a ellos y dónde se les permite ser compartidos? Al centrarse en el flujo de datos, en lugar de la herramienta en sí misma, los CISO y los oficiales de seguridad tendrán muchas más posibilidades de mitigar algunos de los riesgos mencionados.

Como toda tecnología emergente, la IA generativa es tanto una bendición como un riesgo para las empresas. Si bien ofrece nuevas capacidades emocionantes, como la automatización y la conceptualización creativa, también plantea algunos desafíos complejos en torno a la seguridad de los datos y la protección de la propiedad intelectual. Mientras se establecen los marcos regulatorios y legales, las empresas deben asumir la responsabilidad de equilibrar la oportunidad y el riesgo, implementando controles de políticas propias que reflejen su postura de seguridad general. La IA generativa impulsará el avance de los negocios, pero debemos tener cuidado de mantener una mano en el volante.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Esta Investigación de IA Explica los Rasgos de Personalidad Sintéticos en los Modelos de Lenguaje de Gran Escala (LLMs)

La personalidad de un individuo consiste en una combinación única de cualidades, características y formas de pensar. ...

Inteligencia Artificial

Conoce a RAVEN un modelo de lenguaje codificador-decodificador con mejora en la recuperación que aborda las limitaciones de ATLAS.

Los grandes modelos de lenguaje (LLMs) han desempeñado un papel importante en los últimos avances en el campo del Pro...

Inteligencia Artificial

La Inteligencia Artificial está controlando la lucha contra el robo de paquetes de UPS

UPS y otras grandes empresas de logística están implementando tecnología para reducir el robo de paquetes en los porc...

Inteligencia Artificial

Investigadores de Apple proponen un nuevo modelo de descomposición de tensores para el filtrado colaborativo con retroalimentación implícita

La capacidad para inferir las preferencias del usuario a partir de comportamientos pasados es crucial para ofrecer su...

Inteligencia Artificial

Dispositivo óptico portátil muestra promesa para detectar hemorragias postparto

Un dispositivo óptico portátil desarrollado por investigadores de la Universidad de Washington en St. Louis (WashU) p...

Inteligencia Artificial

NVIDIA brinda apoyo a los esfuerzos de Washington para garantizar la seguridad de la inteligencia artificial

En un evento en la Casa Blanca hoy, NVIDIA anunció su apoyo a compromisos voluntarios que la Administración Biden des...