Engañando a los clasificadores forenses El poder de los modelos generativos en la generación adversarial de rostros

Engañando a los clasificadores forenses El poder de los modelos generativos en la generación adversarial de rostros

Los avances recientes en el Aprendizaje Profundo (DL), específicamente en el campo de las Redes Generativas Adversariales (GAN), han facilitado la generación de rostros humanos altamente realistas y diversos que no existen en la realidad. Si bien estos rostros creados artificialmente han encontrado numerosas aplicaciones beneficiosas en áreas como los videojuegos, la industria del maquillaje y los diseños asistidos por computadora, plantean importantes preocupaciones de seguridad y ética cuando se utilizan de manera incorrecta.

El uso indebido de rostros sintéticos o falsos puede tener graves repercusiones. Por ejemplo, ha habido casos en los que se emplearon imágenes de rostros generadas por GAN en las elecciones de Estados Unidos para crear perfiles fraudulentos en las redes sociales, lo que permitió la rápida difusión de desinformación entre grupos específicos. De manera similar, un estudiante de secundaria de 17 años logró engañar a Twitter para verificar una foto de perfil falsa de un candidato al Congreso de Estados Unidos, utilizando un potente modelo generativo conocido como StyleGAN2. Estos incidentes destacan los riesgos potenciales asociados con el uso indebido de imágenes de rostros generadas por GAN, resaltando la importancia de abordar las implicaciones de seguridad y ética de su uso.

Para abordar el problema de los rostros falsos generados sintéticamente por GAN, se han propuesto varios métodos para diferenciar entre rostros falsos generados por GAN y rostros reales. Los hallazgos informados en estos estudios sugieren que los clasificadores simples basados en aprendizaje profundo supervisado suelen ser altamente efectivos para detectar imágenes generadas por GAN. Estos clasificadores se conocen comúnmente como clasificadores o modelos forenses.

Sin embargo, un atacante inteligente podría manipular estas imágenes falsas utilizando técnicas de aprendizaje automático adversarial para evadir los clasificadores forenses mientras mantiene una alta calidad visual. Una investigación reciente explora esta dirección al demostrar que la exploración adversarial del espacio latente del modelo generativo a través de la optimización del espacio latente puede generar rostros realistas que son clasificados erróneamente por detectores forenses específicos. Además, demuestran que los rostros falsos adversariales resultantes exhiben menos artefactos en comparación con los ataques adversariales tradicionales que imponen restricciones en el espacio de la imagen.

Este trabajo, sin embargo, tiene una limitación significativa. A saber, carece de la capacidad para controlar los atributos de los rostros adversariales generados, como el color de piel, la expresión o la edad. El control de estos atributos faciales es crucial para los atacantes que buscan difundir rápidamente propaganda falsa a través de plataformas de redes sociales, dirigidas específicamente a ciertos grupos étnicos o de edad.

Dadas las posibles implicaciones, se vuelve imperativo que los investigadores forenses de imágenes exploren y desarrollen ataques condicionados por atributos. De esta manera, pueden descubrir las vulnerabilidades de los clasificadores forenses faciales existentes y, en última instancia, trabajar hacia el diseño de mecanismos de defensa eficaces en el futuro. La investigación explicada en este artículo tiene como objetivo abordar la necesidad apremiante de control de atributos en los ataques adversariales, asegurando una comprensión integral de las vulnerabilidades y promoviendo el desarrollo de contramedidas robustas.

A continuación se informa una descripción general del método propuesto.

Se presentan dos arquitecturas, una relacionada con la generación basada en atributos y otra para la generación de texto. De hecho, ya sea impulsado por imágenes o guiado por texto, el método propuesto tiene como objetivo generar rostros falsos adversariales realistas que puedan engañar a los detectores forenses faciales. La técnica utiliza el espacio latente altamente desentrelazado de StyleGAN2 para construir ataques sin restricciones condicionados por atributos dentro de un marco unificado.

Específicamente, se introduce un algoritmo eficiente para optimizar adversarialmente las variables latentes específicas de atributos para generar un rostro falso que exhiba los atributos presentes en una imagen de referencia dada. Este proceso transfiere de manera efectiva detalles deseados a nivel grueso o fino de la imagen de referencia a la imagen falsa generada. Los atributos semánticos se transfieren de una imagen de referencia proporcionada al realizar la condición de atributo basada en imágenes. Esto se logra buscando en el espacio adversarial mientras se guía por una pérdida perceptual, lo que permite la transferencia de atributos deseados a la imagen falsa generada.

Además, se aprovechan las capacidades conjuntas de representación de imágenes y texto del Preentrenamiento Contrastivo de Lenguaje-Imagen (CLIP) para generar caras falsas basadas en descripciones de texto proporcionadas. Esto permite garantizar la coherencia entre la imagen adversaria generada y la descripción de texto correspondiente. Al utilizar el espacio de características guiado por texto de CLIP, el método busca códigos latentes adversarios dentro de este espacio de características, lo que permite generar caras falsas que se alinean con los atributos descritos en el texto acompañante.

A continuación, se presentan algunos resultados disponibles en el artículo.

Este fue el resumen de una nueva técnica de IA para generar caras adversarias realistas y evadir clasificadores forenses. Si estás interesado y deseas obtener más información sobre este trabajo, puedes encontrar información adicional haciendo clic en los enlaces a continuación.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Grupo de noticias dice que los chatbots de inteligencia artificial dependen en gran medida del contenido de noticias

La News Media Alliance, un grupo comercial que representa a los periódicos, afirma que los chatbots de inteligencia a...

Inteligencia Artificial

¿Pueden los LLM reemplazar a los analistas de datos? Construyendo un analista potenciado por LLM

Creo que cada uno de nosotros se ha preguntado al menos una vez durante el año pasado si (o más bien cuándo) ChatGPT ...

Inteligencia Artificial

¿Qué tan fácil es engañar a las herramientas de detección de inteligencia artificial?

Los detectores ignoran todas las pistas de contexto, por lo que no procesan la existencia de un autómata realista en ...

Inteligencia Artificial

El DMV de California suspende los permisos de despliegue y pruebas de cruceros

El Departamento de Vehículos Motorizados de California dice que los vehículos de General Motors Cruise no son seguros...