Engañando a los clasificadores forenses El poder de los modelos generativos en la generación adversarial de rostros

Engañando a los clasificadores forenses El poder de los modelos generativos en la generación adversarial de rostros

Los avances recientes en el Aprendizaje Profundo (DL), específicamente en el campo de las Redes Generativas Adversariales (GAN), han facilitado la generación de rostros humanos altamente realistas y diversos que no existen en la realidad. Si bien estos rostros creados artificialmente han encontrado numerosas aplicaciones beneficiosas en áreas como los videojuegos, la industria del maquillaje y los diseños asistidos por computadora, plantean importantes preocupaciones de seguridad y ética cuando se utilizan de manera incorrecta.

El uso indebido de rostros sintéticos o falsos puede tener graves repercusiones. Por ejemplo, ha habido casos en los que se emplearon imágenes de rostros generadas por GAN en las elecciones de Estados Unidos para crear perfiles fraudulentos en las redes sociales, lo que permitió la rápida difusión de desinformación entre grupos específicos. De manera similar, un estudiante de secundaria de 17 años logró engañar a Twitter para verificar una foto de perfil falsa de un candidato al Congreso de Estados Unidos, utilizando un potente modelo generativo conocido como StyleGAN2. Estos incidentes destacan los riesgos potenciales asociados con el uso indebido de imágenes de rostros generadas por GAN, resaltando la importancia de abordar las implicaciones de seguridad y ética de su uso.

Para abordar el problema de los rostros falsos generados sintéticamente por GAN, se han propuesto varios métodos para diferenciar entre rostros falsos generados por GAN y rostros reales. Los hallazgos informados en estos estudios sugieren que los clasificadores simples basados en aprendizaje profundo supervisado suelen ser altamente efectivos para detectar imágenes generadas por GAN. Estos clasificadores se conocen comúnmente como clasificadores o modelos forenses.

Sin embargo, un atacante inteligente podría manipular estas imágenes falsas utilizando técnicas de aprendizaje automático adversarial para evadir los clasificadores forenses mientras mantiene una alta calidad visual. Una investigación reciente explora esta dirección al demostrar que la exploración adversarial del espacio latente del modelo generativo a través de la optimización del espacio latente puede generar rostros realistas que son clasificados erróneamente por detectores forenses específicos. Además, demuestran que los rostros falsos adversariales resultantes exhiben menos artefactos en comparación con los ataques adversariales tradicionales que imponen restricciones en el espacio de la imagen.

Este trabajo, sin embargo, tiene una limitación significativa. A saber, carece de la capacidad para controlar los atributos de los rostros adversariales generados, como el color de piel, la expresión o la edad. El control de estos atributos faciales es crucial para los atacantes que buscan difundir rápidamente propaganda falsa a través de plataformas de redes sociales, dirigidas específicamente a ciertos grupos étnicos o de edad.

Dadas las posibles implicaciones, se vuelve imperativo que los investigadores forenses de imágenes exploren y desarrollen ataques condicionados por atributos. De esta manera, pueden descubrir las vulnerabilidades de los clasificadores forenses faciales existentes y, en última instancia, trabajar hacia el diseño de mecanismos de defensa eficaces en el futuro. La investigación explicada en este artículo tiene como objetivo abordar la necesidad apremiante de control de atributos en los ataques adversariales, asegurando una comprensión integral de las vulnerabilidades y promoviendo el desarrollo de contramedidas robustas.

A continuación se informa una descripción general del método propuesto.

Se presentan dos arquitecturas, una relacionada con la generación basada en atributos y otra para la generación de texto. De hecho, ya sea impulsado por imágenes o guiado por texto, el método propuesto tiene como objetivo generar rostros falsos adversariales realistas que puedan engañar a los detectores forenses faciales. La técnica utiliza el espacio latente altamente desentrelazado de StyleGAN2 para construir ataques sin restricciones condicionados por atributos dentro de un marco unificado.

Específicamente, se introduce un algoritmo eficiente para optimizar adversarialmente las variables latentes específicas de atributos para generar un rostro falso que exhiba los atributos presentes en una imagen de referencia dada. Este proceso transfiere de manera efectiva detalles deseados a nivel grueso o fino de la imagen de referencia a la imagen falsa generada. Los atributos semánticos se transfieren de una imagen de referencia proporcionada al realizar la condición de atributo basada en imágenes. Esto se logra buscando en el espacio adversarial mientras se guía por una pérdida perceptual, lo que permite la transferencia de atributos deseados a la imagen falsa generada.

Además, se aprovechan las capacidades conjuntas de representación de imágenes y texto del Preentrenamiento Contrastivo de Lenguaje-Imagen (CLIP) para generar caras falsas basadas en descripciones de texto proporcionadas. Esto permite garantizar la coherencia entre la imagen adversaria generada y la descripción de texto correspondiente. Al utilizar el espacio de características guiado por texto de CLIP, el método busca códigos latentes adversarios dentro de este espacio de características, lo que permite generar caras falsas que se alinean con los atributos descritos en el texto acompañante.

A continuación, se presentan algunos resultados disponibles en el artículo.

Este fue el resumen de una nueva técnica de IA para generar caras adversarias realistas y evadir clasificadores forenses. Si estás interesado y deseas obtener más información sobre este trabajo, puedes encontrar información adicional haciendo clic en los enlaces a continuación.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

La ciudad más avanzada tecnológicamente de Estados Unidos tiene dudas sobre los coches autónomos

Los funcionarios y residentes de San Francisco no están impresionados por los autos autónomos, subrayando los desafío...

Inteligencia Artificial

Sam Altman despedido como CEO de OpenAI

En un giro sorprendente de los acontecimientos, OpenAI, el principal laboratorio de investigación en inteligencia art...

Inteligencia Artificial

Investigadores de CMU proponen TIDEE Un agente incorporado que puede ordenar habitaciones nunca antes vistas sin ninguna instrucción explícita

La operación efectiva de un robot requiere más que simplemente obedecer ciegamente comandos predefinidos. Los robots ...

Inteligencia Artificial

Olvida ChatGPT, este nuevo asistente de IA está a años luz y cambiará la forma en que trabajas para siempre

Apuesto a que no estás familiarizado/a con esta aplicación de IA rápida, que proporciona flexibilidad, facilidad de u...

Noticias de Inteligencia Artificial

Robot utiliza una frambuesa falsa para practicar la recolección de frutas.

Los científicos diseñaron un robot que practicó la recolección de frambuesas en una réplica de frambuesa de silicona ...

Inteligencia Artificial

Conoce vLLM una biblioteca de aprendizaje automático de código abierto para una inferencia y servicio LLM rápidos

Los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) tienen un impacto cada vez mayor en cómo cambian nue...