Conoce los Modelos de Difusión Compartimentados (CDM) Un enfoque de IA para entrenar diferentes modelos de difusión o indicaciones en distintas fuentes de datos.

Conoce los Modelos de Difusión Compartimentados (CDM), un enfoque de IA para entrenar modelos de difusión en distintas fuentes de datos.

Con los avances recientes en tecnología y en el campo de la Inteligencia Artificial, ha habido mucho progreso y mejora. Ya sea la generación de texto utilizando el conocido modelo ChatGPT o la generación de texto a imagen; todo es ahora factible. Los modelos de difusión han despertado mucho interés debido a su capacidad de permitir a las personas crear visuales llamativos utilizando sugerencias verbales directas o bocetos sencillos. El volumen masivo de datos de entrenamiento dificulta confirmar el origen de cada imagen, lo que ha llevado a plantear preguntas sobre la identificación precisa de la fuente de las fotos generadas.

Se han sugerido diversas estrategias para abordar este problema, incluyendo limitar la influencia de las muestras de entrenamiento antes de usarlas, resolver el impacto de ejemplos de entrenamiento incluidos incorrectamente después de haber sido utilizados, y limitar la influencia de las muestras en la salida del entrenamiento. Otro objetivo es determinar qué muestras tuvieron el mayor impacto en el entrenamiento del modelo para evitar crear imágenes demasiado similares a los datos de entrenamiento. Estas estrategias de protección no han demostrado ser efectivas con los Modelos de Difusión, especialmente en entornos grandes, a pesar de la investigación continua en estas áreas, porque los pesos del modelo combinan datos de varias muestras, lo que dificulta tareas como el desaprendizaje.

Para superar esto, un equipo de investigadores de AWS AI Labs ha introducido la última metodología llamada Modelos de Difusión Compartimentalizados (CDM), que proporciona una forma de entrenar diferentes modelos de difusión o comandos en diversas fuentes de datos y luego combinarlos sin problemas durante la etapa de inferencia. Con el uso de este método, cada modelo puede entrenarse individualmente en diferentes momentos y utilizando diferentes conjuntos de datos o dominios. Estos modelos se pueden combinar para proporcionar resultados con un rendimiento comparable al que podría producir un modelo ideal entrenado con todos los datos de manera simultánea.

La singularidad de los CDM radica en el hecho de que cada uno de estos modelos individuales solo tiene conocimiento del subconjunto particular de datos al que fue expuesto durante el entrenamiento. Esta cualidad crea oportunidades para diversos métodos de protección de los datos de entrenamiento. En el contexto de los modelos de difusión extendidos, los CDM destacan como el primer método que permite tanto el olvido selectivo como el aprendizaje continuo, como resultado de lo cual, los componentes individuales de los modelos pueden cambiar u olvidarse, proporcionando un método más flexible y seguro para que los modelos cambien y se desarrollen con el tiempo.

Los CDM también tienen la ventaja de permitir la creación de modelos únicos basados en los privilegios de acceso del usuario, lo que sugiere que los modelos se pueden modificar para cumplir con requisitos o limitaciones específicas del usuario, mejorando su utilidad práctica y manteniendo la privacidad de los datos. Además de estas características, los CDM ofrecen información sobre la importancia de subconjuntos de datos particulares en la producción de muestras específicas. Esto implica que los modelos pueden proporcionar información sobre las partes de los datos de entrenamiento que tienen un mayor impacto en un resultado dado.

En conclusión, los Modelos de Difusión Compartimentalizados son definitivamente un marco potente que permite el entrenamiento de modelos de difusión distintos en diversas fuentes de datos, que posteriormente se pueden integrar sin problemas para producir resultados. Este método ayuda a preservar los datos y promover el aprendizaje flexible, al tiempo que amplía las capacidades de los modelos de difusión para cumplir con diversos requisitos del usuario.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Aprendizaje Automático

Implemente un punto final de inferencia de ML sin servidor para modelos de lenguaje grandes utilizando FastAPI, AWS Lambda y AWS CDK.

Para los científicos de datos, trasladar los modelos de aprendizaje automático (ML) desde la prueba de concepto a la ...

Inteligencia Artificial

Mejora Amazon Lex con LLMs y mejora la experiencia de las preguntas frecuentes utilizando la ingestión de URL

En el mundo digital de hoy, la mayoría de los consumidores prefieren encontrar respuestas a sus preguntas de servicio...

Inteligencia Artificial

Segmentación de Imágenes Una Guía Detallada

La segmentación de imágenes se refiere a la capacidad de las computadoras (o más precisamente, los modelos almacenado...