El Enigma para ChatGPT PUMA es un Enfoque de IA que Propone una Forma Rápida y Segura para la Inferencia de LLM

Enigma para ChatGPT PUMA un enfoque rápido y seguro para la inferencia de LLM en IA.

Los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés) han comenzado una revolución en el campo de la inteligencia artificial. El lanzamiento de ChatGPT ha iniciado la era de los LLMs, y desde entonces los hemos visto mejorar constantemente. Estos modelos son posibles gracias a grandes cantidades de datos y nos han impresionado con sus capacidades, desde dominar la comprensión del lenguaje hasta simplificar tareas complejas.

Se han propuesto numerosas alternativas a ChatGPT, y cada día son mejores, incluso logrando superar a ChatGPT en ciertas tareas. LLaMa, Claudia, Falcon y más; los nuevos modelos de LLM están desafiando el trono de ChatGPT.

Sin embargo, no hay duda de que ChatGPT sigue siendo, con mucho, el LLM más popular. Existe una alta probabilidad de que tu aplicación favorita impulsada por IA sea simplemente una envoltura de ChatGPT, manejando la conexión por ti. Pero, si nos detenemos a pensar en la perspectiva de la seguridad, ¿es realmente privado y seguro? OpenAI se asegura de que la privacidad de los datos de la API sea algo en lo que se preocupan profundamente, pero al mismo tiempo enfrentan numerosas demandas legales. Incluso si trabajan arduamente para proteger la privacidad y seguridad del uso del modelo, estos modelos pueden ser demasiado poderosos para ser controlados.

Entonces, ¿cómo nos aseguramos de poder aprovechar el poder de los LLM sin preocuparnos por la privacidad y la seguridad? ¿Cómo aprovechamos las habilidades de estos modelos sin comprometer datos sensibles? Conozcamos a PUMA.

PUMA es un marco diseñado para permitir la evaluación segura y eficiente de modelos de Transformer, manteniendo la integridad de tus datos. Combina la computación segura entre múltiples partes (MPC, por sus siglas en inglés) con la inferencia eficiente de Transformer.

En su núcleo, PUMA introduce una técnica novedosa para aproximar las funciones no lineales complejas dentro de los modelos de Transformer, como GeLU y Softmax. Estas aproximaciones están diseñadas para mantener la precisión al tiempo que mejoran significativamente la eficiencia. A diferencia de los métodos anteriores que podrían sacrificar el rendimiento o llevar a estrategias de implementación complicadas, el enfoque de PUMA equilibra ambos aspectos, asegurando resultados precisos mientras mantiene la eficiencia necesaria para aplicaciones del mundo real.

PUMA introduce tres entidades fundamentales: el propietario del modelo, el cliente y las partes que realizan los cálculos. Cada entidad juega un papel crucial en el proceso seguro de inferencia.

El propietario del modelo proporciona los modelos de Transformer entrenados, mientras que el cliente contribuye con los datos de entrada y recibe los resultados de la inferencia. Las partes que realizan los cálculos ejecutan colectivamente protocolos de computación segura, asegurando que los datos y los pesos del modelo permanezcan protegidos de manera segura durante todo el proceso. El principio fundamental del proceso de inferencia de PUMA es mantener la confidencialidad de los datos de entrada y los pesos, preservando la privacidad de las entidades involucradas.

La incrustación segura, un aspecto fundamental del proceso de inferencia segura, tradicionalmente implica la generación de un vector one-hot utilizando identificadores de tokens. En cambio, PUMA propone un diseño de incrustación segura que se adhiere estrechamente al flujo de trabajo estándar de los modelos de Transformer. Este enfoque simplificado asegura que las medidas de seguridad no interfieran con la arquitectura inherente del modelo, facilitando la implementación de modelos seguros en aplicaciones prácticas.

Descripción general de los protocolos seguros GeLU y LayerNorm utilizados en PUMA. Fuente: https://arxiv.org/pdf/2307.12533.pdf

Además, un desafío importante en la inferencia segura radica en aproximar funciones complejas, como GeLU y Softmax, de manera que se equilibre la eficiencia computacional y la precisión. PUMA aborda este aspecto al diseñar aproximaciones más precisas adaptadas a las propiedades de estas funciones. Al aprovechar las características específicas de estas funciones, PUMA mejora significativamente la precisión de la aproximación al tiempo que optimiza el tiempo de ejecución y los costos de comunicación.

Finalmente, LayerNorm, una operación crucial dentro del modelo Transformer, presenta desafíos únicos en la inferencia segura debido a la fórmula de división-raíz cuadrada. PUMA aborda esto al redefinir inteligentemente la operación utilizando protocolos seguros, asegurando así que el cálculo de LayerNorm sea seguro y eficiente.

Una de las características más importantes de PUMA es su integración perfecta. El marco facilita la inferencia segura de extremo a extremo para modelos Transformer sin necesidad de realizar modificaciones importantes en la arquitectura del modelo. Esto significa que puedes aprovechar modelos Transformer pre-entrenados con un esfuerzo mínimo. Ya sea un modelo de lenguaje descargado de Hugging Face o de otra fuente, PUMA simplifica las cosas. Se alinea con el flujo de trabajo original y no exige una reentrenamiento o modificaciones complejas.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Construyendo sistemas complejos utilizando ChatGPT

Introducción La inteligencia artificial ha evolucionado más allá de las expectativas con LLMs como ChatGPT. GPT-4, un...

Inteligencia Artificial

Conoce a SQLCoder Un nuevo modelo de código abierto y de última generación para convertir preguntas en lenguaje natural en consultas SQL

Defog.ai ha lanzado SQLCoder, un modelo de vanguardia para traducir consultas en lenguaje natural en consultas de bas...

Inteligencia Artificial

La Desesperada Búsqueda del Premio Más Indispensable del Auge de la Inteligencia Artificial

Para alimentar los productos de inteligencia artificial, las nuevas empresas y los inversores están tomando medidas e...

Inteligencia Artificial

Crea una tubería de inferencia de IA para imágenes médicas con MONAI Deploy en AWS

En esta publicación, te mostramos cómo crear un conector MAP para AWS HealthImaging, que es reutilizable en aplicacio...

Inteligencia Artificial

Hacia la IA General el papel de LLMs y Modelos Fundamentales en la Revolución del Aprendizaje de por Vida

En la última década y especialmente con el éxito del aprendizaje profundo, se ha formado una discusión continua en to...

Aprendizaje Automático

Conoce a ChatGLM2-6B la versión de segunda generación del modelo de chat de código abierto bilingüe (chino-inglés) ChatGLM-6B.

Desde la introducción del revolucionario ChatGPT de OpenAI, que rompió récords al obtener los 100 millones de usuario...