Conoce a Nous-Hermes-Llama2-70b Un modelo de lenguaje de última generación ajustado finamente en más de 300,000 instrucciones.

Conoce a Nous-Hermes-Llama2-70b, un modelo de lenguaje ajustado en más de 300,000 instrucciones.

El Transformer de Hugging Face es una biblioteca inmensamente popular en Python, que proporciona modelos pre-entrenados que son extraordinariamente útiles para una variedad de tareas de Procesamiento del Lenguaje Natural. Anteriormente solo era compatible con PyTorch, pero ahora también es compatible con Tensorflow. Nous-Hermes-Llama2-70b es el modelo de lenguaje NLP que utiliza más de cientos de miles de instrucciones. Este modelo utiliza el mismo conjunto de datos que el antiguo modelo Hermes para asegurarse de que no haya cambios bruscos graves durante el entrenamiento del modelo y el proceso sea aún más fluido. El modelo todavía tiene algunas deficiencias, como una tasa de alucinación más baja y la ausencia de censura de OpenAI.

El entrenamiento del modelo se realizó en conjuntos de datos más grandes, que eran increíblemente altos en términos de datos procesados y el estilo que tenían. Los datos se encontraron en diferentes fuentes y se fusionaron en un solo conjunto de datos, lo que resultó en una diversidad de conocimientos en el conjunto de datos procesados. El conjunto de datos recopiló información de diferentes fuentes como Teknium, Karan4D, Emozilla, Huemin Art y Pygmalion AI. El modelo se entrena utilizando el modelo Alpaca. El equipo de investigación llevó a cabo una evaluación humana sobre las entradas del conjunto de datos de evaluación de autoinstrucción para evaluar Alpaca. Los investigadores recopilaron este conjunto de evaluación y cubrieron una lista diversa de instrucciones orientadas al usuario que abarcaban casi todo.

Los investigadores también afirmaron que los Ingenieros de Prompts también se beneficiarían de este modelo que se ha ejecutado. Los investigadores creen que liberar los activos mencionados permitirá a la comunidad académica realizar estudios científicos controlados sobre modelos de lenguaje de seguimiento de instrucciones y, en última instancia, resultará en nuevas técnicas para abordar las deficiencias existentes en este modelo. Desplegar una demostración interactiva para Alpaca también plantea riesgos potenciales, como la difusión más amplia de contenido perjudicial y la reducción de las posibilidades de spam. La detección de spam en NLP también juega un papel importante en este modelo. Los investigadores entienden que estas medidas de mitigación se pueden lograr una vez que se publiquen los pesos del modelo o si los usuarios entrenan su propio modelo de seguimiento de instrucciones.

Los planes futuros de este proyecto también incluyen iterar datos de alta calidad y aplicar técnicas para eliminar los datos de baja calidad en el futuro. Los investigadores también necesitan evaluar Alpaca de manera más rigurosa. Además, comenzarán con el modelo HELM, que con suerte capturará más información generativa. Los investigadores también les gustaría estudiar los riesgos de Alpaca y tratarán de mejorar aún más su seguridad.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Cómo gané en el fútbol de fantasía italiano ⚽ utilizando el aprendizaje automático

Como ingeniero mecánico con un gran interés en la programación y la informática, me fasciné por el mundo del aprendiz...

Inteligencia Artificial

Este documento de IA desbloquea el secreto del aprendizaje en contexto cómo los modelos de lenguaje codifican funciones en la magia de vectores

En los modelos de lenguaje transformadores autoregresivos, se identifica un mecanismo neuronal que representa una fun...

Inteligencia Artificial

Meet LLMWare Un marco de Inteligencia Artificial todo en uno para agilizar el desarrollo de aplicaciones basadas en LLM para aplicaciones de IA generativa

A pesar del gran interés en los Modelos de Lenguaje Grande LLM (por sus siglas en inglés) durante el último año, much...

Inteligencia Artificial

Conoce DragonDiffusion un método de edición de imágenes de granulación fina que permite la manipulación estilo arrastrar en modelos de difusión.

Los modelos de difusión de texto a imagen a gran escala (T2I), que tienen como objetivo generar imágenes condicionada...

Inteligencia Artificial

Cómo Nexusflow's NexusRaven-V2 supera a GPT-4 en su propio juego!

En el paisaje en constante evolución de la inteligencia artificial, ha surgido un nuevo contendiente que desafía la d...

Inteligencia Artificial

Nueva York planea invertir 1.000 millones de dólares para expandir la investigación de chips

La medida tiene como objetivo atraer $9 mil millones de inversión corporativa, ya que Nueva York lucha por ser sede d...