Principios efectivos de ingeniería de indicaciones para la aplicación de IA generativa

Principios de ingeniería de indicaciones para IA generativa

En este artículo, te guiaré a través de otro concepto importante de Ingeniería de Prompt en Inteligencia Artificial Generativa. La Ingeniería de Prompt en el campo de la IA implica la creación de fragmentos de texto concisos o frases diseñadas según principios específicos. Estos prompts se utilizan luego con Modelos de Lenguaje de Gran Tamaño (LLMs) para generar contenido de salida de manera efectiva. El proceso de ingeniería de prompts sirve como un bloque de construcción crucial, ya que los prompts incorrectamente construidos pueden llevar a que modelos LLM como ChatGPT generen respuestas ilógicas, sin sentido o fuera de contexto. Por lo tanto, se considera una buena práctica validar los textos de entrada pasados al API del modelo LLM basándose en principios bien definidos de ingeniería de prompts.

Dependiendo de la intención o propósito de las frases de entrada, el modelo puede exhibir varias capacidades. Estas pueden incluir resumir extensas colecciones de textos o contenido, inferir o aclarar temas, transformar los textos de entrada o expandirse sobre la información proporcionada. Al adherirse a los principios de ingeniería de prompts, el modelo de IA puede aprovechar todo su potencial al tiempo que garantiza una salida precisa y contextualmente relevante.

¿Por qué es importante la Ingeniería de Prompt al diseñar un producto basado en IA generativa?

Como puedes ver, un prompt efectivo produciría la mejor respuesta del Modelo de Lenguaje de Gran Tamaño que se utilizará en el producto de IA que estaremos construyendo. Si no se hace suficiente lluvia de ideas al diseñar los Prompts para la instrucción o consulta entrante enviada al LLM, es posible que la aplicación no cumpla con la satisfacción del usuario. Por lo tanto, al diseñar un producto basado en IA generativa, debemos involucrar a Ingenieros de Prompts o Analistas de Lenguaje Natural para sumergirse a fondo y seleccionar prompts efectivos para interactuar con el modelo LLM. Incluso si el producto va a generar prompts dinámicos, debe seguir pautas claras y principios para generar resultados precisos para los usuarios.

En las siguientes secciones, te guiaré a través de algunos prompts de muestra, técnicas y respuestas del LLM para demostrar cómo utilizar la ingeniería de prompts y por qué la tenemos como un bloque de construcción importante.

Utilizaré código Python y el modelo LLM “text-davinci-003” de Open AI con la temperatura configurada en 0 para que las respuestas del LLM siempre sean consistentes y no aleatorias.

Antes de ejecutar el fragmento de código, asegúrate de instalar el paquete requerido.

El siguiente fragmento de código simple muestra una rápida solicitud a OpenAI.

En los siguientes ejemplos, utilizaré la clase PromptTemplate incorporada de Langchain para demostrar algunos principios que debemos seguir estrictamente al diseñar prompts efectivos para nuestro proyecto de IA de próxima generación como parte de la Ingeniería de Prompt.

Principios (Mejores Prácticas) de la Ingeniería de Prompt Efectiva:

No existen reglas predefinidas estrictas para la ingeniería de prompts. No hay un libro de reglas publicado por ningún comité al que debamos adherirnos al hacer ingeniería de prompts. Sin embargo, si seguimos algunas pautas y principios como mejores prácticas, ayudaría a obtener la mejor salida generada por el LLM y resultaría en la satisfacción del cliente.

Las instrucciones deben ser CLARAS y ESPECÍFICAS

Veamos un par de ejemplos.

En el primer ejemplo, le pediré al modelo que resuma algunos contenidos suministrados que obtuve de Wikipedia. Instruiré al modelo que resuma solo lo que se menciona entre las comillas triples (“`).

Cuando colocas tu contexto dentro de un delimitador y agregas la instrucción, no solo evitas cualquier inyección incorrecta de prompt, sino que también le preguntas claramente al LLM qué hacer con el contenido suministrado.

En el siguiente ejemplo, mostraré cómo se puede controlar la salida del modelo. Por ejemplo, le pediré al modelo que genere tres títulos de películas inventados en formato JSON.

Proporcionar Texto de Referencia o Contenido Significativo para el LLM

Al enviar los prompts al LLM, si deseas mantener las respuestas dentro del contexto suministrado, debes proporcionar una referencia concisa. OpenAI GPT tiene limitaciones en la referencia de entrada, por lo que debes invertir mucho esfuerzo en diseñar el contenido de referencia. Proporcionar referencias efectivas y correctas ayudaría a obtener la mejor salida del LLM.

Dar “Tiempo para PENSAR” al GPT

La ingeniería de prompts debe diseñarse de tal manera que el GPT no se apresure a responder; más bien, debe PENSAR y luego proporcionar la respuesta correcta y significativa. Si estás proporcionando problemas estadísticos o matemáticos en forma de palabras y no das tiempo para pensar, entonces la mayoría de las veces el modelo LLM también comete errores como lo hace un humano. Por lo tanto, para obtener respuestas adecuadas, la ingeniería de prompts debe utilizar palabras de tal manera que el GPT tenga algo de tiempo para pensar y responder. Los siguientes ejemplos mostrarán cómo los modelos pueden cometer errores y cómo corregirlos.

Las siguientes indicaciones instruyen al LLM a realizar ciertas tareas y no proporcionan instrucciones claras, por lo que al apresurarse a responder, el LLM comete un error y omite la instrucción número 3. Ver los resultados.

Sin embargo, las mismas indicaciones con algunos cambios proporcionarían más capacidad de PENSAMIENTO al LLM para producir resultados correctos.

Cosas que se deben y no se deben hacer

Mientras se realiza una ingeniería de indicaciones efectiva, hay algunas cosas que debemos hacer y otras que debemos evitar, como:

No hacer:

  • Avoidar proporcionar información sobrecargada.
  • No hacer preguntas abiertas que puedan confundir al LLM.

Hacer:

  • Especificar el formato de salida correcto que se espera.
  • Incluir contexto significativo.

Conclusión

En este artículo, exploramos ideas valiosas sobre técnicas efectivas de indicación. También exploramos la importancia de una indicación bien elaborada y discutimos pautas esenciales, incluyendo cosas que se deben y no se deben hacer, para diseñar una indicación efectiva. También se incluyen algunos ejemplos prácticos para ilustrar estos principios.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Computación de siguiente nivel NVIDIA y AMD ofrecen potentes estaciones de trabajo para acelerar la IA, el renderizado y la simulación.

Para permitir a profesionales de todo el mundo construir y ejecutar aplicaciones de inteligencia artificial desde sus...

Noticias de Inteligencia Artificial

El mercado oculto de China para las poderosas tarjetas Nvidia de inteligencia artificial

En las bulliciosas calles del área de electrónica de Huaqiangbei en Shenzhen, ha surgido un mercado subterráneo de ch...

Inteligencia Artificial

En el Festival de Wagner, la nueva tecnología revela una brecha de liderazgo

El uso de la realidad aumentada en una producción de la ópera Parsifal que inaugura el Festival de Bayreuth de Aleman...

Inteligencia Artificial

Este documento de IA desbloquea el secreto del aprendizaje en contexto cómo los modelos de lenguaje codifican funciones en la magia de vectores

En los modelos de lenguaje transformadores autoregresivos, se identifica un mecanismo neuronal que representa una fun...

Inteligencia Artificial

Generación rápida y precisa de hologramas acústicos utilizando un marco basado en aprendizaje profundo

El equipo liderado por el profesor Hwang Jae-Yoon del Departamento de Ingeniería Eléctrica y Ciencias de la Computaci...