OpenAI abre las puertas a la IA empresarial

OpenAI abre la IA a las empresas

Por qué ChatGPT pronto será tu compañero de trabajo mejor remunerado

Bienvenido al futuro de las soluciones empresariales: un espacio que está siendo conquistado por la Inteligencia Artificial (IA), y más específicamente, por el nuevo enfoque B2B de OpenAI.

Con la explosión de herramientas y tecnologías, las empresas están experimentando una ola de innovación como nunca antes. Pero a medida que las ofertas proliferan y las actualizaciones se lanzan a una velocidad vertiginosa, puede ser un desafío abrumador navegar por este panorama y decidir qué es lo correcto para tu empresa.

Es aquí donde entra esta introducción. Para ser tu brújula en la jungla de la IA, guiándote a través de los dos cambios más importantes que han tenido lugar este verano y que están obligando a la industria a reinventar la forma en que pensamos sobre el software como servicio de IA en el lugar de trabajo.

  1. Ajuste fino para ChatGPT – Crea un modelo con el que puedas chatear y que sepa sobre cualquier tema en el que quieras entrenarlo.
  2. ChatGPT Empresarial – Implementaciones privadas de ChatGPT para empresas con todas las capacidades ofrecidas a los usuarios Plus ¡y más!

Sigue leyendo para comprender estas actualizaciones sísmicas y lo que son y lo que no son.

Dall-e: Una pintura realista de un robot con un sombrero de graduación estudiando en una biblioteca

Esto no se trata solo de mantenerse actualizado con las últimas tendencias; se trata de aprovechar el pináculo de lo que la IA tiene para ofrecer en este momento. Y créenos, no querrás perderte este viaje. Las últimas actualizaciones no dejan ninguna excusa para ninguna empresa que estuviera esperando subirse a este tren. Incluso los más escépticos podrán ver por qué la combinación de privacidad de calidad empresarial y personalización flexible está lista para llevar finalmente a OpenAI a un camino de ingresos positivos con un ajuste excelente al mercado.

El auge de las herramientas empresariales de IA personalizables

El juego cambió cuando OpenAI lanzó Ajuste fino para GPT-3.5 Turbo. Si pensabas que la IA ya estaba causando revuelo en el espacio empresarial, piénsalo de nuevo. Esta nueva capacidad aportó algo a la mesa que solo era posible con modelos más pequeños y de código abierto: la personalización. Pero, ¿qué significa eso para tu empresa y por qué debería importarte? Bueno, porque la personalización ha demostrado ser el factor determinante en términos de rendimiento y escalabilidad cuando se busca un caso de uso específico.

GPT-3.5 Turbo y Ajuste fino

GPT-3.5 Turbo no es solo otro modelo de lenguaje preentrenado; ya está preparado para seguir instrucciones (funciona bien como agente de chat). Pero ahora viene con la capacidad de ser ajustado fino a un grado de especificidad que las iteraciones anteriores no podían alcanzar. Esto te permite básicamente hacer que el modelo sea “tuyo”, enseñándole los matices de tu dominio, las particularidades de la voz de tu marca o incluso las estrategias específicas de resolución de problemas que requieres.

Publicaciones recientes de OpenAI muestran que un ajuste fino de GPT-3.5 puede producir mejores resultados que GPT-4 para el caso de uso diseñado. Además, el costo por token de interactuar con el 3.5 ajustado fino es un 60-80% más barato que las llamadas a GPT-4 (ventana de contexto de 8k).

Precios de OpenAI para ajuste fino de modelos GPT
Precios de OpenAI para interacciones con GPT-4

Curiosamente, el costo de entrada/salida es diferente en términos de tarifas, lo que hace aún más interesante usar GPT-3.5 ajustado fino para casos de uso donde se esperan salidas grandes con entradas pequeñas.

¿Qué es el Ajuste Fino de todos modos?

De acuerdo, estás entusiasmado con los superpoderes personalizables que el ajuste fino brinda a GPT-3.5 Turbo. Pero démosnos un paso atrás y profundicemos en lo que realmente es el ajuste fino. Porque, seamos honestos, “ajuste fino” suena genial pero puede parecer un poco técnico para algunos.

La Esencia del Ajuste Fino

Imagina que tienes un automóvil deportivo. Ya es increíblemente rápido directamente de la línea de producción. Pero ahora has decidido que quieres que sea el mejor en una pista específica. No vas a reemplazar todo el motor; en cambio, ajustas la maquinaria existente, tal vez modificas las relaciones de engranajes o tal vez inviertes en una mejor aerodinámica. Lo estás ajustando finamente.

De manera similar, el ajuste fino toma un modelo de IA ya entrenado y lo personaliza para tareas o dominios específicos. No estás construyendo un nuevo modelo desde cero; solo estás dando al existente una “pequeña” transformación para mejorar su rendimiento en tu nicho deseado.

Diagrama de Venn del Ajuste Fino

Pasos en el Ajuste Fino

  1. Preparación de Datos: Recolecta datos específicos del dominio.
  2. Preprocesamiento: Limpia y formatea estos datos para que sean compatibles.
  3. Entrenamiento: El propio ajuste fino: entrena el modelo con tus datos personalizados.
  4. Evaluación: Evalúa el rendimiento del modelo en el dominio específico.
  5. Implementación: Integra el modelo en tu aplicación.

Entonces, ¿por qué importa?

Vale, eso suena interesante, pero ¿deberías preocuparte? ¡Sí!, Aquí está el por qué:

Reducción de Costos de API

Cuando ajustas finamente un modelo, se vuelve más eficiente para generar resultados relevantes. Esto significa menos llamadas a la API y, por ende, costos más bajos. Las empresas han informado una disminución en los costos de API de hasta un 40% después de ajustar finamente sus modelos. Esto incluso puede ser mayor si divides tu caso de uso para usar el modelo menos inteligente (más barato) para cada paso que aún logra tus objetivos.

Mejora del Rendimiento

Un modelo genérico intenta ser un comodín. Pero un modelo ajustado finamente se convierte en un maestro en uno: tu dominio específico. ¿El resultado? Mayor precisión y menos necesidad de intervención humana.

Soluciones Diferenciadas

Un modelo ajustado finamente con tu selección de datos se comportará de manera diferente a cualquier otra versión disponible. Esto permite a las empresas crear realmente resultados únicos, abriendo una puerta para que las nuevas empresas que construyen envolturas LLM den un paso adelante y hagan que su solución sea menos fácilmente replicable.

La Preeminencia de la Ingeniería de Preguntas

Aunque el ajuste fino es como convertir tu automóvil deportivo en un campeón de pista, hay mejoras de rendimiento que puedes lograr sin ir al garaje para una revisión completa. Esto es, por supuesto, nuestra conocida disciplina de Ingeniería de Preguntas – tu fruta de fácil alcance en el jardín de optimización de IA.

El Ajuste Fino No Siempre es el Primer Paso

No me malinterpretes; el ajuste fino es una herramienta poderosa. Sin embargo, es intensivo en recursos, requiere tanto poder computacional como datos específicos del dominio. Así que antes de sumergirte en la personalización, pregúntate: “¿Puedo obtener resultados lo suficientemente buenos sin cambiar el modelo subyacente?”

Ingeniería de Preguntas: Tu Victoria Rápida

Si eres nuevo en el término, la ingeniería de preguntas es básicamente el arte de formular consultas o instrucciones de manera que guíen al modelo de IA para generar resultados deseados. Sin ajustes al modelo, sin costos adicionales. Pequeños cambios en el texto pueden dar como resultado salidas dramáticamente diferentes y altamente dirigidas.

Aquí tienes un ejemplo básico:

  • Consulta General: “Cuéntame sobre el café.”
  • Pregunta Ingeniada: “Resume la historia, los beneficios para la salud y los métodos de preparación del café.”

La segunda indicación está diseñada para obtener una respuesta más estructurada y completa, lo que te permite maximizar la utilidad del modelo base.

Técnicas Avanzadas: Encadenamiento de Indicaciones y Llamadas a Funciones

Vamos a subir de nivel. El encadenamiento de indicaciones implica descomponer una tarea compleja en consultas más pequeñas y fáciles de digerir, y alimentar la salida de una como entrada de otra. Por ejemplo, pedirle al modelo que primero resuma un documento y luego traduzca ese resumen a otro idioma.

La llamada a funciones es una innovación más reciente que permite el uso de funciones predefinidas dentro de una sesión de chat para realizar tareas específicas. Esto es como darle a tu modelo un conjunto de utilidades para aprovechar, agilizando aún más procesos como la extracción de datos o la síntesis de texto.

¿Por qué Priorizar la Ingeniería de Indicaciones?

Tres razones:

  1. Velocidad: Resultados en tiempo real, sin necesidad de esperar el entrenamiento del modelo.
  2. Eficiencia de Costos: Sin costos adicionales, especialmente útil si aún estás experimentando con las capacidades de IA.
  3. Flexibilidad: Fácil de ajustar y refinar, permitiendo iteraciones ágiles para adaptarse a tus necesidades en evolución.

Antes de invertir en un modelo ajustado, prueba con la ingeniería de indicaciones. A veces, la diferencia entre una buena solución y la mejor solución es simplemente una pregunta bien diseñada.

Control y Cumplimiento: La Edición Empresarial

El pilar de una implementación de IA empresarial: Seguridad y Cumplimiento. Seamos realistas; todas las características de una solución tecnológica no significan nada si no puede cumplir con los rigurosos estándares de seguridad que tu organización requiere. Aquí es donde entra en juego la Oferta Empresarial de OpenAI, anunciada el 28 de agosto.

Aunque el anuncio se hizo apenas esta semana, OpenAI muestra que una larga lista de clientes muy respetables ya ha estado utilizando su oferta empresarial sin que sea aún pública.

Lista de clientes empresariales previos al lanzamiento según el sitio web de OpenAI

Los detalles aún son escasos y la implementación actual requiere una interacción dedicada con los equipos de ventas de OpenAI. Sin embargo, la solución promete cumplir con los cuatro C que la industria ha estado buscando: Control, Cumplimiento, Personalización y Colaboración.

Control: Consola de Administración

La versión empresarial se enviará con una intuitiva Consola de Administración. Este es tu centro de control, que proporciona un panel para administrar claves de API, monitorear el uso y establecer permisos a nivel granular. Es donde la gobernanza se encuentra con la agilidad: desde establecer cuotas hasta delegar roles, la consola te pone al mando.

Pantalla de análisis de ChatGPT Enterprise

Cumplimiento: Seguridad de Grado Empresarial

Este es el fundamento sobre el cual se construye la edición empresarial. Espera una encriptación de última generación tanto en reposo como en tránsito. Se cumplen estándares de cumplimiento como el GDPR y SOC 2 (sin información sobre HIPAA, que proporciona Anthropic), lo que garantiza que nunca estarás en el lado equivocado de las obligaciones legales.

Personalización: Retención a Medida y Ajuste Fino

Además de las capacidades de ajuste fino que hemos discutido, OpenAI asegura que tendrás control sobre cómo se manejan los datos. La versión empresarial viene con opciones para establecer políticas de retención de datos personalizadas, lo que garantiza que puedas cumplir con cualquier regulación o pauta interna sobre cuánto tiempo conservar tus datos.

Además, aunque no he podido validar esto, la comunicación de la empresa afirma que la adición del conocimiento de la empresa tendrá una interfaz fácil de usar para agregar fuentes de datos para el modelo que pueden tener un efecto en toda la empresa.

Colaboración: Plantillas de Chat Compartibles

Trabajar en un silo ha sido un problema desde el inicio de ChatGPT. Primero con conversaciones compartibles y ahora con plantillas, OpenAI reconoce que el entorno de trabajo moderno se trata de colaboración. Con las plantillas de chat, los equipos podrán distribuir, probar y mejorar diseños de conversación sin correr el riesgo de acceso o modificación no autorizados. Y sí, estos son enlaces seguros que cumplen con las mejores prácticas en privacidad y protección.

Casos de uso específicos que cosechan beneficios

La afinación fina brilla en diversos sectores y su potencial es inmenso:

  • Servicio al cliente: Olvídate de las respuestas predefinidas. Las empresas ahora están afinando GPT-3.5 Turbo para comprender a fondo sus productos, brindando soporte al cliente automatizado y sorprendentemente hábil.
  • Redacción de contenido: Algo que nuestros clientes a menudo han preguntado es cómo garantizar que el contenido escrito por IA siga su estilo y pautas de marca. Esto generalmente se logra mediante pruebas de resistencia, pero aún no es muy preciso. Con estos cambios, tu marca puede tener un mensaje claro que se honrará en todo el contenido generado.
  • Salidas formateadas: Las aplicaciones actuales construidas en LLMs comúnmente intentan extraer JSON, Markdown u otros formatos específicos de las respuestas. Esto generalmente conlleva riesgos, ya que el modelo no siempre puede responder en un formato perfecto. Por lo tanto, los desarrolladores han tenido que crear flujos de prueba y error. Ahora puedes enseñar a tu modelo a seguir mejor tus necesidades de formato.
  • Sector legal: Los modelos ajustados a los documentos que tu empresa ya ha procesado pueden filtrar el lenguaje legal para producir resúmenes o incluso redactar versiones iniciales de documentos legales que se ajusten a los argumentos legales presentados y utilicen la última jurisprudencia. Si no quieres aparecer en las noticias por citar casos imaginarios, esta es la manera de hacerlo.
  • Salud e investigación: Los modelos personalizados ayudan con los diagnósticos médicos, ofreciendo sugerencias preliminares basadas en años de revistas y estudios.

Pioneros y sus triunfos

Desde gigantes globales hasta startups ágiles, muchos se han subido al carro de la afinación fina y están cosechando beneficios tangibles. Un caso notable es Salesforce, que ha integrado GPT-3.5 Turbo afinado en su software de gestión de relaciones con el cliente (CRM). ¿El resultado? Una reducción del 35% en el tiempo medio de manejo de consultas de soporte al cliente.

Una nota sobre el horizonte

Aunque hemos cubierto la plétora de capacidades que promete la recién estrenada edición Enterprise de OpenAI, vale la pena mencionar que los detalles completos aún están detrás del velo del compromiso de ventas de OpenAI. Como resultado, mantén un ojo en este espacio: este artículo puede ser actualizado para reflejar nuevos conocimientos a medida que salgan a la luz.

Además, a medida que el panorama empresarial comienza a experimentar más intensamente con las opciones de afinación fina, espera artículos adicionales que profundicen en casos de uso emergentes, métricas de rendimiento y mejores prácticas. En un dominio en rápida evolución, estar informado no solo es ventajoso, sino esencial para obtener una ventaja competitiva.

Fuentes

  1. Guía del desarrollador de OpenAI: Afinación fina
  2. Blog de OpenAI: ChatGPT Enterprise
  3. Blog de OpenAI: Llamada de funciones y otras actualizaciones de la API
  4. Precios de OpenAI: Costo de la API por 1,000 tokens
  5. Deeplearning.ai: Afinación fina de modelos de lenguaje grandes
  6. Cómo Salesforce Research utiliza la IA generativa como una fuerza para el bien

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Aprendizaje de Diferencia Temporal y la importancia de la exploración Una guía ilustrada

Recientemente, los algoritmos de Aprendizaje por Reforzamiento (RL) han ganado mucha atención al resolver problemas d...

Inteligencia Artificial

Congelación de capas de un modelo de aprendizaje profundo - la forma correcta

A menudo es útil congelar algunos de los parámetros, por ejemplo, cuando estás ajustando tu modelo y quieres congelar...

Inteligencia Artificial

¿Y si pudiéramos explicar fácilmente modelos excesivamente complejos?

Este artículo se basa en el siguiente artículo https//www.sciencedirect.com/science/article/abs/pii/S0377221723006598...

Inteligencia Artificial

Desenmascarando Deepfakes Aprovechando los patrones de estimación de la posición de la cabeza para mejorar la precisión de detección

La aparición de la capacidad de producir videos “falsos” ha generado preocupaciones significativas con re...