Muestra tus proyectos en Espacios utilizando Gradio

'Presenta tus proyectos en Espacios con Gradio'

Es muy fácil demostrar un proyecto de Aprendizaje Automático gracias a Gradio.

En esta publicación de blog, te guiaremos a través de:

  • la reciente integración de Gradio que te ayuda a demostrar modelos del Hub de manera fluida con unas pocas líneas de código aprovechando la API de Inferencia.
  • cómo usar Hugging Face Spaces para alojar demostraciones de tus propios modelos.

Integración de Hugging Face Hub en Gradio

Puedes demostrar tus modelos en el Hub fácilmente. Solo necesitas definir la Interfaz que incluye:

  • El ID del repositorio del modelo con el que deseas inferir.
  • Una descripción y título.
  • Ejemplos de entradas para guiar a tu audiencia.

Después de definir tu Interfaz, simplemente llama a .launch() y tu demo comenzará a ejecutarse. Puedes hacer esto en Colab, pero si quieres compartirlo con la comunidad, una excelente opción es usar Spaces.

Spaces es una forma simple y gratuita de alojar tus aplicaciones de demostración de ML en Python. Para hacerlo, puedes crear un repositorio en https://huggingface.co/new-space y seleccionar Gradio como SDK. Una vez hecho, puedes crear un archivo llamado app.py, copiar el siguiente código, ¡y tu aplicación estará lista y funcionando en segundos!

import gradio as gr

description = "Generación de historias con GPT-2"
title = "Genera tu propia historia"
examples = [["Un aventurero es abordado por un extraño misterioso en la taberna para una nueva misión."]]

interface = gr.Interface.load("huggingface/pranavpsv/gpt2-genre-story-generator",
            description=description,
            examples=examples
)

interface.launch()

Puedes jugar con el modelo de Generación de Historias aquí

Bajo el capó, Gradio llama a la API de Inferencia que admite Transformers, así como otros marcos populares de ML como spaCy, SpeechBrain y Asteroid. Esta integración admite diferentes tipos de modelos, imagen-a-texto, voz-a-texto, texto-a-voz y más. Puedes ver este ejemplo de modelo BigGAN ImageNet texto-a-imagen aquí. La implementación está a continuación.

import gradio as gr
description = "Demo de texto-a-imagen BigGAN."
title = "BigGAN ImageNet"
interface = gr.Interface.load("huggingface/osanseviero/BigGAN-deep-128", 
            description=description,
            title = title,
            examples=[["robin americano"]]
)
interface.launch()

Servir Puntos de Control de Modelos Personalizados con Gradio en Hugging Face Spaces

Puedes servir tus modelos en Spaces incluso si la API de Inferencia no admite tu modelo. Simplemente envuelve tu inferencia de modelo en una Interfaz de Gradio como se describe a continuación y colócalo en Spaces.

¡Combina y mezcla modelos!

¡Usando Gradio Series, puedes combinar y mezclar diferentes modelos! Aquí, hemos colocado un modelo de traducción de francés a inglés encima del generador de historias y un modelo de traducción de inglés a francés al final del modelo generador para crear simplemente un generador de historias en francés.

import gradio as gr
from gradio.mix import Series

description = "¡Genera tu propia historia de D&D!"
title = "Generador de historias en francés usando Opus MT y GPT-2"
translator_fr = gr.Interface.load("huggingface/Helsinki-NLP/opus-mt-fr-en")
story_gen = gr.Interface.load("huggingface/pranavpsv/gpt2-genre-story-generator")
translator_en = gr.Interface.load("huggingface/Helsinki-NLP/opus-mt-en-fr")
examples = [["L'aventurier est approché par un mystérieux étranger, pour une nouvelle quête."]]

Series(translator_fr, story_gen, translator_en, description = description,
        title = title,
        examples=examples, inputs = gr.inputs.Textbox(lines = 10)).launch()

Puedes ver el Generador de Historias en francés aquí

Subir tus modelos a los Espacios

Puedes servir tus demos en Hugging Face gracias a los Espacios. Para hacer esto, simplemente crea un nuevo Espacio y luego arrastra y suelta tus demos o utiliza Git.

¡Construye fácilmente tu primera demo con Espacios aquí!

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Confrontación de modelos de chat GPT-4 vs GPT-3.5 vs LLaMA-2 en un debate simulado - Parte 1

Con Meta revelando recientemente planes para construir un modelo de chat que competirá con GPT-4, y el lanzamiento de...

Inteligencia Artificial

China tiene un nuevo plan para juzgar la seguridad de la IA generativa, ¡y está repleto de detalles!

Una nueva propuesta detalla las formas muy específicas en que las empresas deben evaluar la seguridad de la IA y apli...

Investigación

Sensor de alcohol móvil para la muñeca podría impulsar la investigación sobre el consumo de alcohol.

Científicos de la Universidad Estatal de Pensilvania y de la Universidad de Carolina del Norte crearon un sensor de m...