Utilizando y mezclando modelos de Hugging Face con Gradio 2.0

Usando modelos de Hugging Face con Gradio 2.0.

Publicado en el blog de Gradio .

El Hugging Face Model Hub cuenta con más de 10,000 modelos de aprendizaje automático presentados por usuarios. Encontrarás todo tipo de modelos de procesamiento del lenguaje natural que, por ejemplo, traducen entre finlandés e inglés o reconocen el habla en chino. Recientemente, el Hub también se ha expandido para incluir modelos de clasificación de imágenes y procesamiento de audio.

Hugging Face siempre ha trabajado para hacer que los modelos sean accesibles y fáciles de usar. La biblioteca transformers permite cargar un modelo en unas pocas líneas de código. Una vez que se carga un modelo, se puede utilizar para hacer predicciones sobre datos nuevos de forma programática. ¡Pero no solo los programadores están utilizando modelos de aprendizaje automático! Un escenario cada vez más común en el aprendizaje automático es mostrar modelos a equipos interdisciplinarios o permitir que personas no programadoras utilicen modelos (para ayudar a descubrir sesgos, puntos de falla, etc.).

La biblioteca Gradio permite a los desarrolladores de aprendizaje automático crear demostraciones y interfaces gráficas de usuario a partir de modelos de aprendizaje automático de manera muy sencilla, y compartirlas de forma gratuita con tus colaboradores tan fácilmente como compartir un enlace de Google Docs. Ahora, nos complace compartir que la biblioteca Gradio 2.0 te permite cargar y utilizar casi cualquier modelo de Hugging Face con una interfaz gráfica de usuario en solo 1 línea de código . Aquí tienes un ejemplo:

De forma predeterminada, esto utiliza la API de inferencia alojada de HuggingFace (puedes proporcionar tu propia clave de API o utilizar el acceso público sin una clave de API), o también puedes ejecutar pip install transformers y ejecutar los cálculos del modelo localmente si así lo deseas.

¿Deseas personalizar la demostración? Puedes anular cualquiera de los parámetros predeterminados de la clase Interface pasando tus propios parámetros:

¡Pero espera, hay más! Con 10,000 modelos ya en Model Hub, vemos los modelos no solo como piezas de código independientes, sino como piezas de lego que se pueden componer y mezclar para crear aplicaciones y demostraciones más sofisticadas.

Por ejemplo, Gradio te permite cargar múltiples modelos en paralelo (imagina que quieres comparar 4 modelos diferentes de generación de texto de Hugging Face para ver cuál es el mejor para tu caso de uso):

O poner tus modelos en serie . Esto facilita la creación de aplicaciones complejas construidas a partir de múltiples modelos de aprendizaje automático. Por ejemplo, aquí podemos construir una aplicación para traducir y resumir artículos de noticias en finlandés en 3 líneas de código:

Incluso puedes mezclar múltiples modelos en serie comparándolos entre sí en paralelo (¡te dejamos probar eso tú mismo!). Para probar cualquiera de estas funcionalidades, simplemente instala Gradio ( pip install gradio ) y elige un modelo de Hugging Face que quieras probar. Comienza a construir con Gradio y Hugging Face 🧱⛏️

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Meta AI anuncia Purple Llama para ayudar a la comunidad a construir de manera ética con modelos de IA abiertos y generativos.

Gracias al éxito en el aumento de los datos, el tamaño del modelo y la capacidad computacional para la modelización d...

Inteligencia Artificial

Investigadores de UCSC y TU Munich proponen RECAST un nuevo modelo basado en el aprendizaje profundo para predecir réplicas

La Inteligencia Artificial encuentra su camino en casi todos los campos posibles. Ha habido una amplia investigación ...

Inteligencia Artificial

La Iniciativa 'Encontrando Neuronas en un Pajar' en el MIT, Harvard y la Universidad Northeastern Emplea la Exploración Escasa.

Es común pensar en las redes neuronales como “extractores de características” adaptables que aprenden ref...