Director de Machine Learning Insights [Parte 2 Edición de SaaS]

Director de Machine Learning Insights SaaS [Parte 2]

Si tú o tu equipo están interesados en construir soluciones de ML más rápido, visita hf.co/support hoy mismo!

👋 Bienvenido a la Parte 2 de nuestra serie del Director de Insights de Aprendizaje Automático. Echa un vistazo a la Parte 1 aquí.

Los Directores de Aprendizaje Automático tienen un asiento único en la mesa de la IA que abarca la perspectiva de varios roles y responsabilidades. Su rico conocimiento en marcos de ML, ingeniería, arquitectura, aplicaciones del mundo real y resolución de problemas proporciona una profunda comprensión del estado actual del ML. Por ejemplo, un director notará cómo el uso de nuevas tecnologías de procesamiento del habla con transformadores redujo la tasa de error de su equipo en un 30% y cómo el pensamiento simple puede ayudar a ahorrar mucha potencia computacional.

¿Alguna vez te has preguntado qué piensan actualmente los directores de Salesforce o ZoomInfo sobre el estado del Aprendizaje Automático? ¿Cuáles son sus mayores desafíos? ¿Y en qué están más emocionados? Bueno, ¡estás a punto de descubrirlo!

En esta segunda entrega centrada en SaaS, escucharás a un autor de libros de aprendizaje profundo en el sector de la salud, quien también fundó una organización sin fines de lucro para mentores de talento en ML, a un experto en ciberseguridad fanático del ajedrez, a un empresario cuyo negocio fue inspirado por la necesidad de Barbie de monitorear la reputación de su marca después de un retiro de productos y a un experimentado autor de patentes y artículos académicos que disfruta viendo a sus 4 hijos cometer los mismos errores que sus modelos de ML.

🚀 Vamos a conocer a algunos de los principales Directores de Aprendizaje Automático en SaaS y escuchar lo que tienen que decir sobre el Aprendizaje Automático:

Omar Rahman – Director de Aprendizaje Automático en Salesforce

Antecedentes: Omar lidera un equipo de Ingenieros de Aprendizaje Automático y Datos que aprovechan el ML para fines de seguridad defensiva como parte del equipo de Ciberseguridad. Anteriormente, Omar ha liderado equipos de ciencia de datos e ingeniería de aprendizaje automático en Adobe y SAP, enfocándose en brindar capacidades inteligentes a la nube de marketing y aplicaciones de adquisiciones. Omar tiene una Maestría en Ingeniería Eléctrica de la Universidad Estatal de Arizona.

Dato curioso: A Omar le encanta jugar ajedrez y dedica su tiempo libre a guiar y mentorizar a estudiantes de posgrado en IA.

Salesforce: Software de gestión de relaciones con los clientes número uno del mundo.

1. ¿Cómo ha tenido un impacto positivo el ML en SaaS?

El ML ha beneficiado las ofertas de SaaS de muchas maneras.

a. Mejora de la automatización dentro de las aplicaciones: Por ejemplo, un enrutador de tickets de servicio que utiliza el procesamiento del lenguaje natural (NLP) para comprender el contexto de la solicitud de servicio y dirigirla al equipo adecuado dentro de la organización.

b. Reducción de la complejidad del código: Los sistemas basados en reglas tienden a volverse difíciles de manejar a medida que se agregan nuevas reglas, lo que aumenta los costos de mantenimiento. Por ejemplo, un sistema de traducción de idiomas basado en ML es más preciso y robusto con muchas menos líneas de código en comparación con los sistemas anteriores basados en reglas.

c. Mejores resultados de pronóstico que generan ahorros de costos. Poder pronosticar de manera más precisa ayuda a reducir los pedidos pendientes en la cadena de suministro, así como ahorros de costos debido a una reducción en los costos de almacenamiento.

2. ¿Cuáles son los mayores desafíos de ML en SaaS?

a. La productización de aplicaciones de ML requiere mucho más que tener un modelo. Poder aprovechar el modelo para obtener resultados, detectar y adaptarse a cambios en las estadísticas de los datos, etc., crea una carga significativa en la implementación y mantenimiento de los sistemas de ML.

b. En la mayoría de las grandes organizaciones, los datos suelen estar aislados y no se mantienen correctamente, lo que resulta en un tiempo significativo dedicado a consolidar datos, actividades de preprocesamiento y limpieza de datos, etc., lo que resulta en una cantidad considerable de tiempo y esfuerzo necesarios para crear aplicaciones basadas en ML.

3. ¿Cuál es un error común que ves que la gente comete al intentar integrar ML en SaaS?

No centrarse lo suficiente en el contexto empresarial y el problema que se está resolviendo, en lugar de tratar de utilizar los últimos y mejores algoritmos y bibliotecas de código abierto. Se puede lograr mucho con técnicas simples de ML tradicionales.

4. ¿Qué te emociona más sobre el futuro del ML?

Las capacidades de inteligencia artificial generalizada, si se construyen y gestionan adecuadamente, tienen la capacidad de transformar a la humanidad de formas que uno no puede imaginar. Mi esperanza es ver grandes avances en áreas como la salud y el transporte. Ya estamos viendo los beneficios de la IA en radiología, lo que resulta en ahorros significativos en mano de obra y permite a los humanos centrarse en tareas más complejas. Los autos y camiones autónomos ya están transformando el sector del transporte.

Cao (Danica) Xiao – Directora Senior de Aprendizaje Automático en Amplitude

Antecedentes: Cao (Danica) Xiao es la Directora Senior y Jefa de Ciencia de Datos y Aprendizaje Automático en Amplitude. Su equipo se enfoca en desarrollar e implementar modelos y productos de aprendizaje automático auto-servicio basados en datos de usuarios provenientes de múltiples fuentes para resolver desafíos empresariales críticos relacionados con la analítica y optimización de producción digital. Además, es una investigadora apasionada del aprendizaje automático con más de 95 artículos publicados en destacados eventos de CS. También es una líder tecnológica con amplia experiencia en la creación de hojas de ruta de aprendizaje automático, construcción de equipos y mentoría.

Antes de Amplitude, Cao (Danica) fue la Jefa Global de Aprendizaje Automático en el Centro de Excelencia de Analítica de IQVIA. Antes de eso, fue miembro del personal de investigación en IBM Research y líder de investigación en MIT-IBM Watson AI Lab. Obtuvo su doctorado en aprendizaje automático de la Universidad de Washington, Seattle. Recientemente, también coescribió un libro de texto sobre aprendizaje profundo para la salud y fundó una organización sin fines de lucro para la mentoría de talentos en aprendizaje automático.

Dato Curioso: Cao es amante de los gatos y es madre de dos gatos: una gata Singapura y un gato British Shorthair.

Amplitude: Una plataforma de analítica de productos basada en la nube que ayuda a los clientes a construir mejores productos.

1. ¿Cómo ha tenido un impacto positivo el aprendizaje automático en SaaS?

El aprendizaje automático juega un papel fundamental en convertir datos masivos y ruidosos generados por máquinas o usuarios en respuestas a todo tipo de preguntas empresariales, incluyendo personalización, predicción, recomendación, etc. Impacta a una amplia gama de verticales de la industria a través de SaaS.

2. ¿Cuáles son los mayores desafíos del aprendizaje automático en SaaS?

Falta de datos para el entrenamiento de modelos de aprendizaje automático que cubran un rango más amplio de casos de uso de la industria. Aunque es una solución general para todas las verticales de la industria, aún es necesario determinar cómo manejar las necesidades específicas de cada vertical que surgen de los negocios o problemas de cambio de dominio que afectan la calidad del modelo de aprendizaje automático.

3. ¿Cuál es un error común que ves que cometen las personas al intentar integrar el aprendizaje automático en un producto SaaS?

No dar a los usuarios la flexibilidad de incorporar su conocimiento empresarial u otros factores humanos que son críticos para el éxito empresarial. Por ejemplo, para una recomendación de productos de autoservicio, sería genial si los usuarios pudieran controlar la diversidad de los productos recomendados.

4. ¿Qué es lo que más te entusiasma del futuro del aprendizaje automático?

El aprendizaje automático ha tenido un éxito tremendo. También evoluciona rápidamente para abordar las limitaciones actuales (por ejemplo, falta de datos, cambio de dominio, incorporación de conocimiento de dominio).

Se aplicarán más tecnologías de aprendizaje automático para resolver necesidades empresariales o de clientes. Por ejemplo, aprendizaje automático interpretable para que los usuarios comprendan y confíen en los resultados del modelo de aprendizaje automático; predicción contrafactual para que los usuarios estimen el resultado alternativo si toman una decisión empresarial diferente.

Raphael Cohen – Director de Aprendizaje Automático en ZoomInfo

Antecedentes: Raphael tiene un doctorado en el campo de la comprensión de registros de salud y genética, ha publicado 20 artículos académicos y tiene 8 patentes. Raphael también es un líder en Ciencia de Datos e Investigación con experiencia en Procesamiento del Lenguaje Natural (NLP), Habla, atención médica, ventas, recorridos de clientes y tecnología de la información.

Dato Curioso: Raphael tiene 4 hijos y disfruta ver cómo aprenden y cometen los mismos errores que algunos de sus modelos de aprendizaje automático.

ZoomInfo: Tecnología inteligente de ventas y marketing respaldada por la base de datos empresarial más completa del mundo.

1. ¿Cómo ha tenido un impacto positivo el aprendizaje automático en SaaS?

El aprendizaje automático ha facilitado la transcripción de datos de conversaciones para ayudar a las personas a descubrir nuevas ideas y comprensiones. Ahora las personas pueden ver fácilmente las cosas de las que hablaron, los objetivos resumidos, las conclusiones, quién habló más, quién hizo las mejores preguntas, cuáles son los siguientes pasos, y más. Esto es increíblemente útil para muchas interacciones como el correo electrónico y las videoconferencias (que ahora son más comunes que nunca).

Con Chorus.ai transcribimos conversaciones mientras se están grabando en tiempo real. Para hacer esto, utilizamos un algoritmo llamado Wave2Vec. 🤗 Hugging Face recientemente lanzó su propia versión de Wave2Vec creada para entrenamiento, de la cual hemos obtenido mucho valor. Esta nueva generación de tecnología de transformadores de voz es increíblemente poderosa, ha disminuido nuestra tasa de error en un 30%.

Una vez que transcribimos una conversación, podemos analizar su contenido. Aquí es donde entra en juego el procesamiento del lenguaje natural (NLP) y dependemos en gran medida de Hugging Face Transformers para permitirnos representar alrededor de 20 categorías de temas dentro de grabaciones y correos electrónicos. Por ejemplo, ¿estamos hablando de precios, firma de un contrato, próximos pasos? Todos estos temas se envían por correo electrónico o se discuten, y ahora es fácil extraer esa información sin tener que revisar todas las conversaciones nuevamente.

Esto ayuda a que las personas sean mucho mejores en su trabajo.

2. ¿Cuáles son los mayores desafíos de ML en SaaS?

El mayor desafío es comprender cuándo hacer uso de ML.

¿Qué problemas podemos resolver con ML y cuáles no deberíamos? Muchas veces tenemos un avance con un modelo de ML, pero un modelo heurístico computacionalmente más ligero es más adecuado para resolver el problema que tenemos.

Aquí es donde entra en juego una sólida estrategia de IA. Entender cómo quieres que funcione tu producto final y con qué eficiencia.

También tenemos la cuestión de cómo llevar los modelos de ML que has construido a producción con un bajo impacto ambiental/computacional. Todos están luchando con esto; cómo mantener los modelos en producción de manera eficiente sin consumir demasiados recursos.

Un gran ejemplo de esto fue cuando nos pasamos al marco de trabajo Wav2Vec, que nos obligó a descomponer nuestro audio de conversación en segmentos de 15 segundos que se alimentan a este enorme modelo. Durante esto, descubrimos que estábamos alimentando al modelo muchos segmentos de silencio. Esto es común cuando alguien no se presenta o una persona está esperando a que otra se una a una reunión.

Solo agregando otro modelo muy ligero para decirnos cuándo no enviar los segmentos de silencio a este gran y complicado modelo de ML, podemos ahorrar mucha potencia/energía computacional. Este es un ejemplo de cómo los ingenieros pueden pensar en otras formas más fáciles de acelerar y ahorrar en la producción de modelos. Hay una oportunidad para que los ingenieros sean más astutos y optimicen mejor los modelos sin consumir demasiados recursos.

3. ¿Cuál es un error común que ves que la gente comete al intentar integrar ML en SaaS?

¿Es mi solución la más inteligente? ¿Hay una mejor manera de descomponer esto y resolverlo de manera más eficiente?

Cuando comenzamos a identificar a los oradores, utilizamos directamente un método de ML y esto no fue tan preciso como los datos del proveedor de videoconferencias.

Desde entonces, aprendimos que la mejor manera de hacer esto es comenzar con los metadatos de quién habla del proveedor de conferencias y luego superponer eso con un modelo de incrustación inteligente. Perdimos un tiempo precioso durante esta curva de aprendizaje. No deberíamos haber utilizado esta gran solución de ML si nos hubiéramos detenido a entender que hay otras fuentes de datos en las que deberíamos invertir y que nos ayudarán a acelerar de manera más eficiente.

Piensa fuera de la caja y no te limites a tomar algo que alguien haya construido y pensar que tienes una idea de cómo mejorarlo. ¿Dónde podemos ser más inteligentes al entender mejor el problema?

4. ¿Qué te emociona más sobre el futuro de ML?

Creo que estamos en medio de otra revolución. Para nosotros, ver que nuestras tasas de error disminuyeron en un 30% gracias a nuestro modelo Wave2Vec fue increíble. Habíamos estado trabajando durante años obteniendo solo disminuciones del 1% cada vez, y luego en 3 meses vimos una mejora tan grande y sabemos que esto es solo el comienzo. En el ámbito académico, están sucediendo cosas más grandes e inteligentes. Estos modelos pre-entrenados nos permiten hacer cosas que nunca podríamos haber imaginado antes. ¡Esto es muy emocionante!

También estamos viendo mucha tecnología de NLP ingresar a otros dominios como el habla y la visión y tener la capacidad de potenciarlos.

Otra cosa que me entusiasma mucho es la generación de modelos. Recientemente trabajamos con una empresa llamada Bria.ai y utilizan estos increíbles GANs para crear imágenes. Entonces, tomas una foto de archivo y puedes convertirla en una foto diferente diciendo “quitar gafas”, “agregar gafas” o “agregar cabello” y lo hace perfectamente. La idea es que podemos usar esto para generar datos. Podemos tomar imágenes de personas de reuniones sin sonreír y hacer que sonrían para construir un conjunto de datos para la detección de sonrisas. Esto será transformador. Puedes tomar 1 imagen y convertirla en 100 imágenes. Esto también se aplicará a la generación de voz, lo cual podría ser una aplicación poderosa dentro de la industria de servicios.

¿Algún pensamiento final?

–Es desafiante poner modelos en producción. Creo que los equipos de ciencia de datos necesitan tener ingeniería incorporada en ellos. Los ingenieros deberían ser parte del equipo de IA. Esto será un cambio estructural importante en el futuro.

Martin Ostrovsky Fundador/CEO y Director de Aprendizaje Automático en Repustate Inc.

Antecedentes: Martin es apasionado por la IA, el Aprendizaje Automático y el Procesamiento del Lenguaje Natural (NLP, por sus siglas en inglés) y es responsable de guiar la estrategia y el éxito de todos los productos de Repustate liderando el equipo interfuncional responsable de desarrollar y mejorarlos. Él establece la estrategia, el plan de ruta y la definición de características para la API de Análisis de Texto Global de Repustate, Análisis de Sentimiento, Búsqueda Profunda y Soluciones de Reconocimiento de Entidades Nombradas. Posee una licenciatura en Ciencias de la Computación de la Universidad de York y obtuvo su Maestría en Administración de Empresas de la Escuela de Negocios Schulich.

Dato Curioso: La primera aplicación de Aprendizaje Automático que utilicé fue para juguetes de Barbie. Mi profesor en la Escuela de Negocios Schulich mencionó que Barbie necesitaba monitorear su reputación de marca debido a un retiro de los juguetes por preocupaciones sobre un exceso de plomo en ellos. Contratar a personas para revisar manualmente cada publicación en redes sociales y artículo en línea me parecía ineficiente e inefectivo. Así que propuse crear un algoritmo de aprendizaje automático que monitoreara lo que las personas pensaban de ellos en todas las redes sociales y canales en línea. El algoritmo funcionó perfectamente. Y así fue como decidí llamar a mi compañía, Repustate – el “estado” de tu “repu”tación. 🤖

Repustate: Un proveedor líder de servicios de análisis de texto para empresas.

1. ¿Cuál es tu aplicación de negocios de Aprendizaje Automático favorita?

Mi aplicación favorita de Aprendizaje Automático es la ciberseguridad.

La ciberseguridad sigue siendo la parte más crítica para cualquier empresa (gubernamental o no) en lo que respecta a los datos. El Aprendizaje Automático ayuda a identificar amenazas cibernéticas, combatir el cibercrimen, incluido el ciberacoso, y permite una respuesta más rápida a las brechas de seguridad. Los algoritmos de Aprendizaje Automático analizan rápidamente las vulnerabilidades más probables y las posibles aplicaciones de malware y spyware basándose en los datos de los usuarios. Pueden detectar distorsiones en los patrones de entrada de los puntos finales y reconocerlo como una posible violación de datos.

2. ¿Cuál es tu mayor desafío en el Aprendizaje Automático?

El mayor desafío en el Aprendizaje Automático es la transcripción de audio a texto en idioma árabe. Existen varios sistemas que pueden descifrar el árabe, pero carecen de precisión. El árabe es el idioma oficial de 26 países y cuenta con 247 millones de hablantes nativos y 29 millones de hablantes no nativos. Es un idioma complejo con un vocabulario rico y muchos dialectos.

La herramienta de minería de sentimientos necesita leer datos directamente en árabe si se desean obtener ideas precisas a partir de texto árabe, ya que de lo contrario se pierden matices en las traducciones. Traducir el texto al inglés o a cualquier otro idioma puede cambiar por completo el significado de las palabras en árabe, incluso la palabra raíz. Por eso, el algoritmo debe ser entrenado en conjuntos de datos árabes y utilizar un etiquetador de partes del discurso específico para el árabe. Debido a estos desafíos, la mayoría de las empresas no logran ofrecer una traducción precisa de audio árabe a texto hasta la fecha.

3. ¿Cuál es un error común que ves que cometen las personas al intentar integrar el Aprendizaje Automático?

El error más común que cometen las empresas al intentar integrar el Aprendizaje Automático es la falta de datos suficientes en sus conjuntos de entrenamiento. La mayoría de los modelos de Aprendizaje Automático no pueden distinguir entre datos buenos y datos insuficientes. Por lo tanto, los conjuntos de entrenamiento se consideran relevantes y se utilizan como precedente para determinar los resultados en la mayoría de los casos. Este desafío no se limita a las pequeñas empresas o a las empresas del tamaño de VoAGI; las grandes empresas también tienen el mismo desafío.

No importa cuáles sean los procesos de Aprendizaje Automático, las empresas deben asegurarse de que los conjuntos de entrenamiento sean confiables y exhaustivos para lograr el resultado deseado mediante la incorporación de un elemento humano en las etapas iniciales del aprendizaje automático.

Sin embargo, las empresas pueden crear la base necesaria para proyectos exitosos de aprendizaje automático con una revisión exhaustiva de datos de entrenamiento precisos, completos y constantes.

4. ¿Dónde ves que el Aprendizaje Automático tendrá el mayor impacto en los próximos 5-10 años?

En los próximos 5-10 años, el Aprendizaje Automático tendrá el mayor impacto en la transformación del sector de la salud.

Hospitales en red y atención conectada:

Con el cuidado predictivo, los centros de comando están listos para analizar datos clínicos y de ubicación para monitorear el suministro y la demanda en las redes de atención médica en tiempo real. Con el aprendizaje automático (ML), los profesionales de la salud podrán identificar pacientes de alto riesgo de manera más rápida y eficiente, eliminando así los cuellos de botella en el sistema. Podrá verificar la propagación de enfermedades contagiosas de manera más rápida, tomar mejores medidas para controlar epidemias, identificar con mayor precisión a los pacientes en riesgo, especialmente en enfermedades genéticas, y más.

Mejores experiencias para el personal y los pacientes:

Se espera que las redes de atención médica predictivas reduzcan los tiempos de espera, mejoren los flujos de trabajo del personal y asuman la creciente carga administrativa. Al aprender de cada paciente, diagnóstico y procedimiento, se espera que el aprendizaje automático (ML) cree experiencias que se adapten tanto al personal del hospital como al paciente. Esto mejora los resultados de salud y reduce la escasez y el agotamiento de los médicos, al tiempo que permite que el sistema sea financieramente sostenible.


🤗 Gracias por unirse a nosotros en esta segunda entrega de ML Director Insights. Estén atentos para obtener más información de los Directores de ML en Finanzas, Atención Médica y Comercio Electrónico.

Un gran agradecimiento a Omar Rahman, Cao (Danica) Xiao, Raphael Cohen y Martin Ostrovsky por sus brillantes ideas y participación en este artículo. Esperamos con ansias ver cada uno de sus éxitos continuos y los apoyaremos en cada paso del camino. 🎉

Si usted o su equipo están interesados en acelerar su plan de aprendizaje automático (ML) con los Expertos de Hugging Face, visite hf.co/support para obtener más información.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Ciencia de Datos

Creando Operaciones de Aprendizaje Automático para Empresas

En mi carrera, he notado que la clave para estrategias exitosas de inteligencia artificial radica en la capacidad de ...

Inteligencia Artificial

Una Bendición y un Monstruo Los Anunciantes Aceptan Cautelosamente la Inteligencia Artificial

Muchos anuncios son más fáciles de hacer con la tecnología en constante mejora. También representa una amenaza para u...

Inteligencia Artificial

¿Se cayó ChatGPT? ¡Tiempo de inactividad y rápida recuperación del AI de OpenAI!

La comunidad de inteligencia artificial sufrió un breve revés. ChatGPT, un popular chatbot desarrollado por OpenAI, e...

Inteligencia Artificial

Perspectivas de expertos sobre el desarrollo de marcos de IA seguros, confiables y confiables

En consonancia con la reciente Orden Ejecutiva del Presidente Biden que enfatiza la Inteligencia Artificial (IA) segu...

Inteligencia Artificial

Apple entra en la competencia de la IA generativa con el chatbot 'AppleGPT

El gigante tecnológico Apple sigue adelante con su esperado chatbot impulsado por IA, tentativamente llamado “A...