Cómo mirar las tareas comunes de aprendizaje automático con una mirada fresca

Mirar tareas comunes de aprendizaje automático con una mirada fresca.

Nunca recomendaríamos cambiar flujos de trabajo sólidos y bien funcionales solo por el cambio en sí; “si no está roto, no lo arregles” es un dicho popular común por una razón: muchas veces es el enfoque correcto.

Sin embargo, hay una gran brecha entre “muy a menudo” y “siempre”, y nuestros días más frustrantes en el trabajo suelen ocurrir cuando nuestros métodos probados y comprobados no producen los resultados esperados o tienen un mal rendimiento. Aquí es donde expandir nuestra base de conocimientos realmente vale la pena: en lugar de quedarnos atascados en el equivalente mental de una rueda de carga infinita, intentamos algo diferente, jugamos con nuestro proceso y (tarde o temprano) avanzamos con una nueva solución.

En aras de abrazar perspectivas frescas, hemos reunido una serie de excelentes publicaciones recientes que ofrecen un enfoque original de los flujos de trabajo comunes de aprendizaje automático. Cubren procedimientos como la detección de cambios y el entrenamiento de modelos, y tareas que van desde la segmentación de imágenes hasta el reconocimiento de entidades nombradas. ¡Haz espacio en tu conjunto de herramientas, querrás añadir estas!

Antes de sumergirte, una actualización rápida: si buscas otras formas de mantenerte al día con nuestros mejores artículos recientes más allá de Variable, acabamos de lanzar varias listas de VoAGI para ayudarte a descubrir más lecturas interesantes.

  • Los sistemas de recomendación algorítmicos están en todas partes, desde sitios de comercio electrónico hasta servicios de transmisión, y a veces sus resultados pueden parecer repetitivos y obvios. Como muestra Christabelle Pabalan, no hay razón para conformarse con opciones sin inspiración; de hecho, inyectar sistemas de recomendación con elementos de novedad y serendipia puede resultar en una mejor retención de usuarios.
  • La detección de cambios en modelos entrenados en datos no estructurados, como las incrustaciones utilizadas en aplicaciones impulsadas por LLM, “es un tema bastante nuevo y no hay métodos de ‘mejores prácticas'”, dicen Elena Samuylova y Olga Filippova. Para ayudarte a elegir el enfoque más efectivo, realizaron varios experimentos y comparten recomendaciones claras basadas en sus hallazgos.
  • Muchos científicos de datos y profesionales de aprendizaje automático ven el rápido aumento de las opciones de datos sintéticos para el entrenamiento de modelos como motivo de celebración, pero reconocen que conlleva preocupaciones serias sobre la calidad de los datos y el rendimiento a largo plazo. Vincent Vatter nos guía a través de una investigación reciente de Microsoft que señala un camino productivo hacia adelante.
  • La calibración del modelo es un paso clave en muchas tareas de clasificación, pero calcularlo de una manera que optimice la precisión puede ser complicado. Maja Pavlovic está aquí para ayudarte con un tutorial claro y práctico sobre cómo manejar el error de calibración esperado (ECE).
Foto de Bonnie Kittle en Unsplash
  • Si llegaste a un callejón sin salida en tu proyecto reciente de segmentación de imágenes utilizando redes neuronales convolucionales, Dhruv Matani y Naresh ofrecen una alternativa: prueba en su lugar un modelo basado en Vision Transformer.
  • Como científico de datos en NOS, la Fundación Holandesa de Radiodifusión Pública, Felix van Deelen tiene acceso a un rico corpus de noticias; el primer artículo de Felix en TDS explora el potencial de utilizar estos datos textuales en proyectos de reconocimiento de entidades nombradas.
  • No hay una solución única para detectar anomalías en tus datos, por lo que es una buena idea familiarizarse con algunas opciones. Viyaleta Apgar nos presenta una técnica fácil de usar basada en la distribución gaussiana y muestra cómo implementarla en el contexto de un modelo multivariante.
  • Para optimizar tu modelo de regresión de manera más efectiva, Erdogan Taskesen propone añadir un toque bayesiano al paso de ajuste de hiperparámetros del entrenamiento del modelo; el tutorial incluye una implementación completa que se basa en el poder de la biblioteca HGBoost.

¡Gracias por apoyar a nuestros autores! Si disfrutas de los artículos que lees en TDS, considera convertirte en miembro de VoAGI, lo cual te dará acceso a todo nuestro archivo (y a cada otra publicación en VoAGI también).

Hasta la próxima Variable,

Los editores de TDS

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Conozca a NANA, el avatar de recepcionista con inteligencia artificial de Moonshine Studio

Nota del editor: Esta publicación es parte de nuestra serie semanal En el Estudio de NVIDIA, que celebra a artistas d...

Inteligencia Artificial

Construye una solución centralizada de monitoreo e informes para Amazon SageMaker utilizando Amazon CloudWatch

En esta publicación, presentamos un panel de observabilidad intercuentas que proporciona una vista centralizada para ...

Inteligencia Artificial

Entendiendo Flash-Atención y Flash-Atención-2 El camino para ampliar la longitud del contexto de los modelos de lenguaje

Escalar el contexto de los grandes modelos de lenguaje (LLMs) sigue siendo uno de los mayores desafíos para ampliar e...

Investigación

AI Probabilístico que sabe qué tan bien está funcionando.

Es más importante que nunca que la inteligencia artificial estime con qué precisión está explicando los datos.

Inteligencia Artificial

Utilizando cámaras en los autobuses de transporte público para monitorear el tráfico

Investigadores de la Universidad Estatal de Ohio monitorearon el tráfico utilizando cámaras ya instaladas en los auto...