Este boletín de inteligencia artificial es todo lo que necesitas #59

Boletín de IA necesario #59

Lo que ocurrió esta semana en IA por Louie

Los cambios en los términos de servicio de Zoom (desde marzo) cobraron relevancia después de los temores sobre el uso de los datos de video de los clientes, que se volvieron virales. Los términos de Zoom parecían permitir que la compañía tuviera amplia libertad para utilizar los datos de los clientes para entrenar sus modelos de aprendizaje automático, pero después de la controversia, tarde el lunes por la noche, Zoom actualizó sus términos para especificar que “Zoom no utilizará el contenido de audio, video o chat del cliente para entrenar nuestros modelos de inteligencia artificial sin su consentimiento”. Desde el lanzamiento de ChatGPT y el creciente enfoque en la comercialización de la IA, la propiedad de los datos, los derechos de autor y las políticas de privacidad de muchas empresas han estado en flujo. Algunas empresas, como X/Twitter, se han dado cuenta de que han regalado datos valiosos de forma gratuita o a precios demasiado bajos y han cortado el acceso a sus datos, lo que dificulta el “scraping” o el lanzamiento de demandas por su uso. Otras empresas se han dado cuenta de que no han estado recopilando o aprovechando al máximo los datos potencialmente valiosos a los que tienen acceso. Siempre habrá un equilibrio delicado entre proteger la privacidad de los clientes y aprovechar al máximo sus datos, y esperamos que estos problemas sigan siendo una alta prioridad para muchos CEO y equipos de gestión en los próximos meses. – Louie Peters, cofundador y CEO de Towards AI

Noticias más importantes

  1. AudioCraft: Un único lugar simple para la modelización de audio

Meta ha lanzado el código y los pesos de sus modelos de AudioCraft, incluyendo MusicGen y AudioGen. Estos modelos generan música y audio, respectivamente, basándose en las entradas de texto del usuario. El lanzamiento también incluye el decodificador EnCodec, que mejora la calidad de la música.

2. NASA e IBM liberan abiertamente el modelo de base de la inteligencia artificial geoespacial para los datos de observación de la Tierra de la NASA

NASA e IBM Research han colaborado para lanzar el modelo de IA geoespacial HLS, un modelo de IA geoespacial de código abierto para los datos de observación de la Tierra. Este modelo ha demostrado éxito en diversas aplicaciones, como la cartografía de inundaciones, la identificación de cicatrices de quemaduras y la predicción de rendimientos de cultivos.

3. IA generativa en Jupyter

Jupyter AI integra técnicas de IA generativa y proporciona funcionalidades como generación de código, corrección de errores, resumen de contenido, cuestionamiento de archivos y creación de cuadernos a partir de indicaciones de lenguaje.

4. RT-2: Nuevo modelo que traduce visión y lenguaje en acción

El Robotic Transformer 2 (RT-2) de Meta es un modelo de visión-lenguaje-acción que combina capacidades a gran escala con control robótico. Reconoce eficazmente patrones visuales y de lenguaje, generaliza habilidades emergentes y aprovecha con éxito datos basados en la web para aprender nuevas habilidades.

5. OpenAI lanza GPTBot con detalles sobre cómo restringir el acceso

OpenAI ha lanzado un rastreador web, GPTBot, para mejorar sus modelos de inteligencia artificial. GPTBot buscará datos en la web filtrando estrictamente las fuentes restringidas por muros de pago, las fuentes que violen las políticas de OpenAI o las fuentes que recopilen información de identificación personal.

Cinco lecturas/videos de 5 minutos para seguir aprendiendo

  1. La historia de los LLM de código abierto: Mejores modelos de base

Los LLM de código abierto han evolucionado para competir con los LLM propietarios mediante avances en la pre-entrenamiento y el desarrollo de modelos. Los desafíos iniciales se superaron al centrarse en la importancia del pre-entrenamiento y la creación de mejores modelos de base. Las tendencias recientes incluyen el uso de conjuntos de datos de pre-entrenamiento más grandes y la optimización de modelos para una inferencia rápida.

2. Los 10 mejores LLM de código abierto para usar en tu próxima aplicación de IA

Este artículo destaca los 10 mejores LLM de código abierto para el campo de la IA. Estos LLM ofrecen soluciones personalizables, habilidades de razonamiento, soporte multilingüe, comprensión del lenguaje natural, generación de texto, respuestas a preguntas, interfaces de chatbot, versatilidad y robustez.

3. Entendiendo la arquitectura LLaMA-2 y su impacto gigantesco en GenAI

El documento de 77 páginas de Meta sobre LLaMA-2 revela resultados impresionantes, superando los puntos de referencia de código abierto y compitiendo con GPT3.5. El artículo explica avances como la atención de consulta de agrupación, la atención fantasma, el reescalado de temperatura en contexto y la percepción temporal.

4. El investigador de IA Geoffrey Hinton cree que la IA tiene o tendrá emociones

El investigador de IA Geoffrey Hinton argumenta que la inteligencia similar a la humana solo se puede lograr, y posiblemente superar, a través del aprendizaje profundo porque permite que las máquinas narren acciones hipotéticas asociadas a las emociones. Esta postura cuenta con seguidores y críticos en círculos expertos.

5. Ajuste su LLM en una sola GPU con Gradient Checkpointing, LoRA y Cuantización

Este artículo presenta tres técnicas: Gradient Checkpointing, LoRA y Cuantización, que ayudan a ahorrar memoria GPU y evitar errores de memoria al ajustar modelos de lenguaje. Estas técnicas implican minimizar capas durante el entrenamiento, incrustar nuevos parámetros entrenables y reducir la precisión de los datos.

Artículos y Repositorios

  1. microsoft/azurechatgpt: Azure ChatGPT, ChatGPT privado y seguro para uso interno en la empresa

Microsoft ha presentado Azure ChatGPT, una solución privada y segura para implementar instancias de ChatGPT en Azure. Ofrece garantías de privacidad integradas, control completo sobre la accesibilidad y la capacidad de integrar fuentes de datos internas y complementos. Para facilitar la adopción, Microsoft también ha desarrollado una guía de Acelerador de Soluciones.

2. La documentación de herramientas permite el uso de herramientas sin entrenamiento con Modelos de Lenguaje Grandes

Un estudio reciente ha encontrado que, para los LLMs, leer la documentación de las herramientas es más efectivo que depender únicamente de demostraciones para aprender a usar nuevas herramientas. Los investigadores demostraron esto a través de hallazgos empíricos en seis tareas de visión y lenguaje, mostrando que las indicaciones sin entrenamiento con documentación de herramientas funcionan tan bien como las indicaciones con entrenamiento en pruebas de referencia.

3. PanGu-Coder2: Mejorando los Modelos de Lenguaje Grandes para el Código con Retroalimentación de Clasificación

Este artículo propone un nuevo marco de trabajo RRTF (Rank Responses to Align Test & Teacher Feedback), que puede aumentar de manera efectiva y eficiente los modelos de lenguaje grandes pre-entrenados para la generación de código. Bajo este marco de trabajo, presentamos PanGu-Coder2, que logra un 62.20% de aciertos@1 en la prueba de referencia OpenAI HumanEval.

4. XSTest: Un conjunto de pruebas para identificar comportamientos de seguridad exagerados en los Modelos de Lenguaje Grandes

Este artículo presenta un nuevo conjunto de pruebas llamado XSTest para identificar comportamientos de seguridad exagerados de manera estructurada y sistemática. Los resultados de las pruebas mostraron que el modelo Llama2 de Meta mostró un comportamiento de seguridad excesivo, rechazando indicaciones que eran inofensivas pero se parecían a las inseguras o tocaban temas sensibles.

5. El Efecto Hydra: Autorreparación emergente en las computaciones del modelo de lenguaje

Un estudio reciente en modelos de lenguaje descubrió el efecto Hydra, donde al eliminar una capa de atención se activa una compensación en otra. Además, los investigadores encontraron que las capas tardías de MLP reducen el token de máxima verosimilitud, incluso en modelos entrenados sin dropout.

¿Te gustan estos artículos y resúmenes de noticias? ¡Recibe un resumen diario en tu bandeja de entrada!

¡La sección Comunidad Aprendamos IA Juntos!

Podcast semanal de IA

En el episodio de esta semana del podcast “What’s AI”, Louis Bouchard comparte su propio viaje persiguiendo un doctorado en IA en Polytechnique Montreal y Mila. A lo largo de este episodio, brinda información sobre el proceso de admisión, la vida diaria de un candidato a doctorado y las habilidades que desarrollas en el camino. También profundiza en el concepto de aprendizaje federado y cómo la IA puede revolucionar el diagnóstico de la esclerosis múltiple. Ya sea que estés considerando un doctorado en IA o simplemente tengas curiosidad sobre la intersección de la IA y la medicina, este episodio es para ti. Sintoniza en Spotify o Apple Podcasts.

¡Meme de la semana!

Meme compartido por archiesnake

Publicación destacada de la comunidad en Discord

Weaver159 ha lanzado un nuevo proyecto llamado MetisFL, un marco de aprendizaje federado que permite a los desarrolladores federar sus flujos de trabajo de aprendizaje automático y entrenar sus modelos utilizando conjuntos de datos distribuidos sin tener que recopilar los datos en una ubicación centralizada. El núcleo del marco está escrito en C++ y prioriza la escalabilidad, la velocidad y la resiliencia. Actualmente, el proyecto anima activamente a los desarrolladores, investigadores y científicos de datos a experimentar con el marco y contribuir al código. Échale un vistazo en GitHub y apoya a un miembro de la comunidad. Comparte tus pensamientos o contribuciones en el hilo aquí.

¡Encuesta de IA de la semana!

Únete a la discusión en Discord.

Sección seleccionada de TAI

Artículo de la semana

Ajusta tu LLM en una sola GPU con Gradient Checkpointing, LoRA y Cuantización por Jeremy Arancio

Ajustar LLM puede ser largo y tedioso. Quedarse sin memoria durante el entrenamiento puede ser frustrante y costoso. Este artículo repasará tres técnicas que es posible que ya uses o necesites conocer sin entender cómo funcionan: Gradient Checkpointing, Low-Rank Adapters y Cuantización. Estas técnicas te ayudarán a evitar quedarte sin memoria durante tu entrenamiento y te ahorrarán mucho tiempo.

Nuestros artículos imprescindibles

Aprendizaje por conjuntos: De los árboles de decisión a los bosques aleatorios por Sandeepkumar Racherla

NLP moderno: Una descripción detallada. Parte 4: Los últimos desarrollos por Abhijit Roy

Aprendizaje auto-supervisado y Transformers? — Explicación del paper DINO por Boris Meinardus

Si estás interesado en publicar con Towards AI, consulta nuestras pautas y regístrate. Publicaremos tu trabajo en nuestra red si cumple con nuestras políticas editoriales y estándares.

Ofertas de trabajo

Ingeniero de software senior, Smart Contracts @Oasis Protocol Foundation (Remoto)

Ingeniero de aplicaciones senior @Mozilla (Remoto)

Ingeniero de soporte senior/principal — Europa @ClickHouse (Remoto)

Ingeniero de control de calidad @ShyftLabs (Toronto, Canadá)

Ingeniero de software senior — Personalización de búsqueda de IA @Algolia (Remoto)

Ingeniero de infraestructura senior @Angi (Remoto)

Ingeniero de datos Python @Altoida (Boston, Reino Unido)

¿Interesado en compartir una oportunidad laboral aquí? Contacta a [email protected].

Si estás preparando tu próxima entrevista de aprendizaje automático, no dudes en visitar nuestro sitio web líder en preparación de entrevistas, confetti!

https://www.confetti.ai/

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Los investigadores de Microsoft revelan 'EmotionPrompt' mejorando la inteligencia emocional de la IA en múltiples modelos de lenguaje

La inteligencia emocional es una piedra angular históricamente ubicada dentro del vasto mosaico de cualidades humanas...

Inteligencia Artificial

Utilice la IA generativa para aumentar la productividad de los agentes mediante la automatización de la síntesis de llamadas.

Tu centro de contacto sirve como el vínculo vital entre tu negocio y tus clientes. Cada llamada a tu centro de contac...

Inteligencia Artificial

El futuro de la guerra totalmente autónoma impulsado por IA está aquí

Barcos sin tripulación. Enjambres de drones autónomos. Cómo una fuerza de tarea de la Armada de los Estados Unidos es...

Ciencia de Datos

Aprendizaje Profundo en Sistemas de Recomendación Una introducción.

Los sistemas de recomendación se encuentran entre las aplicaciones de Aprendizaje Automático industrial de más rápido...

Inteligencia Artificial

Los Juegos Asiáticos, un hito para los eSports que alimenta los sueños olímpicos

En los Juegos Asiáticos de Hangzhou, China, los jugadores de eSports tendrán la oportunidad de ganar medallas por pri...

Noticias de Inteligencia Artificial

¡No más trampas! ¡Sapia.ai detecta respuestas generadas por inteligencia artificial en tiempo real!

En un emocionante avance, Sapia.ai ha presentado una nueva función que puede identificar y marcar respuestas creadas ...