La adquisición de tierras de LLM cómo AWS, Azure y GCP están luchando por la IA

La adquisición de tierras de LLM cómo AWS, Azure y GCP luchan por la IA

En la década de 2000, los teléfonos celulares aún eran voluminosos y utilitarios. Pero en julio de 2004, Motorola presentó el Razr, con su elegante y ultradelgado cuerpo de aluminio que contrastaba con los teléfonos básicos de la época. Posicionado como un dispositivo premium, el Razr se agotó rápidamente, vendiendo 50 millones de unidades en solo dos años y más de 130 millones en varios modelos en cuatro años. El Razr revivió por sí solo la estancada división de telefonía móvil de Motorola y cambió la fortuna de la empresa, al menos por un tiempo.

En aquel entonces, era común que los operadores de telefonía celular ofrecieran acceso exclusivo a teléfonos nuevos y populares como el Razr para incentivar a los clientes a cambiar de redes. Cingular Wireless logró un gran éxito al obtener los derechos exclusivos del Razr. La estrategia valió la pena: Cingular adquirió AT&T Wireless en 2004 y se convirtió en el operador de telefonía móvil más grande de Estados Unidos gracias al popular Razr.

Hoy en día, una dinámica similar se desarrolla en el mundo de los grandes modelos de lenguaje (LLMs) y la computación en la nube. Los principales actores como Amazon, Microsoft y Google compiten para satisfacer la creciente demanda de LLMs como GPT-3. Pero al igual que el Razr, el acceso a los modelos más avanzados está limitado a plataformas de nube específicas. A medida que los clientes clamor por capacidades de IA generativa, los proveedores de nube se apresuran a implementar LLMs y promover la adopción de sus plataformas. Así como el Razr impulsó a Cingular, el acceso exclusivo a codiciados LLMs puede dar cierta ventaja a ciertos proveedores de nube y reorganizar la jerarquía de la infraestructura en la nube. Este artículo explora cómo los principales proveedores de nube están navegando la fiebre del oro de la IA y utilizando la exclusividad en su beneficio.

PC Magazine: 4 Empresas Controlan el 67% de la Infraestructura en la Nube del Mundo

Amazon Web Services: El Enfoque de la Navaja Suiza

Con su amplia gama de ofertas de infraestructura en la nube y su escala incomparable, Amazon Web Services (AWS) se ha establecido firmemente como el jugador dominante en el espacio. Sin embargo, el ascenso meteórico de los grandes modelos de lenguaje (LLMs) como GPT-3 plantea un nuevo desafío para el gigante tecnológico.

Al no contar con un LLM propio igualmente llamativo, AWS corre el riesgo de perder terreno frente a competidores que están lanzando sus propios modelos al mercado. En lugar de intentar competir modelo por modelo, AWS ha adoptado un enfoque diferente: permitir el acceso a la mayor cantidad posible de modelos mediante asociaciones y colaboraciones.

Así surge Amazon Bedrock, lanzado en abril de 2023. Bedrock sirve como una plataforma para que los desarrolladores accedan y combinen capacidades de una diversa lista de LLMs, tanto antiguos como nuevos. Esto incluye nombres conocidos como el conversacional Claude 2 de Anthropic, el generador de código Jurassic-2 de AI21 Labs, los modelos multipropósito Command y Embed de Cohere, y la herramienta de síntesis de imágenes Stable Diffusion de Stability.ai.

En lugar de apostar por un solo modelo, AWS se posiciona como la navaja suiza de los LLMs, otorgando a los desarrolladores la flexibilidad de mezclar y combinar las mejores características de una amplia variedad de modelos.

Y AWS no se queda inactivo en el frente de los LLMs. Aunque los detalles son escasos, está desarrollando su propio LLM de producción propia, Titan. Pero la fortaleza de AWS siempre ha sido su plataforma, no la IA propietaria. Al reducir la fricción para acceder e implementar LLMs, AWS apuesta a que los desarrolladores se mantengan fieles a lo que conocen.

Google Cloud: El Enfoque del Jardín Amurallado

Como un peso pesado en la investigación de IA, Google estaba perfectamente posicionado para capitalizar la explosión de los grandes modelos de lenguaje (LLMs). Y en 2021, presentaron LaMDA, un LLM que rivaliza las capacidades de GPT-3.

El acceso a los modelos de IA de Google se proporciona a través de Model Garden, un servicio gestionado en la plataforma Google Cloud Platform (GCP). Model Garden proporciona modelos base listos para empresas, modelos específicos para tareas y APIs para iniciar flujos de trabajo. Estos incluyen el uso directo de modelos, ajustarlos en el Generative AI Studio o implementarlos en un cuaderno.

A partir de agosto de 2023, Model Garden incluye modelos propios como el conversacional LaMDA, el generador de texto a imagen Imagen y la herramienta de autocompletado de código Codey. Google también tiene modelos de código abierto como BERT, T5, ViT y EfficientNet para una implementación fácil en GCP.

Pero Google no limita Model Garden exclusivamente a su propia IA. Ya se están agregando modelos de terceros, lo que indica que Google quiere ser el único destino para las necesidades de IA. Sin embargo, es poco probable que los competidores ofrezcan sus modelos más avanzados. La pregunta clave es qué proveedores licenciarán sus modelos para su disponibilidad en GCP.

Suscríbete ahora

Microsoft Azure: Apostando por la exclusividad de OpenAI

Microsoft hizo una apuesta temprana y significativa en los modelos de lenguaje grande (LLMs, por sus siglas en inglés) que está dando grandes resultados. En 2019, antes de que la mayoría comprendiera el asombroso potencial de los LLMs, Microsoft invirtió mil millones de dólares en OpenAI, el creador de GPT-3.

Esta inversión previsora aseguró a Microsoft acceso exclusivo a los LLMs en rápido avance de OpenAI, incluyendo versiones mejoradas de GPT-4 y el generador de imágenes DALL-E. Con OpenAI dominando los titulares de IA, Microsoft está aprovechando su acceso exclusivo para atraer a los clientes a su plataforma de nube Azure. Y está funcionando: al aprovechar el éxito de OpenAI, Azure está erosionando constantemente la dominación de AWS en la cuota de mercado de la nube.

Sin embargo, Microsoft no ha puesto todos sus huevos en la cesta de OpenAI. Recientemente se asoció con Meta para lanzar LLaMA, un LLM de código abierto. Esto permite a Microsoft diversificar su cartera de LLM más allá de OpenAI, cubriendo sus apuestas en caso de que un nuevo modelo usurpe a GPT-3 como rey de la colina.

El resto: Enfoques diversos para obtener tracción con LLM

Las principales plataformas de la nube como AWS, Microsoft Azure y Google Cloud cuentan con modelos de IA propietarios llamativos para atraer a clientes empresariales. Las empresas más pequeñas que carecen de modelos destacados internos están adoptando un enfoque flexible de “BYOM” (Bring Your Own Model) en su lugar. En lugar de apresurarse a desarrollar modelos únicos, permiten a los clientes integrar modelos de terceros o personalizados en flujos de trabajo.

El servicio watsonx de IBM ejemplifica esta estrategia. Ofrece una plataforma de MLOps para construir y entrenar modelos de IA adaptados a necesidades específicas. Watson X se integra perfectamente con repositorios de código abierto como Hugging Face para aquellos que desean modelos listos para usar. Esto permite a los clientes aprovechar una amplia gama de modelos preconstruidos.

Salesforce combina la investigación interna de IA con flexibilidad externa. Su competente equipo de investigación de IA ha construido constantemente ofertas propietarias como CodeGen, XGen y CodeT5+. Pero Salesforce cloud también admite nativamente los modelos de socios de proveedores como Anthropic y Cohere. Esto evita el bloqueo del cliente al tiempo que proporciona acceso a la IA de terceros líder.

Oracle apuesta por Cohere. Participó en la última ronda de financiación de Cohere de 270 millones de dólares (junto con Nvidia y Salesforce). Los clientes de Oracle tendrán acceso al LLM de Cohere a través de Oracle Cloud Infrastructure. Por su parte, Cohere se mantiene neutral en cuanto a la nube al asociarse con varios proveedores de la nube.

Las nuevas empresas de IA

Además de los principales proveedores de infraestructura en la nube, también hay empresas especializadas en análisis de datos e IA que están haciendo movimientos. En lugar de competir directamente con los grandes jugadores, buscan llenar vacíos y proporcionar capacidades complementarias.

Snowflake permite a los clientes acceder a una variedad de LLMs de terceros en su Snowflake Marketplace. También está desarrollando su propio modelo llamado DocumentAI para extracción de información. En lugar de ser una tienda de modelos única, Snowflake se enfoca en su fortaleza: la integración de datos, mientras se asocia en IA.

Databricks adquirió MosaicML por su plataforma empresarial de MLOps diseñada para construir, implementar y monitorear modelos de aprendizaje automático. MosaicML también produjo el vanguardista LLM de código abierto MPT-30B. Con ingeniería y herramientas de ML, Databricks permite a los clientes crear soluciones de IA altamente personalizadas potenciadas por sus asociaciones.

Crédito: Matthew Yohe

La batalla por la supremacía de la IA empresarial todavía está en sus primeras etapas impredecibles. Mientras que los proveedores de la nube más importantes como AWS, Azure y GCP hoy en día promocionan el acceso exclusivo a modelos de vanguardia como GPT-3 y Codex, los jugadores más pequeños están adoptando un enfoque diferente. Al enfatizar la flexibilidad, la personalización y las asociaciones, buscan permitir a los clientes aprovechar las posibilidades de la IA sin estar atados a un proveedor.

Es fácil quedar absorbido por las fortalezas de los jugadores que actualmente están en el campo. La historia nos muestra cómo un nuevo participante puede cambiar el tablero de formas imprevistas. Tal como sucedió en 2007, cuando Steve Jobs presentó el iPhone y puso fin al reinado del Razr prácticamente de la noche a la mañana.

Una cosa está clara, todavía es demasiado pronto para determinar quién ganará la carrera.

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Una inmersión profunda en las implicaciones de seguridad de la personalización y afinación de grandes modelos de lenguaje.

En un esfuerzo colaborativo revolucionario, IBM Research, Princeton University y Virginia Tech han arrojado luz sobre...

Inteligencia Artificial

Transmisión de respuestas de modelos de lenguaje amplios en Amazon SageMaker JumpStart

Estamos emocionados de anunciar que Amazon SageMaker JumpStart ahora puede transmitir respuestas de inferencia de mod...

Inteligencia Artificial

Conoce al Omnívoro Diseñador Industrial combina el Arte y el OpenUSD para crear Activos 3D para el Entrenamiento de IA

Nota del editor: esta publicación es parte de nuestra serie Conoce al Omnivore, que presenta a creadores y desarrolla...

Inteligencia Artificial

Investigadores de UC Berkeley y Deepmind proponen SuccessVQA una reformulación de la detección de éxito que es compatible con VLM pre-entrenados como Flamingo.

Para lograr la máxima precisión en el rendimiento, es crucial entender si un agente está en el camino correcto o pref...

Investigación

Investigadores de Princeton presentan Infinigen un generador procedural de escenas tridimensionales fotorrealistas del mundo natural.

El equipo de investigación de la Universidad de Princeton ha presentado Infinigen, un innovador generador procedural ...