Mientras ChatGPT, Anthropic, Mistral, Google, AWS, 01.ai y otros actores del LLM generan titulares publicando modelos nuevos y más capaces, haciéndose obsoletos unos a otros de la noche a la mañana en ciertos puntos de referencia, muchos cuestionaron la estrategia de Meta en IA.
Sus fuertes inversiones en investigación fundamental, dirigidas por uno de los "padres del aprendizaje profundo", el Dr. Yann LeCun, y su enfoque de código abierto desconcertaron a muchos analistas del sector. ¿Cómo iba a hacer dinero la empresa? ¿Por qué permite que tantos competidores tomen Llama, construyan sobre ella y superen a la propia Llama en las pruebas comparativas?
La semana pasada, Meta respondió definitivamente a muchas de estas preguntas y anunció una gama de modelos Llama 3 muy capaces que dejan en la cuneta a los puntos de referencia de la competencia. Estos modelos también son de código abierto, así que si querés construir sobre ellos y crear una aplicación dentro de su organización, desde luego que podés. Pero, por primera vez, Meta hizo algo más: publicó sistemas basados en Llama para los consumidores a través de sus numerosos canales.
Pensalo. Mientras que cientos de millones de personas entraron en ChatGPT, Bing de Microsoft e incluso Grok de xAI, Meta tiene miles de millones de usuarios en WhatsApp, Instagram y Facebook Messenger. Se trata de mensajeros que pueden soportar perfectamente la IA conversacional. Y el asistente de IA Meta parece ser asombroso.
Como explicó la empresa al anunciarlo: "Podés utilizar Meta AI en Facebook, Instagram, WhatsApp y Messenger para hacer cosas, aprender, crear y conectar con las cosas que le importan". Sólo tenés que llamar a @Meta AI en el chat y empezar a conversar. También está disponible a través de la página web de Meta.AI y puede generar texto e imágenes.
Hacer que las herramientas de Llama, muy capaces, sean gratuitas en sus plataformas probablemente desmonetizará la mayoría de las ofertas de otros proveedores de LLM. Y puesto que la mayoría de las otras herramientas se basan en modelos que no son de código abierto, el nivel de confianza del público hacia las herramientas de Meta debería ser significativamente mayor. El enfoque de código abierto es estratégico y ayuda a toda la industria a crecer con un propósito claro: generar confianza y lograr la validación a escala mundial de los modelos internos de Meta para evitar los numerosos fiascos experimentados por Google y otros en el pasado.
Actualmente, Meta Llama 3 supera a otros modelos publicados en la mayoría de los puntos de referencia. Esto podría muy bien ser el ocaso de la era de las startups sobrevaloradas que desarrollan sus propios LLM y el amanecer de una nueva era en la que todos los LLM orientados al consumidor pertenezcan sólo a unos pocos actores prominentes, al igual que vimos con la búsqueda. Y Meta será el jugador dominante en este juego.
Me puse en contacto con Yann LeCun para pedirle un comentario, y no estuvo de acuerdo. "Todo lo contrario: los modelos de código abierto de alto rendimiento abren la puerta a una gran variedad de jugadores que pueden ajustar esos modelos a lenguas, culturas, sistemas de valores, inclinaciones políticas y centros de interés particulares".
Espero que tenga razón y que Meta siga abriendo sus potentes modelos de código abierto para que la comunidad prospere.
El rey murió, ¡viva el rey!
Llama 3 gusta en la mayoría de los puntos de referencia. Como informaron sus desarrolladores en X, supera a todos los demás modelos de código abierto y es probable que supere a la mayoría de los modelos superiores en muchos puntos de referencia.
Ahmad Al-Dhale, vicepresidente de genAI en Meta, compartió los puntos que comparan los principales modelos de código abierto.
El Dr. Ashton Zhang, científico investigador de Meta que trabaja en Llama y autor de Dive into Deep Learning, un libro de código abierto sobre IA, tuiteó los datos de las pruebas comparativas con comentarios.
El modelo 70B puede ejecutarse en tu laptop. Podés ejecutar Llama 3:Instruct en tu MacBook Pro con chip M1 (mi configuración). Acá podés ver lo fácil que es con Open-WebUI.
Entonces, ¿en qué deberían centrarse las startups de IA?
Yo les aconsejaría que utilizaran los LLM más potentes de los grandes actores y que se centraran en modelos de IA en los que Meta, Microsoft, Amazon y Google tienen poca o ninguna experiencia y en los que la validación del resultado del modelo requiere una importante experiencia en el dominio y experimentación.
Por ejemplo, en Insilico Medicine, desarrollamos múltiples LLM multimodales multiómicos para química y biología, incluida la serie PreciousGPT para la investigación del envejecimiento. Es prácticamente imposible generar los datos y validar estos modelos a escala sin un laboratorio experimental de alto rendimiento totalmente automatizado y una experiencia significativa en estos dominios especializados. Los transformadores entrenados en texto e imágenes no son capaces de resolver estas tareas específicas de dominio, pero sí de ayudar a planificar, ejecutar y analizar el trabajo de los modelos específicos de dominio entrenados en tipos de datos de biología y química.
*Con información de Forbes US