IBM planea alojar el modelo de 70 mil millones de parámetros de Llama 2-chat de Meta en watsonx.ai studio, con acceso anticipado y disponible para clientes y socios selectos. Esto se basará en la colaboración de IBM con Meta en innovación abierta para la IA, incluyendo el trabajo con proyectos de código abierto desarrollados por Meta, como el PyTorch machine learning framework y el motor de consultas de Presto utilizado en watsonx.data.
Esto también apoyará la estrategia de IBM de ofrecer modelos de IA propios y de terceros. En la actualidad, en watsonx.ai, los desarrolladores de IA pueden aprovechar los modelos de IBM y de la comunidad de Hugging Face, que están pre-entrenados para dar soporte a una serie de tareas de Procesamiento de Lenguaje Natural (NLP), incluyendo respuesta a preguntas, generación y resumen de contenido y clasificación y extracción de textos.
La futura disponibilidad de Llama 2 en watsonx.ai es considerada un hito dentro de la hoja de ruta de IA generativa de IBM y se espera que le sigan los próximos lanzamientos de AI Tuning Studio, modelos de IA adicionales en watsonx.ai y FactSheets en watsonx.governance.
En IBM aseguran que mantienen el compromiso con los principios de confianza y seguridad a medida que aumentan su portfolio de IA generativa. Por ejemplo, cuando los usuarios ejecutan el modelo Llama 2 a través del laboratorio de consultas de watsonx.ai, pueden activar la función AI guardrails para ayudar a eliminar automáticamente el lenguaje ofensivo del texto de entrada y del resultado generado. Meta también se ocupa de explicar la metodología de optimización utilizada en sus grandes modelos de lenguaje como parte de un compromiso ético de transparencia.
Entre las primeras sorpresas en este tema se encuentra la alianza por la cual Meta y Microsoft anunciaron la compatibilidad con la familia Llama 2 den Azure y Windows. “Estamos entusiasmados de que Meta adopte un enfoque abierto con Llama 2. Ofrecemos a los desarrolladores opciones en los tipos de modelos que buscan, y estamos encantados de ser el socio preferido de Meta en el lanzamiento de su nueva versión de Llama 2 para clientes comerciales por primera vez”, se entusiasmaba Satya Nadella, CEO de Microsft durante su evento Inspire.
Tras el anuncio los clientes de Azure podrán ajustar e implementar los modelos Llama 2 con parámetros 7B, 13B y 70B de manera fácil y segura en Azure, la plataforma para los modelos abiertos y de frontera más ampliamente adoptados. Además, Llama se optimizará para ejecutarse localmente en Windows. Los desarrolladores de Windows podrán usar Llama dirigiéndose al proveedor de ejecución de DirectML a través de ONNX Runtime, lo que permitirá un flujo de trabajo fluido a medida que traigan experiencias generativas de IA a sus aplicaciones.
Por el lado de la Big Blue la apuesta incluye utilizar los impresionantes recursos de IBM Consulting que cuenta con la experiencia de 21.000 consultores de datos, IA y automatización, además de su Centro de Excelencia para la IA Generativa, compuesto por más de 1.000 consultores con experiencia en IA generativa especializada. Estos expertos pueden trabajar con los clientes para ayudarles a ajustar y poner en funcionamiento modelos para casos de uso específicos alineados con sus necesidades empresariales.
Con este anuncio IBM, al igual que Meta, muestran que son partidarios de la innovación abierta. Y por eso importante involucrar a una comunidad sólida y diversa de creadores e investigadores de IA para que experimenten, compartan opiniones y colaboren en estas tecnologías para impulsar la innovación. Estamos entusiasmados de ver lo que estos innovadores construirán con Llama 2 y otros modelos en la plataforma watsonx.