Las llamativas inversiones en IA generativa demostraron que la expectativa por esta tecnología se mantiene hasta bien entrado su segundo año. La tecnología está presente en todos los rincones de la empresa, y las organizaciones la sitúan al frente de su estrategia de producto.
Pero, ¿las empresas que implementaron la IA generativa obtuvieron beneficios en sus cuentas de resultados?
Aunque la mayoría del software empresarial adoptó rápidamente alguna funcionalidad de "escritura con IA", el valor que hay detrás de estas capacidades es táctico y aún no transformó la organización a nivel estratégico. Para proporcionar un valor más profundo, la IA generativa debe combinar los datos locales de una organización con las capacidades de la IA y proporcionar resultados específicos de la empresa y del contexto.
Más allá de lo básico
Una limitación clave de la IA generativa fue su amplia e inespecífica base de conocimientos. Por un lado, los LLM se entrenaron con grandes corpus de datos y pueden responder, con mayor o menor éxito, a preguntas sobre conocimientos generales del mundo. Por ejemplo, pueden indicar a alguien con rapidez y precisión cómo hacer una tortilla.
Pero el desayuno no es una estrategia empresarial. Cuando se le plantean preguntas sobre cómo resolver desafíos empresariales, la IA generativa tiene dificultades para producir respuestas relevantes y valiosas, simplemente porque no conoce los datos exclusivos de ese negocio.
Acá radica el desafío: para hacer el máximo de sus inversiones en IA, los líderes deben extraer valor de la IA generativa equipándola con un conocimiento más contextual y multicapa.
¿Qué se intentó hasta la fecha?
Para abordar el desafío del contexto y hacer que la IA generativa sea más valiosa para los resultados empresariales, la industria presentó varios enfoques:
1. Aumentar el tamaño de las instrucciones
Todos los LLM tienen un tamaño de pregunta limitado, es decir, el número de entradas que puede analizar una sola pregunta. Aunque se trata de una limitación fundamental, los proveedores de tecnología pudieron aumentar gradualmente ese límite.
Sin embargo, incluso con límites mayores, es poco práctico para las empresas empaquetar toda la información contextual necesaria para una respuesta en una sola pregunta, tanto desde el punto de vista de los costos como de la latencia. Por ejemplo, un LLM no puede tener en cuenta 200 presentaciones y 2.000 correos electrónicos con un cliente en una sola solicitud; eso llevaría horas para generar la respuesta.
2. Formación de LLM ad hoc
Muchas organizaciones entrenan a los LLM en los datos específicos de su negocio. Aunque esto adapta el modelo a las necesidades de la empresa en su contexto, pierde su eficacia a medida que la información se convierte en obsoleta cuando se crean nuevos puntos de datos con el tiempo.
3. Generación mejorada por recuperación (RAG)
Con la RAG, los documentos se convierten en vectores y luego se indexan utilizando una base de datos vectorial, lo que ayuda a preservar la semántica de los documentos. A continuación, cuando un usuario formula una pregunta, se buscan en la base de datos documentos semánticamente similares. Una vez recuperados los documentos relacionados, se ensambla una respuesta utilizando un LLM.
Si bien este enfoque es prometedor para búsquedas fácticas sencillas que son fáciles de localizar en la base de datos vectorial ("¿dijo mi perspectiva que su presupuesto es flexible?"), es poco práctico para preguntas de orden superior (como "¿cuál es el mejor siguiente paso a dar para cerrar este trato?"), ya que no hay documentos relacionados que puedan proporcionar la respuesta.
4. Llamada a funciones
Esta técnica permite que la interfaz de chat invoque llamadas a la API. Por ejemplo, cuando un usuario pregunta "¿cuántos clientes tenemos?", el motor GPT responde con un documento que guía a la interfaz de chat para que inicie una función como "enlistar clientes" y devuelva ese número.
Este enfoque funciona bien cuando la pregunta se relaciona claramente con un conjunto sustancial de API claramente definidas. Sin embargo, falla cuando se plantean preguntas más abiertas. Si un cliente pregunta "¿cuáles son las señales de compra positivas en esta operación?", el sistema no podrá dar una respuesta significativa si no existe una API que devuelva esas señales.
La próxima frontera
Estos métodos muestran que persiste una brecha: Mientras que las respuestas sencillas no son un problema para la IA generativa, la respuesta a preguntas a gran escala sí lo es. Para aportar valor respondiendo a preguntas empresariales no triviales, la tecnología debe comprender qué información se busca y, a continuación, decidir qué información aportar al modelo.
Esto puede incluir varios elementos nuevos:
1. Mapeo de intenciones
En este método, primero hay que asignar la pregunta a una estrategia potencial para abordarla. Por ejemplo, si un jefe de ingresos que prepara su previsión trimestral pregunta si se cerrará una operación, un resultado obtenido de un modelo predictivo precalculado puede arrojar una respuesta sobre el resultado previsto.
Para complementar el mapeo de intenciones, los equipos necesitan herramientas eficaces para abordar las principales intenciones, garantizando al mismo tiempo que todas las intenciones se traten bien.
2. Indexación de dominios específicos
Para responder a preguntas específicas de un dominio, los datos deben ser preprocesados y "etiquetados" para ser identificados. Por ejemplo, cuando un usuario busca los "objetivos empresariales" de un cliente, el sistema debe identificarlos rápidamente. Como el número de estos objetivos potenciales es enorme, llevará mucho tiempo buscarlos todos.
En su lugar, la comunicación previa con el cliente debe etiquetarse como relevante, posiblemente utilizando modelos de IA subyacentes que entiendan las conversaciones con el cliente. De este modo, la IA puede encontrar más fácilmente esa información y responder a una pregunta sobre objetivos empresariales.
Una indexación eficaz requiere una comprensión profunda del dominio para identificar las pistas y la intención en los datos, incluso cuando solo se mencionan implícitamente.
3. Respuestas no textuales
En el contexto de las preguntas empresariales, las respuestas basadas en texto pueden ser difíciles de consumir.
Por ejemplo, cuando se les pregunta por el histórico de ventas, los directivos normalmente prefieren ver los datos en un gráfico en lugar de en formato textual. Para ello, parte del mapeo de intenciones de las aplicaciones empresariales determinaría el formato de salida deseado. Las aplicaciones pueden convertir los datos obtenidos a ese formato.
Para ello, es necesario conocer los datos que se van a mostrar y el mejor método para representarlos, algo que la mayoría de los modelos disponibles hoy en día no permiten.
La importancia de la IA generativa basada en el conocimiento
Con los LLM disponibles en el mercado, que se convirtieron en un elemento básico de muchas herramientas de software, los usuarios disponen ahora de una nueva eficiencia. Pero aún no se decidió si esta tecnología puede aportar un valor empresarial transformador.
Ahí es donde la IA generativa con conocimientos empresariales contextuales marca la diferencia. Podría permitir a las empresas aprovechar sus datos de formas antes inimaginables, impulsando potencialmente un nivel de innovación y crecimiento que aún no presenciamos.
*Con informacion de Forbes US