El panorama de la inteligencia artificial (IA) ha cambiado drásticamente en el último año con la rápida adopción de la IA generativa (GenAI). Esto dificulta que las organizaciones sean cautelosas con la tecnología y ejerce presión sobre los programas de IA responsable (RAI, por sus siglas en inglés) para mantenerse al día con los avances continuos.
Según el informe "Building Robust RAI Programs as Third-Party AI Tools Proliferate" del MIT Sloan Management Review (MIT SMR) y Boston Consulting Group (BCG), el 53% de las organizaciones utiliza exclusivamente herramientas de IA de terceros y no tienen herramientas diseñadas o desarrolladas internamente. Sin embargo, el 55% de todas las fallas relacionadas con esta tecnología, provienen justamente de herramientas de inteligencia artificial externas.
"El panorama de la IA, tanto desde el punto de vista tecnológico como normativo, ha cambiado radicalmente desde que publicamos nuestro informe el año pasado", afirma Elizabeth M. Renieris, editora invitada del SMR del MIT y coautora del informe. "De hecho, con la repentina y rápida adopción de herramientas de IA generativa, la IA se convirtió en el tema de conversación habitual. Y, sin embargo, muchos de los fundamentos siguen siendo los mismos. Este año, nuestra investigación reafirma la urgente necesidad de que las organizaciones sean responsables invirtiendo y escalando sus programas de RAI para abordar los crecientes usos y riesgos de la IA."
Tanto aquellos que ocupan posiciones de liderazgo como aquellos que no lo hacen deben tomar medidas. Los líderes de RAI aumentaron del 16%, obtenido en nuestra primera muestra, al 29% año tras año. A pesar de este progreso, el 71% de las organizaciones no son líderes. Con los riesgos significativos que surgen de las herramientas de IA de terceros, es hora de que la mayoría de las organizaciones redoblen sus esfuerzos en RAI.
Amplia dependencia de la IA de terceros
La gran mayoría (78%) de las organizaciones encuestadas depende en gran medida de la IA de terceros, lo que las expone a una serie de riesgos, incluido el daño a la reputación, la pérdida de confianza de los clientes, pérdidas financieras, sanciones regulatorias, desafíos de cumplimiento y litigios. Aun así, una quinta parte de las organizaciones que utilizan herramientas de IA de terceros no evalúa sus riesgos en absoluto.
Emplear una amplia variedad de enfoques y métodos para evaluar las herramientas de terceros es una estrategia efectiva para mitigar el riesgo. Las organizaciones que emplean siete métodos diferentes tienen más del doble de probabilidades de descubrir fallas que aquellas que solo usan tres (51% frente al 24%). Estos enfoques incluyen lenguaje contractual que exige el cumplimiento de los principios de RAI, precertificación y auditorías de proveedores, revisiones internas a nivel de producto y el cumplimiento de requisitos regulatorios y estándares de la industria relevantes.
Un panorama regulatorio en constante evolución
El panorama regulatorio está evolucionando casi tan rápidamente como la IA misma, con muchas regulaciones nuevas específicas de la IA que entran en vigor de manera escalonada. Aproximadamente la mitad (51%) de las organizaciones encuestadas informa estar sujetas a regulaciones no específicas de la IA que, sin embargo, se aplican a su uso de la IA, incluyendo una alta proporción de organizaciones en servicios financieros, seguros, atención médica y sectores públicos. Las organizaciones sujetas a tales regulaciones representan un 13% más de líderes de RAI que las organizaciones no sujetas a ellas. También informan de menos fallas de IA que sus contrapartes que no están sujetas a las mismas presiones regulatorias (32% frente al 38%).
Cuál es el rol del CEO
Los CEO desempeñan un papel clave tanto para afirmar el compromiso de una organización con la IA como para mantener las inversiones necesarias en ella. Las organizaciones con un CEO que desempeña un papel activo en los esfuerzos de RAI (como participar en decisiones de contratación relacionadas, discusiones a nivel de producto o establecimiento de objetivos de desempeño asociados) informan un 58% más de beneficios comerciales que las organizaciones con un CEO menos activo, independientemente de su estatus de líder. Además, las organizaciones con un CEO que participa directamente en temas asociados con la inteligencia artificial responsable, tienen más probabilidades de invertir en ella, que aquellas con un CEO menos involucrado (39% frente al 22%).
La necesidad de un mayor enfoque y acción en la implementación de la RAI en América del Sur.
América del Sur se rezaga en RAI, siendo la única región que experimentó una disminución del 3% en el porcentaje de organizaciones consideradas líderes en RAI desde 2022. La brecha en términos de madurez y adopción de RAI entre esta región y otras se está ampliando, lo que destaca la necesidad urgente de un mayor enfoque y acción en la implementación.
Cinco recomendaciones para un panorama de IA en constante cambio
El informe presenta cinco recomendaciones para las organizaciones a medida que navegan por la rápida adopción de la IA y los riesgos inherentes asociados a ella:
1. Avanzar rápidamente hacia programas maduros en inteligencia artificial responsable
2. Evaluar adecuadamente las herramientas de terceros
3. Prepararse para las regulaciones emergentes
4. Involucrar a los CEO en los esfuerzos de RAI para maximizar el éxito
5. Redoblar la inversión en RAI
"La inteligencia artificial está avanzando a pasos agigantados, por lo que es momento de invertir en programas robustos de IA responsable ", asegura Julián Herman, socio de BCG. "Las compañías no pueden depender exclusivamente de terceros, necesitan poner liderazgo y recursos detrás de sus esfuerzos, tanto para generar valor al negocio como para administrar adecuadamente los riesgos asociados", concluye Herman.