La inteligencia artificial nos acompañará por el resto de nuestros días y por eso es necesario entender su potencial, así como sus riesgos. Una de las herramientas más conocidas de la IA es Chat GPT que hace un año tenía 13 millones de usuarios y que en diciembre pasado llegó a los 185 millones de usuarios, a escala global.
Meses atrás, al probar esa y otras herramientas de IA, me permití decir en un artículo de opinión que estábamos ante el inicio de algo muy grande. Creo que me quedé corto y en el trascurso del 2023 fui (fuimos) testigos de las posibilidades que tiene la inteligencia artificial. Pude entrevistar a emprendedores que la empezaron a usar para temas tan variados como la facturación electrónica o para detectar riesgos en las compras públicas; otros la aprovechan para el arte y hay quienes usan la IA para el deporte o para servicios financieros y un largo etcétera.
Pero no todo lo que brilla es oro. El pasado 27 de diciembre salió a la luz que el New York Times demandó a OpenAI y a Microsoft por “uso ilegal” de millones de artículos protegidos por derechos de autor para entrenar modelos de inteligencia artificial generativa, alegando “miles de millones de dólares” en daños y perjuicios. La demanda alega que la tecnología de OpenAI y Microsoft que impulsa ChatGPT y Bing Chat, ahora llamada Copilot, “puede generar resultados que recitan el contenido del Times textualmente, lo resumen e imitan su estilo expresivo”, según reportó Forbes EE.UU.
Esta acción legal no es cualquier cosa. Estamos hablando de uno de los medios de comunicación más poderosos del planeta que decidió defender su trabajo y el de sus periodistas, ante el arrasador Chat GPT que parece estar convirtiéndose en una bestia difícil de domar, pero que cada vez gana más seguidores-usuarios. Temas delicados como la propiedad intelectual, los derechos de autor, la honestidad y el respeto entran en juego con la demanda del medio neoyorquino.
Otra noticia que también involucra a la IA llegó desde el cono sur. El diario argentino Clarín anunció que sus lectores ya cuentan con un asistente que funciona con inteligencia artificial. “Este asistente genera textos condensados, reorganiza la información y extrae datos y números con el objetivo de proporcionar una alternativa de lectura al texto original de una nota”.
Honestamente cuando supe esto sentí un poco de miedo. Ya de por sí la gente hoy lee muy poco, razona menos y no se esfuerza en entender ciertos contenidos y se cree mucho de lo que circula en redes sociales. Con esa herramienta de IA existe la probabilidad de que el esfuerzo sea aún menor, aunque también es probable que los algoritmos y el medio manipulen la información. Ya no tengo poco miedo, sino muchísimo.
En pocas palabras esto significa facilitar al extremo la lectura y, lo más preocupante, reducir la comprensión de las noticias y la capacidad de analizar y debatir con argumentos. A la final todos sabemos que la IA tiene los sesgos de quienes desarrollan los algoritmos que permiten que la IA nos 'ayude'.
Mientras escribo estas líneas recuerdo una publicación que leí en LinkedIn hace unos meses. Decía, palabras más, palabras menos, que a la hora de comunicar es importante ofrecer mensajes cortos, sencillos, fáciles de entender para que el cerebro trabaje lo menos posible. Sí, tal como lo leen, ese posteo sugería no aprovechar una de las mayores herramientas que tiene el ser humano: su cerebro. ¿Acaso estamos dejando todo en manos de la inteligencia artificial y ya no confiamos en nuestras capacidades y habilidades?
Si a todo lo anterior sumamos la velocidad con la que circula información (real y falsa) en redes, con dibujitos y subtítulos incluídos, con algoritmos que nos trazan el camino, las lecturas y los gustos no es disparatado asegurar que la IA ya dirige parte de nuestras vidas y que lo mejor que podemos hacer es entender todo lo bueno y lo malo que nos está dejando la inteligencia artificial. (O)