Cortemos la politización de la Inteligencia Artificial
Nicolás Krapf Consultor en comunicación
Nicolás Krapf Consultor en comunicación
¿Qué harías si las decisiones que solían ser tomadas por humanos, con todos sus sesgos, comienzan a ser tomadas por algoritmos que son matemáticamente incapaces de hacerlo sesgadamente? Si sos racional, deberías celebrarlo. Pero si estás interesado en imponer tu cosmovisión militante del universo en cada espacio, reconoces este desarrollo como una treta mortal para tus aspiraciones y probablemente intentes retomar el control con cierta premura.
Esto no es una hipótesis narrativa para entrar en tema, lamentablemente. NeurIPS es el summum hecho conferencia para el mundo de la IA a nivel mundial, realizándose de forma anual y reuniendo en sus convocatorias a investigadores prominentes, desarrolladores de las startups y empresas más avanzadas, eminencias de las ciencias de la computación e inversores.
En 2020, por primera vez y como norma que hasta hoy está vigente, el evento requirió que los trabajos a presentarse incluyeran una declaración de "impacto más amplio", y estuvieran sujetos a revisión por parte de un tribunal de ética. El pretexto bajo el cual se introdujo este requerimiento fue la necesidad de "promover la transparencia y la reflexión del impacto social del research que se hace". Así, un trabajo que describa cómo acelerar un algoritmo, por ejemplo, ahora debe tener una sección sobre los bienes y males sociales de este "oscuro avance técnico". "Independientemente de la calidad científica o contribución", declaró el llamado a trabajos, "una presentación puede ser rechazada por... incluir métodos, aplicaciones o datos que creen o refuercen sesgos injustos".
En paralelo, los nombres de las ediciones de cada conferencia fueron ajustándose a estándares fehacientemente indeterminados de corrección política, y se comenzó a requerir - explícitamente - que los asistentes acepten un "código de conducta" integral antes de poder registrarse, que en principio es lógico, y que permite a la conferencia expulsar a los asistentes por publicar algo en las redes sociales que sus funcionarios desaprueben. Por supuesto, esta es una conferencia privada, y como tal tiene derecho a invitar a quienes consideren apropiados, tanto como de ejercer derecho de admisión y permanencia en los términos que cada asistente acepte previamente. Pero, a efectos puramente secuenciales, esto no pasaba antes, y sigue siendo un set de condiciones que hasta ahora aplica solo NeurIPS. Lo que sí, es innegable que ha surgido todo un subcampo de la inteligencia artificial con el propósito expreso de, entre otras cosas, "desideologizar" algoritmos.
Esto está en pleno apogeo ahora y de ninguna manera se puede confundir el necesario debate que implican las consideraciones estratégicas a la hora de desarrollar software en la rama IA - entre los cuales siempre tendremos claves de impacto y eficiencia energética, vulnerabilidad o riesgos de ciberseguridad, política y seguridad nacional, o resguardo y tratamiento de información privada, por citar solo algunos -, con las pretensiones de grupos de interés de forzar la introducción de privilegios para sus targets bajo el caballo de troya del combate contra la ideologización.
Los datos pueden tener sesgos, por supuesto, al igual que los científicos de datos. Y los algoritmos desarrollados por humanos pueden, en principio, hacer lo que les digamos. Pero los algoritmos de las diferentes ramificaciones de aprendizaje automático, al igual que prácticamente todos los algoritmos que se encuentran en los libros de ciencias de la computación, son esencialmente fórmulas matemáticas complejas que no saben nada sobre raza, género o estatus socioeconómico. No pueden ser racistas o sexistas más de lo que la fórmula y = a x + b puede serlo.
El exitoso libro de Daniel Kahneman, "Pensar, rápido y lento", tiene un capítulo entero sobre cómo los algoritmos son más objetivos que los humanos y, por lo tanto, toman mejores decisiones. Sin embargo, para un grupo de militantes de la cancelación, son cloacas de inequidad y deben ser "limpiados".
Lo que significa "limpiar" los algoritmos, en la práctica, es insertar sesgos a favor de grupos específicos, en efecto, restableciendo de forma automatizada los controles sociales que un grupo está decidido a imponer. Volviendo al punto anterior: los algoritmos no tienen ideología. En todo caso, los datasets sobre los cuales se entrena un algoritmo pueden tener sesgos. Si tu pretensión es forzar un determinado comportamiento en un software que por definición no los tiene, está claro que tu intención es obtener un beneficio particular. Como contraposición, el camino honesto pero más arduo, es ocuparse de que el set de datos de entrenamiento que se le proporciona a un sistema esté libre de ideologías. Allí entra en cuestión la honestidad y la validez de la hipótesis con la cual un cientista de datos o un desarrollador construye un modelo.
La despolitización como caballo de troya de la manipulación de la tecnología, no sorprendentemente, hace que los algoritmos funcionen peor en su función prevista. Los algoritmos de scoring de tarjetas de crédito pueden rechazar a solicitantes más calificados para asegurarse de que se acepte el mismo número de mujeres y hombres. Los algoritmos de consulta de libertad condicional pueden recomendar dejar en libertad a criminales más peligrosos en aras de tener un número proporcional de personas de diferentes edades y procedencias liberados. Un sistema de diagnóstico radiológico podría incorporar un déficit cualitativo en su capacidad de analizar ciertas afecciones que le fueron cargadas con un set de entrenamiento que tenía diagnósticos incorrectos. El punto neurálgico es trabajar bien y con honestidad el modelado de datos, despojándose la base de datos de errores y atributos que posibiliten cualquier tipo de prebenda, beneficio o consideración indebida. Y eso es parte de la hipótesis y el preprocesamiento que lleva a cabo el desarrollador, no culpa del software.
No es justo y es dañino para nuestro futuro establecer que cualquier crítica a una amplia gama de demandas iliberales y erróneas sobre la inteligencia artificial devenga en cancelación, como le sucedió a uno de los padres del deep learning y director de IA en Facebook, Yann Le Cun, que señaló que un algoritmo que recreó una foto de Barack Obama con piel blanca no era racista sino que estaba entrenado en un set de datos de gente mayoritariamente blanca, razón que le valió la cancelación en Twitter, llevándolo a borrar su cuenta. A este caso, se le suma el de investigadores de muchísima trayectoria como Jeff Dean (Google) o Pedro Domingos. Pareciera que en la lucha por politizar la IA, cuanto más prominente sea el perfil que es cancelado, mejor, porque envía el mensaje más escalofriante a todos los demás, especialmente a los investigadores junior.
Hay que tener presente que los algoritmos dirigen, cada vez en un sentido más amplio, nuestras vidas y pueden imponer, si se pierde esta contienda, una sociedad de privilegios y antiliberal por la puerta trasera. Cada vez que haces una búsqueda en la web, usas las redes sociales o recibís recomendaciones de Amazon o Netflix, los algoritmos eligen lo que ves. Estos ayudan a seleccionar candidatos para trabajos vía screening, influyen a los votantes a los que se dirigen las campañas políticas e incluso seleccionan a las personas con las que podés concertar una cita por intermedio de una app. Las empresas y los legisladores deben asegurarse de que no sean manipulados. Y todos nosotros debemos estar conscientes de lo que está sucediendo para poder opinar.
Sin caer en la ingenuidad de pensar que es posible implementar al 100% un orden virtuoso para una tecnología que ya afecta con meridiana claridad todos los aspectos de nuestras vidas, sí creo que es menester comprender y ejercer la defensa de una sociedad libre de privilegios también en el orden de la tecnología.
*Por Nicolás Krapf, Consultor en comunicación.