Forbes Ecuador
Urna elecciones
Innovacion

El contenido electoral generado por Inteligencia Artificial ya está aquí y las redes sociales no están preparadas

Irene Benedicto

Share

Se acercan las elecciones y las herramientas de IA para realizar campañas sucias proliferan mientras que las redes sociales deberán enfrentarse al mayor ataque de su historia. Tik Tok es el que mayores avances presenta.

7 Julio de 2023 16.07

A principios de este año, en vísperas de las elecciones a la alcaldía de Chicago, apareció en línea un video del candidato demócrata moderado Paul Vallas. Tuiteado por “Chicago Lakefront News”. El video mostraba a Vallas criticando la anarquía en Chicago y sugería que habría un momento en que "nadie se inmutaría" ante los tiroteos policiales con víctimas fatales.

El video, que parecía auténtico, fue ampliamente compartido antes que la campaña de Vallas lo denunciara como una falsificación generada por IA y la cuenta de Twitter que solo estuvo en línea dos días desapareciera. Y aunque es imposible decir si tuvo algún impacto en la derrota de Vallas contra el progresista Brandon Johnson, un ex maestro y organizador sindical, es un indicio de los engaños de alto riesgo que potencialmente enturbiarán el discurso público durante las próximas elecciones presidenciales. .Y plantea una pregunta clave: ¿Cómo las mitigarán plataformas como Facebook y Twitter?

Ese es un desafío abrumador. Sin leyes reales que regulen cómo se puede usar la IA en campañas políticas, corresponde a las plataformas determinar qué falsificaciones profundas verán los usuarios en sus feeds, y en este momento, la mayoría está luchando por entender cómo autorregularse. “Estas son amenazas para nuestras democracias.  “No veo que las plataformas se tomen esto en serio”, se queja Hany Farid, profesor de ingeniería eléctrica y ciencias de la computación en UC Berkeley.
 

Paul Vallas
Paul Vallas perdió la elección tras ser difamado con videos que usan Inteligencia artificial


En este momento, la mayoría de las plataformas de redes sociales más grandes no tienen políticas específicas relacionadas con el contenido generado por IA, ya sea político o de otro tipo.

En las plataformas de Meta, o sea en Facebook e Instagram, cuando el contenido se marca como posible información errónea, los verificadores de datos de terceros lo revisan y se les pide que desacrediten "audio, video o fotos falsificados, manipulados o transformados", independientemente de si el contenido fue manipulado a través de Photoshop de la vieja escuela o herramientas de generación de inteligencia artificial, explica a Forbes el portavoz de Meta, Kevin McAlister .

Del mismo modo, Reddit seguirá confiando en sus políticas contra la manipulación de contenido, que se aplican a "campañas de desinformación, documentos falsificados y falsificaciones profundas con la intención de engañar". YouTube también eliminará el contenido relacionado con las elecciones que viole las políticas de desinformación, que prohíben expresamente las imágenes que hayan sido manipuladas técnicamente para engañar a los usuarios y que puedan representar un riesgo grave o un daño potencial.

En Twitter, su propietario Elon Musk publicó una actualización de la política de medios manipulados y sintéticos de la empresa en abril, afirmando que los tuits "pueden ser" etiquetados si contienen información engañosa, y la empresa continuará eliminando aquellos que sean perjudiciales para las personas o las comunidades. La política señala que los medios fabricados "mediante el uso de algoritmos de inteligencia artificial" serán examinados más detenidamente.

Hasta ahora, la única empresa importante de redes sociales que tiene una política más integral destinada a moderar el contenido generado por IA es TikTok.

En marzo de 2023, TikTok anunció una nueva "política de medios sintéticos" que obligaba a los creadores a publicar escenas de aspecto realista generadas o modificadas por IA para revelar claramente el uso de dicha tecnología. Para el contenido electoral, prohibirá todas las imágenes generadas por IA que se hagan pasar por figuras públicas para obtener respaldo político.

TikTok comenzó a eliminar contenido que no cumple con la nueva regla en abril. Los creadores de contenido tienen cierta flexibilidad para hacer público el descargo de responsabilidad: puede estar en los subtítulos, subtítulos o hashtags, siempre que no sea engañoso. La plataforma aún no está prohibiendo automáticamente las cuentas que comparten contenido no autorizado, sino que solo da una advertencia.

Pero si bien este tipo de transparencia es un primer paso para alertar a los usuarios sobre el origen del contenido, podría no ser suficiente para evitar la difusión de información errónea. “Por supuesto, habrá malos actores que trabajarán para evadir cualquier política o estándar”, asegura  Renee DiResta, gerente de investigación del Observatorio de Internet de Stanford.

Es por eso que mantener equipos de integridad es clave para abordar el desafío, argumenta DiResta. Twitter en particular podría tener problemas con las próximas elecciones: desde que Elon Musk asumió el cargo, despedió a equipos completos que abordaron la desinformación y rescindió los contratos con moderadores de contenido de terceros.

La difusión de información errónea fue durante mucho tiempo un problema para las plataformas de redes sociales, y el asalto al Capitolio de los EE. UU. el 6 de enero fue una prueba de cómo un movimiento organizado en gran parte en línea tuvo consecuencias mortales en la vida real. Pero las elecciones presidenciales de 2024 en EE.UU serán las primeras en las que las campañas y sus seguidores tendrán acceso a poderosas herramientas de inteligencia artificial que pueden generar contenido falso de apariencia realista en segundos.

“La desinformación continúa. En lugar de solucionar el problema se está agravará con el uso de la IA generativa y las deep fakes o falsificaciones profundas”, opina Farid.

Sin embargo, los expertos advierten contra las declaraciones hiperbólicas sobre cuán dañino podría ser el contenido generado por IA en las próximas elecciones.

“Si damos la impresión de que las campañas de desinformación que usan falsificaciones profundas inevitablemente tendrán éxito podemos socavar la confianza en los sistemas democráticos. Y no creo que aún tengan ese nivel de éxito”, asegura Josh Goldstein, investigador del equipo de CyberAI del Centro de Seguridad y Tecnología de la Universidad de Georgetown. 

Más allá de las redes sociales, los motores de búsqueda también deberán protegerse contra el contenido generado por IA.

Google intervino para excluir el contenido manipulado de los resultados destacados en los paneles de conocimiento y fragmentos destacados. En cuanto a los anuncios de Google, la manipulación de medios está prohibida y los anunciantes deben pasar por un proceso de verificación de identidad e incluir una divulgación en el anuncio de quién está pagando por ello.

En mayo, el CEO de Google, Sundar Pichai, anunció una nueva herramienta, conocida como: 'sobre esta imagen', para revelar cuándo las imágenes encontradas a través de la búsqueda fueron generadas por IA. La nueva función también mostrará cuándo se indexaron por primera vez una imagen en particular y otras similares, y dónde más se ha visto en línea, incluidas las noticias, las redes sociales o los sitios de verificación de hechos.

Pichai también anunció que Google pronto comenzará a poner marcas de agua automáticamente en imágenes y videos creados con sus modelos generativos internos para que los usuarios puedan identificar fácilmente el contenido sintético.

Google no está solo en la introducción de este método. Las marcas de agua son una de las demandas centrales de la Iniciativa de Autenticidad de Contenido, una alianza de más de 200 organizaciones de medios, digitales, de contenido y de tecnología que promueve la adopción de un estándar de la industria para la autenticidad del contenido.

Yendo un paso más allá, Farid introdujo la idea de hacer obligatorio que los creadores de contenido incluyan una especie de "etiqueta nutricional" que revele cómo se creó su contenido. Por ejemplo, una leyenda podría señalar que el video que lo acompaña se grabó con un iPhone 14 y se editó con el generador de imágenes AI de Adobe, Firefly.

La pregunta pendiente es si las empresas tecnológicas podrán autorregularse con éxito o si los gobiernos tendrían que interferir. “Me gustaría no necesitar [gobiernos]. Pero aún necesitamos ayuda”, concluye Farid.

10