El universo de realidad virtual de Mark Zuckerberg, denominado simplemente Meta, ha estado plagado de una serie de problemas, desde problemas tecnológicos hasta dificultades para retener al personal. Eso no significa que pronto no será utilizado por miles de millones de personas. El último problema que enfrenta Meta es si el entorno virtual, donde los usuarios pueden diseñar sus propios rostros, será el mismo para todos, o si las empresas, los políticos y más tendrán más flexibilidad para cambiar quiénes parecen ser.
Rand Waltzman, un científico de la información sénior del Instituto RAND de investigación sin fines de lucro, publicó la semana pasada una advertencia de que las lecciones aprendidas por Facebook en la personalización de las fuentes de noticias y permitir información hiperdirigida podrían sobrecargarse en su Meta, donde incluso los oradores podrían estar personalizados para que parezcan más confiables para cada miembro de la audiencia.
Usando tecnología deepfake que crea videos realistas pero falsificados, un orador podría modificarse para tener el 40% de las características del miembro de la audiencia sin que el miembro de la audiencia lo sepa.
Meta ha tomado medidas para abordar el problema, pero otras empresas no se hacen esperar. Hace dos años, el New York Times, la BBC, CBC Radio Canada y Microsoft lanzaron Project Origin para crear tecnología que demuestre que un mensaje en realidad proviene de la fuente de la que supuestamente proviene.
A su vez, Project Origin ahora es parte de la Coalición para la Procedencia y Autenticidad del Contenido, junto con Adobe, Intel, Sony y Twitter. Algunas de las primeras versiones de este software que rastrean la procedencia de la información en línea ya existen, la única pregunta es quién lo usará.
Así empieza sus mañanas Mark Zuckerberg
Podemos ofrecer información ampliada para validar la fuente de información que están recibiendo, dice Bruce MacCormack, asesor principal de iniciativas de defensa contra la desinformación de CBC Radio-Canada y codirector de Project Origin. Facebook tiene que decidir consumirlo y usarlo para su sistema, y descubrir cómo se alimenta de sus algoritmos y sus sistemas, de los cuales no tenemos ninguna visibilidad.
Lanzado en 2020, Project Origin está creando un software que permite a los miembros de la audiencia verificar si la información que dice provenir de una fuente de noticias confiable en realidad proviene de allí, y probar que la información llegó de la misma forma en que se envió.
En otras palabras, sin manipulación. En lugar de depender de blockchain u otra tecnología de contabilidad distribuida para rastrear el movimiento de la información en línea, como podría ser posible en versiones futuras del llamado Web3, la tecnología etiqueta la información con datos sobre su procedencia que se mueve con ella a medida que se copia. Este año se lanzó una versión anterior del software y ahora está siendo utilizada por varios miembros, dice.
Pero los problemas de desinformación que enfrenta Meta son más grandes que las noticias falsas.
Con el fin de reducir la superposición entre las soluciones de Project Origin y otra tecnología similar dirigida a diferentes tipos de engaño, y para garantizar que las soluciones interoperen, la organización sin fines de lucro lanzó conjuntamente la Coalición para la Procedencia y Autenticidad del Contenido, en febrero de 2021, para demostrar la originalidad de varios tipos de propiedad intelectual.
Del mismo modo, Adobe, que figura en la lista Blockchain 50 , ejecuta la Iniciativa de autenticidad de contenido, que en octubre de 2021 anunció un proyecto para demostrar que los NFT creados con su software en realidad fueron originados por el artista incluido en la lista.
Hace aproximadamente un año y medio, decidimos que realmente teníamos el mismo enfoque y estamos trabajando en la misma dirección, dice MacCormack. Queríamos asegurarnos de terminar en un solo lugar. Y no construimos dos conjuntos de tecnologías en competencia.
Meta conoce falsificaciones profundas y la desconfianza en la información de su plataforma es un problema. En septiembre de 2016, Facebook lanzó conjuntamente la Asociación sobre IA, que MacCormack asesora, junto con Google, Amazon.com, Microsoft e IBM, para garantizar las mejores prácticas de la tecnología utilizada para crear falsificaciones profundas y más. En junio de 2020, la red social publicó los resultados de su Desafío de detección profunda de falsificaciones, mostrando que el mejor software de detección de falsificaciones solo tuvo un 65 % de éxito.
Resolver el problema no es solo una cuestión moral, sino que tendrá un impacto cada vez mayor en los resultados de las empresas. Un informe de junio de la firma de investigación McKinsey encontró que las inversiones en metaverso en la primera mitad de 2022 ya se duplicaron el año anterior y predijo que la industria valdría US$ 5 billones para 2030. Un metaverso lleno de información falsa fácilmente podría convertir ese auge en una quiebra.
MacCormack dice que el software de falsificación profunda está mejorando a un ritmo más rápido que el tiempo que lleva implementar el software de detección, una de las razones por las que decidieron centrarse en la capacidad de probar que la información procedía de donde se suponía que procedía.
Si pones las herramientas de detección en la naturaleza, solo por la naturaleza de cómo funciona la inteligencia artificial, van a mejorar las falsificaciones. E iban a mejorar las cosas muy rápidamente, hasta el punto en que el ciclo de vida de una herramienta o la vida útil de una herramienta sería menor que el tiempo que llevaría implementar la herramienta, lo que significaba que, de hecho, nunca podría ponerla en marcha. el mercado."
El problema solo empeorará, según MacCormack. La semana pasada, un nuevo competidor del software Dall-E de Sam Altman, llamado Stable Diffusion, que permite a los usuarios crear imágenes realistas simplemente describiéndolas, abrió su código fuente para que cualquiera lo use. Según MacCormack, eso significa que es solo cuestión de tiempo antes de que se eludan las medidas de seguridad que implementó OpenAI para evitar que se creen ciertos tipos de contenido.
Esto es algo así como la no proliferación nuclear, dice MacCormack. Una vez que está ahí afuera, está ahí afuera. Entonces, el hecho de que ese código se haya publicado sin salvaguardas significa que se anticipa que la cantidad de casos de uso malicioso comenzará a acelerarse dramáticamente en los próximos meses.