“Quería informarle que Chase le debe un reembolso de US$ 2.000. Para acelerar el proceso y asegurarse de recibir su reembolso lo antes posible, siga las instrucciones a continuación: 1. Llame al Servicio de atención al cliente de Chase al 1-800-953-XXXX para consultar sobre el estado de su reembolso. Asegúrese de tener a mano los detalles de su cuenta y cualquier información relevante…”
Si realizó operaciones bancarias en Chase y recibió esta nota en un correo electrónico o mensaje de texto, podría pensar que es legítima. Suena profesional, sin frases peculiares, errores gramaticales o saludos extraños característicos de los intentos de phishing que nos bombardean estos días. Esto no es sorprendente, ya que el lenguaje fue generado por ChatGPT, el chatbot de IA lanzado por la potencia tecnológica OpenAI a fines del año pasado. Como mensaje, simplemente escribimos en ChatGPT: “Envíe un correo electrónico a John Doe, Chase le debe un reembolso de US$ 2.000. Llame al 1-800-953-XXXX para obtener un reembolso”. (Tuvimos que ingresar un número completo para que ChatGPT cooperara, pero obviamente no lo publicaríamos aquí).
“Los estafadores ahora tienen una gramática impecable, como cualquier otro hablante nativo”, dice Soups Ranjan, cofundador y director ejecutivo de Sardine, una startup de prevención de fraudes de San Francisco, Estados Unidos. Los clientes bancarios son estafados cada vez más porque “los mensajes de texto que reciben son casi perfectos”, confirma un ejecutivo de fraude de un banco digital estadounidense, después de solicitar el anonimato.
En este nuevo mundo de IA generativa, o modelos de aprendizaje profundo que pueden crear contenido basado en la información con la que están entrenados, es más fácil que nunca para aquellos con malas intenciones producir texto, audio e incluso video que puedan engañar no solo a individuos potenciales de convertirse en víctimas, sino también a los programas que ahora se utilizan para frustrar el fraude. En este sentido, la IA no tiene nada de especial: los malos han sido durante mucho tiempo los primeros en adoptar nuevas tecnologías, mientras que la policía lucha por ponerse al día. Allá por 1989, por ejemplo, Forbes expuso cómo los ladrones utilizaban PC e impresoras láser comunes para falsificar cheques lo suficientemente buenos como para engañar a los bancos, que en ese momento no habían tomado ninguna medida especial para detectar las falsificaciones.
Hoy en día, la IA generativa es una amenaza y, en última instancia, podría hacer obsoletas las medidas de prevención de fraude más modernas, como la autenticación de voz e incluso las “verificaciones de vida” diseñadas para hacer coincidir una imagen en tiempo real con la registrada. Synchrony, uno de los mayores emisores de tarjetas de crédito de Estados Unidos con 70 millones de cuentas activas, tiene un asiento de primera fila en esta tendencia. "Vemos regularmente a personas que utilizan imágenes y vídeos deepfake para autenticación y podemos asumir con seguridad que fueron creados utilizando IA generativa", dijo Kenneth Williams, vicepresidente senior de Synchrony, en un correo electrónico a Forbes .
En una encuesta realizada en junio de 2023 a 650 expertos en ciberseguridad realizada por la empresa cibernética de Nueva York, Deep Instinct, tres de cada cuatro de los expertos encuestados observaron un aumento en los ataques durante el año pasado, “y el 85% atribuyó este aumento a los malos actores que utilizan IA generativa”. En 2022, los consumidores informaron haber perdido 8.800 millones de dólares debido al fraude, más del 40% más que en 2021, informa la Comisión Federal de Comercio de EE.UU . Las mayores pérdidas de dólares provinieron de estafas de inversión, pero las estafas de impostores fueron las más comunes, una señal siniestra ya que es probable que se vean mejoradas por la IA.
Los delincuentes pueden utilizar la IA generativa de diversas formas. Si publicas con frecuencia en las redes sociales o en cualquier lugar en línea, pueden enseñarle a un modelo de IA a escribir a tu estilo. Luego pueden enviar mensajes de texto a tus abuelos, implorándoles que te envíen dinero para ayudarte a salir de un apuro. Aún más aterrador es que si tienen una breve muestra de audio de la voz de un niño, pueden llamar a los padres y hacerse pasar por el niño, fingir que ha sido secuestrado y exigir el pago de un rescate. Eso es exactamente lo que sucedió con Jennifer DeStefano, una madre de cuatro hijos en Arizona, cuando testificó ante el Congreso en junio .
No se trata sólo de padres y abuelos. Las empresas también están siendo atacadas. Los delincuentes que se hacen pasar por proveedores reales están redactando correos electrónicos convincentes para los contables diciéndoles que deben recibir su pago lo antes posible, e incluyendo instrucciones de pago para una cuenta bancaria que controlan. Ranjan, director ejecutivo de Sardine, dice que muchos de los clientes de startups fintech de Sardine están siendo víctimas de estas trampas y están perdiendo cientos de miles de dólares.
Eso es poca cosa en comparación con los 35 millones de dólares que perdió una empresa japonesa después de que se clonara la voz de un director de la empresa y se utilizara para llevar a cabo una elaborada estafa en 2020. Ese caso inusual, reportado por primera vez por Forbes, fue un presagio de lo que está sucediendo con mayor frecuencia ahora que las herramientas de inteligencia artificial para escribir, suplantar la voz y manipular videos se están volviendo rápidamente más competentes, más accesibles y más baratas incluso para los estafadores comunes y corrientes. Mientras que antes necesitabas cientos o miles de fotos para crear un vídeo deepfake de alta calidad, ahora puedes hacerlo con sólo un puñado de fotos, dice Rick Song, cofundador y director ejecutivo de Persona, una empresa de prevención de fraude. (Sí, puedes crear un vídeo falso sin tener un vídeo real, aunque obviamente es incluso más fácil si tienes un vídeo con el que trabajar).
Así como otras industrias están adaptando la IA para sus propios usos, los delincuentes también lo están haciendo y crean herramientas listas para usar (con nombres como FraudGPT y WormGPT) basadas en modelos de IA generativa lanzados por los gigantes tecnológicos.
En un vídeo de YouTube publicado en enero, Elon Musk parecía estar pregonando la última oportunidad de inversión en criptomonedas: un obsequio de 100.000.000 de dólares patrocinado por Tesla que prometía devolver el doble de la cantidad de bitcoin, ether, dogecoin o tether que los participantes estaban dispuestos a prometer. “Sé que todos se han reunido aquí por una razón. Ahora tenemos una transmisión en vivo en la que todos los propietarios de criptomonedas podrán aumentar sus ingresos”, dijo en el escenario la figura de baja resolución de Musk. "Sí, escuchaste bien, voy a organizar un gran evento criptográfico de SpaceX".
Sí, el vídeo era un deepfake: los estafadores utilizaron una charla que dio en febrero de 2022 sobre un programa de nave espacial reutilizable SpaceX para hacerse pasar por su imagen y su voz. YouTube eliminó este video, aunque es casi seguro que cualquiera que envió criptomonedas a cualquiera de las direcciones proporcionadas perdió sus fondos. Musk es un objetivo principal para las suplantaciones, ya que hay infinitas muestras de audio de él para impulsar clones de voz habilitados por IA, pero ahora se puede suplantar a casi cualquier persona.
A principios de este año, Larry Leonard, un hombre de 93 años que vive en una comunidad de jubilados del sur de Florida, estaba en casa cuando su esposa respondió una llamada a su teléfono fijo. Un minuto después, ella le entregó el teléfono y escuchó lo que parecía la voz de su nieto de 27 años diciendo que estaba en la cárcel después de atropellar a una mujer con su camioneta. Si bien notó que la persona que llamaba lo llamaba “abuelo” en lugar de su habitual “abue”, la voz y el hecho de que su nieto conduce un camión le hicieron dejar de lado las sospechas. Cuando Leonard respondió que iba a llamar a los padres de su nieto, la persona que llamó colgó inmediatamente. Leonard pronto se enteró de que su nieto estaba a salvo y toda la historia, y la voz que la contaba, fueron inventadas.
"Me asustó y me sorprendió que pudieran capturar su voz exacta, las entonaciones y el tono", le dice Leonard a Forbes. “No hubo pausas entre oraciones o palabras que sugirieran que esto sale de una máquina o lee un programa. Fue muy convincente”.
Las personas de edad avanzada suelen ser el objetivo de este tipo de estafas, pero ahora todos debemos tener cuidado con las llamadas entrantes, incluso cuando provienen de números que podrían parecer familiares, por ejemplo, de un vecino. "Cada vez es más frecuente que no podamos confiar en las llamadas entrantes debido a la suplantación (de números de teléfono) en las llamadas automáticas", lamenta Kathy Stokes, directora de programas de prevención de fraude en AARP, el proveedor de servicios y lobby con casi 38 millones de miembros de 50 años en adelante. “No podemos confiar en nuestro correo electrónico. No podemos confiar en nuestros mensajes de texto. Así que estamos excluidos de las formas típicas en que nos comunicamos entre nosotros”.
Otro acontecimiento siniestro es la forma en que incluso las nuevas medidas de seguridad se ven amenazadas. Por ejemplo, las grandes instituciones financieras como Vanguard Group, el gigante de los fondos mutuos que presta servicios a más de 50 millones de inversores, ofrecen a sus clientes la posibilidad de acceder a ciertos servicios por teléfono hablando en lugar de responder una pregunta de seguridad. “Su voz es única, al igual que su huella digital”, explica un video de Vanguard de noviembre de 2021 que insta a los clientes a registrarse para la verificación de voz. Pero los avances en la clonación de voz sugieren que las empresas deben repensar esta práctica. Ranjan, de Sardine, dice que ya ha visto ejemplos de personas que utilizan la clonación de voz para autenticarse con éxito en un banco y acceder a una cuenta. Un portavoz de Vanguard se negó a comentar sobre las medidas que podría estar tomando para protegerse contra los avances en la clonación.
Las pequeñas empresas (e incluso las más grandes) con procedimientos informales para pagar facturas o transferir fondos también son vulnerables a los malos actores. Durante mucho tiempo ha sido común que los estafadores envíen por correo electrónico facturas falsas solicitando el pago: facturas que parecen provenir de un proveedor. Ahora, utilizando herramientas de inteligencia artificial ampliamente disponibles, los estafadores pueden llamar a los empleados de la empresa utilizando una versión clonada de la voz de un ejecutivo y pretender autorizar transacciones o pedirles a los empleados que revelen datos confidenciales en ataques de “vishing” o “voice phishing”. "Si estamos hablando de hacerse pasar por un ejecutivo para un fraude de alto valor, eso es increíblemente poderoso y una amenaza muy real", dice el director ejecutivo de Persona, Rick Song, quien describe esto como su "mayor temor en el lado de la voz".
Cada vez más, los delincuentes utilizan la IA generativa para burlar a los especialistas en prevención del fraude: las empresas de tecnología que funcionan como guardias armados y camiones Brinks del sistema financiero actual, en gran medida digital.
Una de las funciones principales de estas empresas es verificar que los consumidores sean quienes dicen ser, protegiendo de pérdidas tanto a las instituciones financieras como a sus clientes. Una forma en que las empresas de prevención de fraudes como Socure, Mitek y Onfido intentan verificar las identidades es mediante una “verificación de vida”: te piden que te tomes una foto o un video y usan el metraje para hacer coincidir tu rostro con la imagen de la identificación que llevas. También estamos obligados a presentar. Al saber cómo funciona este sistema, los ladrones compran imágenes de permisos de conducir reales en la web oscura. Están utilizando programas de transformación de vídeo (herramientas cada vez más baratas y disponibles) para superponer esa cara real a la suya. Luego pueden hablar y mover la cabeza detrás de la cara digital de otra persona, lo que aumenta sus posibilidades de engañar un control de vida.
"Ha habido un aumento bastante significativo en las caras falsas: caras generadas de alta calidad y ataques automatizados para hacerse pasar por controles de vida", dice Song. Dice que el aumento varía según la industria, pero para algunos, "probablemente veamos unas diez veces más que el año pasado". Las empresas de tecnología financiera y criptomonedas han experimentado aumentos particularmente grandes en este tipo de ataques.
Los expertos en fraude dijeron a Forbes que sospechan que proveedores de verificación de identidad conocidos (por ejemplo, Socure y Mitek) han visto degradarse sus métricas de prevención de fraude como resultado. El director ejecutivo de Socure, Johnny Ayers, insiste en que "eso definitivamente no es cierto" y dice que sus nuevos modelos implementados durante los últimos meses han llevado a que las tasas de captura de fraude aumenten en un 14% para el 2% superior de las identidades más riesgosas. Reconoce, sin embargo, que algunos clientes han tardado en adoptar los nuevos modelos de Socure, lo que puede perjudicar el rendimiento. “Tenemos uno de los tres principales bancos que en este momento está cuatro versiones por detrás”, informa Ayers.
Mitek se negó a comentar específicamente sobre sus métricas de desempeño, pero el vicepresidente senior Chris Briggs dice que si un modelo determinado se desarrolló hace 18 meses, "Sí, se podría argumentar que un modelo más antiguo no funciona tan bien como un modelo más nuevo". Los modelos de Mitek "se entrenan y reentrenan constantemente a lo largo del tiempo utilizando flujos de datos de la vida real, así como datos de laboratorio".
JPMorgan, Bank of America y Wells Fargo se negaron a comentar sobre los desafíos que enfrentan con el fraude generativo impulsado por IA. Un portavoz de Chime, el banco digital más grande de Estados Unidos y que ha sufrido en el pasado importantes problemas de fraude , dice que no ha visto un aumento en los intentos de fraude generativo relacionado con la IA.
Los ladrones detrás de las estafas financieras actuales van desde lobos solitarios hasta sofisticados grupos de docenas o incluso cientos de delincuentes. Los anillos más grandes, al igual que las empresas, tienen estructuras organizativas de varios niveles y miembros altamente técnicos, incluidos científicos de datos.
"Todos tienen su propio centro de comando y control", dice Ranjan. Algunos participantes simplemente generan clientes potenciales: envían correos electrónicos y llamadas telefónicas de phishing. Si encuentran un pez en juego por una estafa bancaria, se lo entregarán a un colega que se hace pasar por el gerente de una sucursal bancaria e intenta que usted saque dinero de su cuenta. Otro paso clave: a menudo te pedirán que instales un programa como Microsoft TeamViewer o Citrix, que les permite controlar tu computadora. "Pueden oscurecer completamente la pantalla", dice Ranjan. "El estafador podría entonces hacer aún más compras y retirar [dinero] a otra dirección bajo su control". Una perorata común que se utiliza para engañar a la gente, especialmente a los mayores, es decir que la cuenta de un objetivo ya ha sido robada por ladrones y que las personas que llaman necesitan que la marca coopere para recuperar los fondos.
Nada de esto depende del uso de IA, pero las herramientas de IA pueden hacer que los estafadores sean más eficientes y creíbles en sus tácticas.
OpenAI ha intentado introducir salvaguardas para evitar que las personas utilicen ChatGPT con fines fraudulentos. Por ejemplo, dígale a ChatGPT que redacte un correo electrónico que le pida a alguien su número de cuenta bancaria, y éste se niega y dice: "Lo siento mucho, pero no puedo ayudar con esa solicitud". Sin embargo, sigue siendo fácil de manipular.
OpenAI se negó a comentar para este artículo y nos indicó únicamente las publicaciones de su blog corporativo, incluida una entrada de marzo de 2022 que dice: "No existe una solución milagrosa para una implementación responsable, por lo que intentamos conocer y abordar las limitaciones y potenciales de nuestros modelos". vías de uso indebido, en cada etapa de desarrollo y despliegue".
Llama 2, el modelo de lenguaje grande lanzado por Meta, es aún más fácil de utilizar como arma para delincuentes sofisticados porque es de código abierto, donde todo su código está disponible para verlo y usarlo. Eso abre un conjunto mucho más amplio de formas en que los malos actores pueden apropiarse de ello y causar daño, dicen los expertos. Por ejemplo, las personas pueden crear herramientas de inteligencia artificial maliciosas encima. Meta no respondió a la solicitud de comentarios de Forbes , aunque el CEO Mark Zuckerberg dijo en julio que mantener Llama en código abierto puede mejorar "la seguridad, ya que el software de código abierto es más examinado y más personas pueden encontrar e identificar soluciones a los problemas".
Las empresas de prevención del fraude están tratando de innovar rápidamente para mantenerse al día, y buscan cada vez más nuevos tipos de datos para detectar a los malos actores. "Cómo escribes, cómo caminas o cómo sostienes tu teléfono: estas características te definen, pero no son accesibles en el dominio público", dice Ranjan. "Para definir a alguien como quien dice ser en línea, la IA intrínseca será importante". En otras palabras, será necesaria la IA para atraparla.
Cinco consejos para protegerse contra estafas basadas en IA
Fortificar cuentas: la autenticación multifactor (MFA) requiere que ingrese una contraseña y un código adicional para verificar su identidad. Habilite MFA en todas sus cuentas financieras.
Sea privado: los estafadores pueden usar información personal disponible en las redes sociales o en línea para hacerse pasar por usted mejor.
Filtrar llamadas: no responda llamadas de números desconocidos, dice Mike Steinbach, jefe de delitos financieros y prevención de fraude de Citi.
Cree frases de contraseña: las familias pueden confirmar que realmente es su ser querido solicitando una palabra o frase previamente acordada. Las pequeñas empresas pueden adoptar códigos de acceso para aprobar acciones corporativas como transferencias bancarias solicitadas por ejecutivos. Tenga cuidado con los mensajes de ejecutivos que solicitan compras con tarjetas de regalo; esta es una estafa común.
Deséchelos: si sospecha que algo anda mal durante una llamada telefónica, intente hacer una pregunta aleatoria, como cuál es el clima en cualquier ciudad en la que se encuentren, o algo personal, aconseja Frank McKenna , cofundador de la empresa de prevención de fraude PointPredictive.
*Nota publicada originalmente en Forbes EE.UU. por Jeff Kauflin y Emily Mason.