OpenAI lanzó la última versión de su software de aprendizaje automático, GPT-4, a bombo y platillo esta semana. Una de las características que la empresa destacó de la nueva versión es que se suponía que tenía reglas que la protegían del uso por parte de ciberdelincuentes. Sin embargo, en cuestión de días, los investigadores afirman que lo engañaron para que creara malware y los ayudara a elaborar correos electrónicos de phishing, al igual que habían hecho con la iteración anterior del software de OpenAI, ChatGPT.
El lado positivo es que también pudieron utilizar el software para tapar agujeros en las ciberdefensas. Los investigadores de la empresa de ciberseguridad Check Point mostraron a Forbes cómo sortearon los bloqueos de OpenAI al desarrollo de malware simplemente eliminando la palabra "malware" en una solicitud. GPT-4 les ayudó a crear un software que recopilaba archivos PDF y los enviaba a un servidor remoto.
Y fue más allá, dando a los investigadores consejos sobre cómo hacerlo funcionar en un PC con Windows 10 y convertirlo en un archivo más pequeño, para que pudiera ejecutarse más rápidamente y tuviera menos posibilidades de ser detectado por el software de seguridad.
Cómo sortearon las barreras de GPT-4
Para que GPT-4 ayudara a crear correos electrónicos de phishing, los investigadores adoptaron dos enfoques. En el primero, utilizaron GPT-3.5, que no bloqueaba las solicitudes para crear mensajes maliciosos, para escribir un correo electrónico de phishing haciéndose pasar por un banco legítimo.
A continuación, solicitaron a GPT-4, que inicialmente se había negado a crear un mensaje de phishing original, que mejorara el lenguaje. En la segunda, pidieron consejo para crear una campaña de concienciación sobre phishing para una empresa y solicitaron una plantilla para un falso correo electrónico de phishing, que la herramienta les proporcionó debidamente.
"GPT-4 puede dotar a los malos actores, incluso a los no técnicos, de herramientas para acelerar y validar su actividad", señalan los investigadores de Check Point en su informe, entregado a Forbes antes de su publicación. “Lo que estamos viendo es que GPT-4 puede servir tanto a los buenos como a los malos actores. Los actores buenos pueden utilizar GPT-4 para elaborar y hacer código que sea útil para la sociedad; pero simultáneamente, los actores malos pueden utilizar esta tecnología de Inteligencia Artificial (IA) para la ejecución rápida de ciberdelitos".
Detalles del informe de Check Point
Sergey Shykevich, director del grupo de amenazas de Check Point, dijo que parecía que las barreras existentes para impedir que GPT-4 generara phishing o código malicioso eran en realidad menores que en versiones anteriores. Sugirió que esto puede deberse a que la empresa se basa en el hecho de que sólo los usuarios premium tienen acceso actualmente. No obstante, añadió que OpenAI debería haber previsto este tipo de soluciones. "Creo que están intentando evitarlas y reducirlas, pero es el juego del gato y el ratón", añadió.
Daniel Cuthbert, investigador de ciberseguridad y miembro del comité de revisión de la conferencia de hacking Black Hat, afirma que parece que GPT-4 podría ayudar a aquellos con pocos conocimientos técnicos a fabricar herramientas maliciosas. "Si se te dan muy mal las cosas, esto ayuda mucho. Te lo pone en bandeja", afirma.
“Si se te dan muy mal las cosas, esto te ayuda mucho. Te lo pone en bandeja”
Daniel Cuthbert, miembro del comité de revisión de la conferencia de hackers Black Hat
Pero los expertos en ciberseguridad contratados por OpenAI para probar su chatbot inteligente antes de su lanzamiento descubrieron que tenía "limitaciones significativas para las operaciones de ciberseguridad", según el documento. "No mejora las herramientas existentes para el reconocimiento, la explotación de vulnerabilidades y la navegación por la red, y es menos eficaz que las herramientas existentes para actividades complejas y de alto nivel, como la identificación de nuevas vulnerabilidades", escribió OpenAI. Sin embargo, los hackers descubrieron que GPT4 "era eficaz en la redacción de contenidos realistas de ingeniería social".
"Para mitigar los posibles usos indebidos en este ámbito, entrenamos a los modelos para que rechacen las solicitudes de ciberseguridad maliciosas y escalamos nuestros sistemas de seguridad internos, incluso en la supervisión, detección y respuesta", añadió OpenAI en el documento.
La empresa no respondió a las peticiones de comentarios sobre por qué los investigadores de Check Point pudieron eludir rápidamente algunas de esas mitigaciones.
Aunque puede ser fácil engañar a los modelos de OpenAI, "no hace nada que no se haya hecho nunca", afirma Cuthbert. Un buen hacker ya sabrá cómo hacer mucho de lo que OpenAI puede hacer sin necesidad de ayuda artificial, afirma. Y los sistemas de detección modernos también deberían ser capaces de detectar los tipos de malware que ChatGPT ayuda a crear, dado que aprendió de ejemplos anteriores vistos en Internet, añade.
Cuthbert está entusiasmado con lo que GPT-4 puede hacer por la defensa. Después de que le ayudara a detectar errores en el software, también le ofreció soluciones rápidas con fragmentos de código reales que podía copiar y pegar en su programa, arreglándolo en cuestión de segundos. "Me gusta mucho la autorrefactorización", dice. "El futuro es genial".
*Con información de Forbes US.