Investigador demostró cómo utilizar ChatGPT para crear un virus y robar datos
Que ChatGPT ha cambiado la forma de relacionarnos con la inteligencia artificial, no hay dudas. Es normal ver programas televisivos, canales de streaming y hasta medios gráficos utilizar la invención de OpenAI, divirtiéndose (en algunos casos) y también alertando a la población con un mensaje apocalíptico sobre lo peligroso que será para el ser humano, el cual se verá desplazado a un segundo plano.
Pero lo que pocos sabían, hasta el momento, es que la inteligencia artificial de OpenAI también facilita el proceso para desarrollar un virus y robar datos, según el experimento de un investigador con conocimientos rudimentarios. Se trata de Aaron Mulgrew quien pertenece a Forcepoint Aaron Mulgrew y quien desarrolló un ‘exploit’ de día cero, el cual puede robar datos de un dispositivo y evadir controles de detección de software malicioso.
Incluso el mismo Mulgrew se autodefinió como un “novato confeso”, por lo que, si él mismo pudo crear un software malicioso utilizando ChatGPT, las facilidades serán múltiples para expertos en el tema, aquellos habitantes de la dark web. Es que para ello, comenzó realizando pruebas con el lenguaje de programación Go. Y si bien en primer lugar este chatbot le recordó que no era ético generar malware y se negó a ofrecerle cualquier código para ayudarle a llevar a cabo esta acción, el investigador se percató pronto de que era sencillo.
¿Cómo crear un virus con ChatGPT?
En consecuencia, Aaron Mulgrew decidió generar pequeños fragmentos de código para que la inteligencia artificial no fuera capaz de reconocer que, en conjunto, se convertirían en carga maliciosa. Entonces, obtuvo un código capaz de dividir un PDF en fragmentos de 100KB. Y para proceder a esa fuga de datos, el investigador usó la esteganografía (técnica que oculta mensajes dentro de un archivo sin que se puedan observar cambios en él).
El siguiente paso fue exponerlo ante diferentes proveedores de soluciones de seguridad de VirusTotal. Y de un total de 69 de ellos, solo lo detectaron cinco, que habrían marcado como sospechoso este código por un identificador único global (GUUID). Fue entonces que, de acuerdo al investigador, ChatGPT propició la creación de LSB Steganography (técnica de esteganografía que consistente en ocultar mensajes cifrados dentro de una imagen) lo que redujo a dos los proveedores capaces de detectar el código malicioso.
Después de conocer estas dos soluciones, el investigador le pidió a ChatGPT que utilizara su inteligencia artificial para introducir dos nuevos cambios en el código para ofuscar su carácter malicioso. Entonces, logró volver a pasarlo por VirusTotal y concluyó que se podía desarrollar un exploit de día cero sin ser detectado por este proveedor. En consecuencia, sin escribir ningún código, OpenAI puede fomentar el desarrollo de virus, según Aaron Mulgrew.
