La popularidad de herramientas de IA como Bard y ChatGPT ha impulsado el debate sobre la seguridad en el ámbito tecnológico. Un reciente caso de malware sofisticado y casi indetectable, creado utilizando ChatGPT, enciende las alarmas.
Creación de malware con ChatGPT: un experimento preocupante
Aaron Mulgrew, investigador de seguridad de Forcepoint, logró desarrollar un malware de día cero (Zero Day) mediante ChatGPT. A pesar de las medidas de seguridad implementadas por OpenAI, Mulgrew halló un resquicio.
En vez de solicitar a la IA la creación del malware completo, el investigador pidió líneas separadas de código malicioso. Luego, Mulgrew compiló las funciones individuales en un programa integral de robo de datos.
Características y funcionamiento del malware
El malware se presenta como una aplicación de protector de pantalla que se ejecuta automáticamente en sistemas Windows. Sus capacidades incluyen extraer datos de archivos, segmentarlos, ocultarlos en imágenes y almacenarlos en una carpeta de Google Drive.
Rendimiento y rapidez en la creación del malware
Lo más inquietante es que Mulgrew perfeccionó y reforzó el código con ChatGPT hasta eludir la detección de VirusTotal. Además, el malware alcanzó una sofisticación similar a las amenazas de nivel estatal, todo en tan solo unas horas.
Implicaciones y precauciones en el uso de la IA
Aunque el malware creado por Mulgrew no se encuentra disponible al público, este caso evidencia el potencial riesgo de herramientas de IA como ChatGPT en manos irresponsables. La necesidad de abordar la ciberseguridad de manera efectiva es cada vez más imperativa.