La Inteligencia Artificial (AI) sigue dando que hablar. En los últimos días, una noticia sacudió a toda la comunidad: ChatGPT admite que puede ser engañado para detonar un ataque de malware.
¿Cómo? ¿En serio?
Sí. El famoso chatbot desarrollado por Open Ai puede ser usado con fines maliciosos, como crear un programa indetectable por los antivirus.
Curiosamente, algunas personas que ya se lo esperaban. El crecimiento estaba siendo tan brusco y descontrolado, que solo era cuestión de tiempo para que los piratas cibernéticos encontraran maneras de burlar los límites y usarlo para sus hazañas ilegales.
En esta publicación te contamos más acerca de esta noticia, ya que, a pesar de la incertidumbre, es interesante ver cómo ChatGPT influye en todos los aspectos de nuestras vidas.
ChatGPT admite que puede ser engañado para detonar ataques de malwares
ChatGPT es un software basado en la Inteligencia Artificial creado por la empresa Open Ai. Es un modelo de lenguaje que permite a las personas interactuar y obtener respuestas.
Ha calado en la comunidad gracias a sus ventajas, como: aprendizaje, velocidad y automatización. Lo usan numerosos profesionales, como creadores de contenido y programadores, pero también personas comunes, oficinistas y estudiantes.
Solo hace falta echar un vistazo a las redes sociales, especialmente Twitter y LinkedIn, para encontrar cientos de publicaciones sobre cómo explotar al máximo esta herramienta y agilizar las tareas laborales, generar ingresos o aumentar sus conocimientos.
No obstante, los profesionales del marketing, los programadores o estudiantes no son los únicos interesados en el potencial de ChatGPT. También lo están los delincuentes y estafadores, quienes ya lo añadieron a su arsenal para cometer ilegalidades.
Lo último que se sabe es que ChatGPT puede crear malwares para detonar ataques cibernéticos.
Así lo reseña en su blog el investigador Aaron Mulgrew, quien logró burlar los mecanismos de seguridad del chatbot para diseñar un software maligno capaz de robar datos de los dispositivos de los usuarios sin ser detectado por programas de ciberseguridad reconocidos, como Virus Total.
El propósito de Mulgrew era poner a prueba las medidas de protección que la empresa desarrolladora, OpenAi, impuso a su modelo de lenguaje. Se preguntaba si ChatGPT sería capaz de detectar y evitar ser usado para crear virus o malwares.
También buscaba demostrar que, incluso las tecnologías más populares, como la Inteligencia Artificial (AI), pueden dar pie a que personas sin conocimientos en programación o códigos, creen programas complejos de computadora y cometan delitos.
El resultado fue un software que pasa inadvertido para herramientas de seguridad y que puede ser usado para cometer ilegibilidades como robar datos de los dispositivos de los usuarios.
Cómo ChatGPT puede detonar un ataque de malware
Mulgrew reseñó en primera persona cómo ChatGPT puede crear un Malware sin saberlo.
Primero que nada, vale la pena aclarar que, evidentemente, el chatbot no está programado ni diseñado para crear este tipo de software. De hecho, las primeras respuestas hacían hincapié a que, como modelo lenguaje, no estaba capacitado para escribir malwares ni ejecutar acciones maliciosas.
Sin embargo, estas restricciones tienen un límite, y el investigador lo dejó claro: sí él pudo saltárselos, también cualquier persona con conocimientos en desarrollo de malwares y conocimientos en la inteligencia artificial, podría hacerlo.
¿Qué hizo Mulgrew para obligar a ChatGPT a que escribiera un malware? Utilizó algunos trucos que, de hecho, no son nada supersecretos o desconocidos.
Solicitó la realización de pequeñas acciones que, en conjunto con otras igualmente pequeñas, completaban un proyecto mayor, que era el malware, o lo más parecido a ello.
Es lógico. ChatGPT no tiene consciencia. Al menos que sea una instrucción directa, difícilmente sabrá para qué está siendo usado. Por eso es que estos pequeños fragmentos que fueron uniéndose dieron como resultado un virus con carga maliciosa.
Mulgrew lo relata de esta manera: “Primero le pedí que generara un código que buscara una imagen mayor a 5 MB en un disco local”. Continúa y dice: “También le solicité que agregara un código que encubriera el código original”. Siguió dándole instrucciones para crear códigos con la capacidad de extraer más datos de los ordenadores, y cuando combinó cada uno de estos fragmentos, dio con lo que estaba buscando.
El código de ChatGPT podía dividir un PDF en fragmentos de 100KB y generar una imagen PNG con ello. Y, mediante la esteganografía, podía ocultar el mensaje dentro de un archivo para que los programas de ciberseguridad no pudiesen detectarlo.
De hecho, hizo la prueba y encontró que, de un total de 69 antivirus, solo 6 pudieron detectarlo. Y, cuando usó la técnica de esteganografía, el número se redujo aún más. Solo dos proveedores de seguridad fueron capaces de dar con el código malicioso. El resto ni se enteraron.
Conclusión
En definitiva, esto muestra que, aunque la tecnología de Inteligencia Artificial sea beneficiosa en muchos aspectos, y que ChatGPT sea una fantástica herramienta, debemos tener cuidado con su uso y saber cómo otras personas pueden dañarnos.
Te recomendamos aprender más sobre cómo protegerte de estos softwares maliciosos. También contar con un programa de ciberseguridad de calidad, como Panda Security.
De esta manera protegerás los archivos sensibles de tu ordenador de las garras de ChatGPT y los estafadores que aprovechan las debilidades del Chatbot.