Relatório OpenAI: Ataques cibernéticos de hackers chineses e iranianos usam ChatGPT para malware e phishing
Hackers chineses e iranianos usam ferramentas ChatGPT e LLM para desenvolver malware e ataques de phishing: relatório OpenAI documenta mais de 20 ataques cibernéticos gerados por ChatGPT
Se há um sinal de que a IA causa mais problemas do que vale, é OpenAI confirma que ocorreram mais de vinte ataques cibernéticos, todos criados através do ChatGPT. O relatório confirma que a IA generativa foi usada para conduzir ataques de phishing, depurar e desenvolver malware e conduzir outras atividades maliciosas.
O relatório confirma dois ataques cibernéticos usando IA generativa ChatGPT. O primeiro foi relatado pelo Cisco Talos em novembro de 2024, que foi usado por atores de ameaças chineses visando governos asiáticos. Este ataque utilizou um método de phishing chamado ‘SweetSpecter’, que inclui um arquivo ZIP com um arquivo malicioso que, se baixado e aberto, criaria uma cadeia de infecção no sistema do usuário. A OpenAI descobriu que o SweetSpecter foi criado usando várias contas que usavam ChatGPT para desenvolver scripts e descobrir vulnerabilidades usando uma ferramenta LLM.
El segundo ciberataque mejorado con IA provino de un grupo con sede en Irán llamado ‘CyberAv3ngers’ que utilizó ChatGPT para explotar vulnerabilidades y robar contraseñas de usuarios de PC basadas en macOS. El tercer ataque, liderado por otro grupo con sede en Irán llamado Storm-0817, utilizó ChatGPT para desarrollar malware para Andróide. El malware robó listas de contactos, extrajo registros de llamadas e historial del navegador, obtuvo la ubicación precisa del dispositivo y accedió a archivos en los dispositivos infectados.
Todos estos ataques utilizaron métodos existentes para desarrollar malware y, según el informe, no ha habido indicios de que ChatGPT haya creado malware sustancialmente nuevo. De todos modos, muestra lo fácil que es para los actores de amenazas engañar a los serviços de IA generativa para que creen herramientas de ataque maliciosas. Abre una nueva lata de gusanos, demostrando que es más fácil para cualquier persona con el conocimiento necesario activar ChatGPT para hacer algo con malas intenciones. Si bien hay investigadores de seguridad que descubren tales vulnerabilidades potenciales para informarlas y parchearlas, ataques como este crearían la necesidad de discutir las limitaciones de implementación de la IA generativa.
A partir de ahora, OpenAI se ha comprometido firmemente a seguir mejorando su inteligencia artificial con el objetivo de evitar que se empleen métodos que puedan comprometer la seguridad y la integridad de sus sistemas. Esta decisión subraya la importancia de mantener un enfoque proactivo en la protección de sus tecnologias avanzadas. Mientras tanto, OpenAI no solo se enfocará en el desarrollo de su IA, sino que también colaborará estrechamente con sus equipos internos de seguridad y protección para garantizar que se implementen medidas efectivas y robustas que salvaguarden sus plataformas.
A empresa deixou claro que não se concentrará apenas no seu próprio ambiente, mas também continuará a partilhar as suas descobertas e avanços com outros intervenientes na indústria e na comunidade de investigação. Esta abordagem colaborativa procura evitar que situações semelhantes ocorram no futuro, promovendo um ecossistema mais seguro e confiável para todos os utilizadores de tecnologias de inteligência artificial.
Embora esta iniciativa seja liderada pela OpenAI, é crucial que outros líderes da indústria com as suas próprias plataformas generativas de IA também adotem medidas de proteção robustas para evitar ataques que possam comprometer os seus sistemas.
Prevenir este tipo de ameaças é um desafio constante e é essencial que todas as empresas envolvidas no desenvolvimento da inteligência artificial implementem salvaguardas proativas.
Estas medidas não devem centrar-se apenas na resolução de problemas assim que estes ocorram, mas também em antecipá-los para evitar que surjam. Desta forma, as empresas poderão garantir uma experiência segura e confiável a todos os seus utilizadores, fortalecendo a confiança nas tecnologias de inteligência artificial e no seu potencial transformador na sociedade.