Ataques cibernéticos de hackers chineses e iranianos usam ChatGPT

Ataques cibernéticos de hackers chineses e iranianos usam ChatGPT

Relatório OpenAI: Ataques cibernéticos de hackers chineses e iranianos usam ChatGPT para malware e phishing

Hackers chineses e iranianos usam ferramentas ChatGPT e LLM para desenvolver malware e ataques de phishing: relatório OpenAI documenta mais de 20 ataques cibernéticos gerados por ChatGPT

 

Se há um sinal de que a IA causa mais problemas do que vale, é OpenAI confirma que ocorreram mais de vinte ataques cibernéticos, todos criados através do ChatGPT. O relatório confirma que a IA generativa foi usada para conduzir ataques de phishing, depurar e desenvolver malware e conduzir outras atividades maliciosas.

O relatório confirma dois ataques cibernéticos usando IA generativa ChatGPT. O primeiro foi relatado pelo Cisco Talos em novembro de 2024, que foi usado por atores de ameaças chineses visando governos asiáticos. Este ataque usou um método de phishing chamado 'SweetSpecter', que inclui um arquivo ZIP com um arquivo malicioso que, se baixado e aberto, criaria uma cadeia de infecção no sistema do usuário. A OpenAI descobriu que o SweetSpecter foi criado usando várias contas que usavam ChatGPT para desenvolver scripts e descobrir vulnerabilidades usando uma ferramenta LLM.

O segundo ataque cibernético aprimorado por IA veio de um grupo baseado no Irã chamado 'CyberAv3ngers' que usou o ChatGPT para explorar vulnerabilidades e roubar senhas de usuários de PC com base em macOS. O terceiro ataque, liderado por outro grupo baseado no Irã chamado Storm-0817, usou o ChatGPT para desenvolver malware para Andróide. O malware roubou listas de contatos, extraiu registros de chamadas e histórico telefônico. navegador, obteve a localização precisa do dispositivo e acessou arquivos nos dispositivos infectados.

Todos esses ataques usaram métodos existentes para desenvolver malware e, de acordo com o relatório, não houve indicações de que o ChatGPT tenha criado malware substancialmente novo. Ainda assim, mostra como é fácil para os agentes de ameaças enganar os usuários. serviços de IA generativa para criar ferramentas de ataque maliciosas. Ele abre uma nova lata de worms, mostrando que é mais fácil para qualquer pessoa com o conhecimento necessário ativar o ChatGPT para fazer algo mal intencionado. Embora existam investigadores de segurança que descobrem tais vulnerabilidades potenciais para as reportar e corrigir, ataques como este criariam a necessidade de discutir as limitações de implementação da IA generativa.

A partir de agora, a OpenAI está firmemente empenhada em continuar a melhorar a sua inteligência artificial com o objetivo de evitar a utilização de métodos que possam comprometer a segurança e integridade dos seus sistemas. Esta decisão sublinha a importância de manter uma abordagem proativa na proteção do seu tecnologias avançado. Entretanto, a OpenAI não se concentrará apenas no desenvolvimento da sua IA, mas também colaborará estreitamente com as suas equipas internas de segurança e proteção para garantir que medidas eficazes e robustas sejam implementadas para salvaguardar as suas plataformas.

A empresa deixou claro que não se concentrará apenas no seu próprio ambiente, mas também continuará a partilhar as suas descobertas e avanços com outros intervenientes na indústria e na comunidade de investigação. Esta abordagem colaborativa procura evitar que situações semelhantes ocorram no futuro, promovendo um ecossistema mais seguro e confiável para todos os utilizadores de tecnologias de inteligência artificial.

Embora esta iniciativa seja liderada pela OpenAI, é crucial que outros líderes da indústria com as suas próprias plataformas generativas de IA também adotem medidas de proteção robustas para evitar ataques que possam comprometer os seus sistemas.

Prevenir este tipo de ameaças é um desafio constante, sendo fundamental que todas as empresas envolvidas no desenvolvimento de inteligência artificial implementar salvaguardas proativas.

Estas medidas não devem centrar-se apenas na resolução de problemas assim que estes ocorram, mas também em antecipá-los para evitar que surjam. Desta forma, as empresas poderão garantir uma experiência segura e confiável a todos os seus utilizadores, fortalecendo a confiança no tecnologias da inteligência artificial e do seu potencial transformador na sociedade.

5 3 votos
Classificação do artigo
Inscrever-se
Notificar de
convidado

0 Comentários
mais antigo
Mais recente Mais votados
Comentários on-line
Ver todos os comentários