Rapporto OpenAI: attacchi informatici da parte di hacker cinesi e iraniani utilizzano ChatGPT per malware e phishing
Hacker cinesi e iraniani utilizzano gli strumenti ChatGPT e LLM per sviluppare malware e attacchi di phishing: il rapporto OpenAI documenta più di 20 attacchi informatici generati da ChatGPT
Se c’è un segnale che l’intelligenza artificiale crea più problemi di quanto valga, è proprio questo OpenAI conferma che si sono verificati più di venti attacchi informatici, tutti realizzati tramite ChatGPT. Il rapporto conferma che l’intelligenza artificiale generativa è stata utilizzata per condurre attacchi di phishing, eseguire il debug e sviluppare malware ed eseguire altre attività dannose.
Il rapporto conferma due attacchi informatici utilizzando l'intelligenza artificiale generativa ChatGPT. Il primo è stato segnalato da Cisco Talos nel novembre 2024, ed è stato utilizzato da autori di minacce cinesi contro i governi asiatici. Questo attacco ha utilizzato un metodo di phishing chiamato "SweetSpecter", che include un archivio ZIP con un file dannoso che, se scaricato e aperto, creerebbe una catena di infezione sul sistema dell'utente. OpenAI ha scoperto che SweetSpecter è stato creato utilizzando più account che utilizzavano ChatGPT per sviluppare script e scoprire vulnerabilità utilizzando uno strumento LLM.
Il secondo attacco informatico potenziato dall’intelligenza artificiale è arrivato da un gruppo con sede in Iran chiamato “CyberAv3ngers” che ha utilizzato ChatGPT per sfruttare vulnerabilità e rubare password da utenti di PC basati su macOS. Il terzo attacco, condotto da un altro gruppo con sede in Iran chiamato Storm-0817, ha utilizzato ChatGPT per sviluppare malware Android. Il malware rubava elenchi di contatti, estraeva registri delle chiamate e cronologia del browser, otteneva la posizione precisa del dispositivo e accedeva ai file sui dispositivi infetti.
Tutti questi attacchi hanno utilizzato metodi esistenti per sviluppare malware e, secondo il rapporto, non ci sono indicazioni che ChatGPT abbia creato malware sostanzialmente nuovi. Tuttavia, dimostra quanto sia facile per gli autori delle minacce ingannare i servizi di intelligenza artificiale generativa per creare strumenti di attacco dannosi. Apre un nuovo vaso di fiori, dimostrando che è più facile per chiunque abbia le conoscenze necessarie attivare ChatGPT per fare qualcosa con cattive intenzioni. Sebbene ci siano ricercatori di sicurezza che scoprono tali potenziali vulnerabilità per segnalarle e correggerle, attacchi come questo creerebbero la necessità di discutere i limiti di implementazione dell’intelligenza artificiale generativa.
Da ora in poi OpenAI è fermamente impegnata a continuare a migliorare la propria intelligenza artificiale con l’obiettivo di impedire l’utilizzo di metodi che potrebbero compromettere la sicurezza e l’integrità dei suoi sistemi. Questa decisione sottolinea l'importanza di mantenere un approccio proattivo nella protezione delle tecnologie avanzate. Nel frattempo, OpenAI non si concentrerà solo sullo sviluppo della sua intelligenza artificiale, ma collaborerà anche strettamente con i suoi team interni di sicurezza e protezione per garantire che siano implementate misure efficaci e solide per salvaguardare le sue piattaforme.
L’azienda ha chiarito che non si concentrerà solo sul proprio ambiente, ma continuerà anche a condividere le proprie scoperte e i propri progressi con altri attori del settore e con la comunità di ricerca. Questo approccio collaborativo mira a evitare che situazioni simili si ripetano in futuro, favorendo un ecosistema più sicuro e affidabile per tutti gli utenti delle tecnologie di intelligenza artificiale.
Sebbene questa iniziativa sia guidata da OpenAI, è fondamentale che anche altri leader del settore con le proprie piattaforme di intelligenza artificiale generativa adottino solide misure di protezione per prevenire attacchi che potrebbero compromettere i loro sistemi.
Prevenire questo tipo di minacce è una sfida continua ed è essenziale che tutte le aziende coinvolte nello sviluppo dell’intelligenza artificiale implementino misure di salvaguardia proattive.
Queste misure non dovrebbero concentrarsi solo sulla risoluzione dei problemi una volta che si verificano, ma anche sull’anticipazione per evitare che si verifichino. In questo modo, le aziende potranno garantire un’esperienza sicura e affidabile a tutti i propri utenti, rafforzando la fiducia nelle tecnologie di intelligenza artificiale e nel loro potenziale di trasformazione nella società.