Gli attacchi informatici da parte di hacker cinesi e iraniani utilizzano ChatGPT

Gli attacchi informatici da parte di hacker cinesi e iraniani utilizzano ChatGPT

Rapporto OpenAI: gli hacker cinesi e iraniani usano ChatGPT per malware e phishing

Hacker cinesi e iraniani utilizzano gli strumenti ChatGPT e LLM per sviluppare malware e attacchi di phishing: il rapporto OpenAI documenta più di 20 attacchi informatici generati da ChatGPT

Se c’è un segnale che l’intelligenza artificiale crea più problemi di quanto valga, è proprio questo OpenAI conferma che si sono verificati più di venti attacchi informatici, tutti realizzati tramite ChatGPT. Il rapporto conferma che l’intelligenza artificiale generativa è stata utilizzata per condurre attacchi di phishing, eseguire il debug e sviluppare malware ed eseguire altre attività dannose.

Il rapporto conferma due attacchi informatici utilizzando l'intelligenza artificiale generativa ChatGPT. Il primo è stato segnalato da Cisco Talos nel novembre 2024, ed è stato utilizzato da autori di minacce cinesi contro i governi asiatici. Questo attacco ha utilizzato un metodo di phishing chiamato "SweetSpecter", che include un archivio ZIP con un file dannoso che, se scaricato e aperto, creerebbe una catena di infezione sul sistema dell'utente. OpenAI ha scoperto che SweetSpecter è stato creato utilizzando più account che utilizzavano ChatGPT per sviluppare script e scoprire vulnerabilità utilizzando uno strumento LLM.

Il secondo attacco informatico potenziato dall'intelligenza artificiale è arrivato da un gruppo con sede in Iran chiamato "CyberAv3ngers" che ha utilizzato ChatGPT per sfruttare le vulnerabilità e rubare le password degli utenti di PC in base a macOS. Il terzo attacco, condotto da un altro gruppo con sede in Iran chiamato Storm-0817, ha utilizzato ChatGPT per sviluppare malware Android. Il malware ha rubato elenchi di contatti, estratto registri delle chiamate e cronologia telefonica. navigatore, ha ottenuto la posizione precisa del dispositivo e ha avuto accesso ai file sui dispositivi infetti.

Tutti questi attacchi hanno utilizzato metodi esistenti per sviluppare malware Inoltre, secondo il rapporto, non ci sono indicazioni che ChatGPT abbia creato un malware sostanzialmente nuovo. In ogni caso, dimostra quanto sia facile per gli autori delle minacce ingannare gli utenti. servizi intelligenza artificiale generativa per creare strumenti di attacco dannosi. Si apre un nuovo vaso di Pandora, dimostrando che è più facile per chiunque abbia le conoscenze necessarie attivare ChatGPT per fare qualcosa con intenti malevoli. Mentre ci sono ricercatori di sicurezza scoprire tali potenziali vulnerabilità per segnalarle e correggerle, attacchi come questo creerebbero la necessità di discutere i limiti di implementazione dell'intelligenza artificiale generativa.

Da ora in poi, OpenAI è fermamente impegnata a continuare a migliorare il suo intelligenza artificiale con l’obiettivo di prevenire l’impiego di metodi che possano compromettere la sicurezza e l’integrità dei propri sistemi. Questa decisione sottolinea l'importanza di mantenere un approccio proattivo per proteggere i propri tecnologie avanzato. Nel frattempo, OpenAI non si concentrerà solo sullo sviluppo della sua intelligenza artificiale, ma collaborerà anche strettamente con i suoi team interni di sicurezza e protezione per garantire che siano implementate misure efficaci e solide per salvaguardare le sue piattaforme.

L'azienda ha chiarito che non si concentrerà solo sul proprio ambiente, ma continuerà anche a condividere le sue scoperte e i suoi progressi con altri attori del settore e con la comunità della ricerca. Questo approccio collaborativo mira a impedire che situazioni simili si ripetano in futuro, promuovendo un ecosistema più sicuro e affidabile per tutti gli utenti delle tecnologie informatiche. intelligenza artificiale.

Sebbene questa iniziativa sia guidata da OpenAI, è fondamentale che anche altri leader del settore con le proprie piattaforme di intelligenza artificiale generativa adottino solide misure di protezione per prevenire attacchi che potrebbero compromettere i loro sistemi.

Prevenire questo tipo di minacce è una sfida costante ed è essenziale che tutte le aziende coinvolte nello sviluppo di tali minacce intelligenza artificiale implementare misure di salvaguardia proattive.

Queste misure non dovrebbero concentrarsi solo sulla risoluzione dei problemi una volta che si verificano, ma anche sull’anticipazione per evitare che si verifichino. In questo modo le aziende potranno garantire un’esperienza sicura e affidabile a tutti i propri utenti, rafforzando la fiducia nei confronti del tecnologie dell’intelligenza artificiale e del suo potenziale di trasformazione nella società.

5 4 voti
Valutazione dell'articolo
Iscriviti
Notifica di
ospite

0 Commenti
più antico
Più recente I più votati
Commenti in linea
Vedi tutti i commenti