Gli attacchi informatici da parte di hacker cinesi e iraniani utilizzano ChatGPT

Gli attacchi informatici da parte di hacker cinesi e iraniani utilizzano ChatGPT

Rapporto OpenAI: attacchi informatici da parte di hacker cinesi e iraniani utilizzano ChatGPT per malware e phishing

Hacker cinesi e iraniani utilizzano gli strumenti ChatGPT e LLM per sviluppare malware e attacchi di phishing: il rapporto OpenAI documenta più di 20 attacchi informatici generati da ChatGPT

 

Se c’è un segnale che l’intelligenza artificiale crea più problemi di quanto valga, è proprio questo OpenAI conferma che si sono verificati più di venti attacchi informatici, tutti realizzati tramite ChatGPT. Il rapporto conferma che l’intelligenza artificiale generativa è stata utilizzata per condurre attacchi di phishing, eseguire il debug e sviluppare malware ed eseguire altre attività dannose.

Il rapporto conferma due attacchi informatici utilizzando l'intelligenza artificiale generativa ChatGPT. Il primo è stato segnalato da Cisco Talos nel novembre 2024, ed è stato utilizzato da autori di minacce cinesi contro i governi asiatici. Questo attacco ha utilizzato un metodo di phishing chiamato "SweetSpecter", che include un archivio ZIP con un file dannoso che, se scaricato e aperto, creerebbe una catena di infezione sul sistema dell'utente. OpenAI ha scoperto che SweetSpecter è stato creato utilizzando più account che utilizzavano ChatGPT per sviluppare script e scoprire vulnerabilità utilizzando uno strumento LLM.

El segundo ciberataque mejorado con IA provino de un grupo con sede en Irán llamado ‘CyberAv3ngers’ que utilizó ChatGPT para explotar vulnerabilidades y robar contraseñas de usuarios de PC basadas en macOS. El tercer ataque, liderado por otro grupo con sede en Irán llamado Storm-0817, utilizó ChatGPT para desarrollar malware para Android. El malware robó listas de contactos, extrajo registros de llamadas e historial del navigatore, obtuvo la ubicación precisa del dispositivo y accedió a archivos en los dispositivos infectados.

Todos estos ataques utilizaron métodos existentes para desarrollar malware y, según el informe, no ha habido indicios de que ChatGPT haya creado malware sustancialmente nuevo. De todos modos, muestra lo fácil que es para los actores de amenazas engañar a los servizi de IA generativa para que creen herramientas de ataque maliciosas. Abre una nueva lata de gusanos, demostrando que es más fácil para cualquier persona con el conocimiento necesario activar ChatGPT para hacer algo con malas intenciones. Si bien hay investigadores de seguridad que descubren tales vulnerabilidades potenciales para informarlas y parchearlas, ataques como este crearían la necesidad de discutir las limitaciones de implementación de la IA generativa.

A partir de ahora, OpenAI se ha comprometido firmemente a seguir mejorando su inteligencia artificial con el objetivo de evitar que se empleen métodos que puedan comprometer la seguridad y la integridad de sus sistemas. Esta decisión subraya la importancia de mantener un enfoque proactivo en la protección de sus tecnologie avanzadas. Mientras tanto, OpenAI no solo se enfocará en el desarrollo de su IA, sino que también colaborará estrechamente con sus equipos internos de seguridad y protección para garantizar que se implementen medidas efectivas y robustas que salvaguarden sus plataformas.

L’azienda ha chiarito che non si concentrerà solo sul proprio ambiente, ma continuerà anche a condividere le proprie scoperte e i propri progressi con altri attori del settore e con la comunità di ricerca. Questo approccio collaborativo mira a evitare che situazioni simili si ripetano in futuro, favorendo un ecosistema più sicuro e affidabile per tutti gli utenti delle tecnologie di intelligenza artificiale.

Sebbene questa iniziativa sia guidata da OpenAI, è fondamentale che anche altri leader del settore con le proprie piattaforme di intelligenza artificiale generativa adottino solide misure di protezione per prevenire attacchi che potrebbero compromettere i loro sistemi.

Prevenire questo tipo di minacce è una sfida continua ed è essenziale che tutte le aziende coinvolte nello sviluppo dell’intelligenza artificiale implementino misure di salvaguardia proattive.

Queste misure non dovrebbero concentrarsi solo sulla risoluzione dei problemi una volta che si verificano, ma anche sull’anticipazione per evitare che si verifichino. In questo modo, le aziende potranno garantire un’esperienza sicura e affidabile a tutti i propri utenti, rafforzando la fiducia nelle tecnologie di intelligenza artificiale e nel loro potenziale di trasformazione nella società.

5 3 voti
Valutazione dell'articolo
Iscriviti
Notifica di
ospite

0 Commenti
più antico
Più recente I più votati
Commenti in linea
Vedi tutti i commenti