Serangan siber oleh peretas Tiongkok dan Iran menggunakan ChatGPT

Serangan siber oleh peretas Tiongkok dan Iran menggunakan ChatGPT

Laporan OpenAI: Peretas Tiongkok dan Iran Menggunakan ChatGPT untuk Menyebarkan Malware dan Phishing dalam Serangan Siber

Peretas Cina dan Iran menggunakan alat ChatGPT dan LLM untuk mengembangkan malware dan serangan phishing: Laporan OpenAI mendokumentasikan lebih dari 20 serangan siber yang didukung ChatGPT.

Jika ada satu tanda bahwa AI menyebabkan lebih banyak masalah daripada manfaatnya, itu adalah Buka AI mengonfirmasi bahwa lebih dari dua puluh serangan siber telah terjadi, semuanya dibuat melalui ChatGPT. Laporan tersebut mengonfirmasi bahwa AI generatif digunakan untuk melakukan serangan phishing, men-debug dan mengembangkan malware, dan melakukan aktivitas jahat lainnya.

Laporan tersebut mengonfirmasi dua serangan siber yang menggunakan AI generatif ChatGPT. Cisco Talos melaporkan yang pertama pada November 2024, yang digunakan oleh aktor ancaman Tiongkok yang menargetkan pemerintah Asia. Serangan ini menggunakan metode penipuan disebut 'SweetSpecter', yang menyertakan file ZIP dengan file berbahaya yang, jika diunduh dan dibuka, akan menciptakan rantai infeksi pada sistem pengguna. OpenAI menemukan bahwa SweetSpecter dibuat menggunakan beberapa akun yang menggunakan ChatGPT untuk mengembangkan skrip dan menemukan kerentanan menggunakan alat LLM.

Serangan siber kedua yang menggunakan AI berasal dari kelompok yang berbasis di Iran yang disebut 'CyberAv3ngers' yang menggunakan ChatGPT untuk mengeksploitasi kerentanan dan mencuri kata sandi dari pengguna PC berdasarkan macOS. Serangan ketiga, yang dipimpin oleh kelompok lain yang bermarkas di Iran bernama Storm-0817, menggunakan ChatGPT untuk mengembangkan malware untuk Bahasa Indonesia: Android. Malware tersebut mencuri daftar kontak, mengekstrak log panggilan dan riwayat panggilan. peramban, memperoleh lokasi pasti perangkat tersebut dan mengakses berkas pada perangkat yang terinfeksi.

Semua serangan ini menggunakan metode yang ada untuk mengembangkan perangkat lunak berbahaya dan, menurut laporan tersebut, tidak ada indikasi bahwa ChatGPT telah menciptakan malware baru yang substansial. Bagaimana pun, ini menunjukkan betapa mudahnya bagi pelaku kejahatan siber untuk mengelabui pengguna. layanan AI generatif untuk membuat alat serangan berbahaya. Ini membuka masalah baru, membuktikan bahwa lebih mudah bagi siapa pun dengan pengetahuan yang diperlukan untuk mengaktifkan ChatGPT guna melakukan sesuatu yang berbahaya. Meskipun ada peneliti dari keamanan yang menemukan kerentanan potensial untuk melaporkan dan menambalnya, serangan seperti ini akan menciptakan kebutuhan untuk membahas batasan implementasi AI generatif.

Mulai sekarang, OpenAI berkomitmen kuat untuk terus meningkatkan kecerdasan buatan dengan tujuan mencegah penggunaan metode yang dapat membahayakan keamanan dan integritas sistem mereka. Keputusan ini menggarisbawahi pentingnya mempertahankan pendekatan proaktif untuk melindungi Teknologi canggih. Sementara itu, OpenAI tidak hanya akan fokus pada pengembangan AI-nya, tetapi juga akan bekerja sama erat dengan tim keselamatan dan keamanan internalnya untuk memastikan langkah-langkah yang efektif dan kuat diterapkan untuk melindungi platformnya.

Perusahaan telah menjelaskan bahwa mereka tidak akan hanya fokus pada lingkungannya sendiri, tetapi juga akan terus berbagi penemuan dan kemajuannya dengan pelaku industri lain dan komunitas penelitian. Pendekatan kolaboratif ini berupaya mencegah situasi serupa terjadi di masa mendatang, dengan mendorong ekosistem yang lebih aman dan andal bagi semua pengguna teknologi informasi. kecerdasan buatan.

Sementara inisiatif ini dipimpin oleh OpenAI, sangat penting bahwa pemimpin industri lain dengan platform AI generatif mereka sendiri juga mengadopsi tindakan perlindungan yang kuat untuk mencegah serangan yang dapat membahayakan sistem mereka.

Mencegah jenis ancaman ini merupakan tantangan yang terus-menerus, dan sangat penting bagi semua perusahaan yang terlibat dalam pengembangan kecerdasan buatan menerapkan perlindungan proaktif.

Tindakan-tindakan ini hendaknya tidak hanya difokuskan pada penyelesaian masalah saat masalah itu terjadi, tetapi juga pada antisipasi agar masalah itu tidak timbul sejak awal. Dengan cara ini, perusahaan akan dapat menjamin pengalaman yang aman dan andal bagi semua penggunanya, memperkuat kepercayaan pada Teknologi kecerdasan buatan dan potensi transformatifnya dalam masyarakat.

5 4 suara
Peringkat Artikel
Berlangganan
Diberitahukan oleh
tamu

0 Komentar
Lebih kuno
Yang lebih baru Lebih banyak suara
Komentar online
Lihat semua komentar