OpenAI-Bericht: Cyberangriffe chinesischer und iranischer Hacker nutzen ChatGPT für Malware und Phishing
Chinesische und iranische Hacker nutzen ChatGPT- und LLM-Tools, um Malware- und Phishing-Angriffe zu entwickeln: OpenAI-Bericht dokumentiert mehr als 20 von ChatGPT generierte Cyberangriffe
Wenn es ein Anzeichen dafür gibt, dass KI mehr Ärger verursacht als sie wert ist, dann ist es das OpenAI bestätigt, dass mehr als zwanzig Cyberangriffe stattgefunden haben, die alle über ChatGPT durchgeführt wurden. Der Bericht bestätigt, dass generative KI verwendet wurde, um Phishing-Angriffe durchzuführen, Malware zu debuggen und zu entwickeln und andere bösartige Aktivitäten durchzuführen.
Der Bericht bestätigt zwei Cyberangriffe mithilfe der generativen KI von ChatGPT. Die erste wurde im November 2024 von Cisco Talos gemeldet, die von chinesischen Bedrohungsakteuren gegen asiatische Regierungen eingesetzt wurde. Bei diesem Angriff wurde eine Phishing-Methode namens „SweetSpecter“ verwendet, die ein ZIP-Archiv mit einer schädlichen Datei enthält, die beim Herunterladen und Öffnen eine Infektionskette auf dem System des Benutzers erzeugen würde. OpenAI entdeckte, dass SweetSpecter mit mehreren Konten erstellt wurde, die ChatGPT nutzten, um Skripte zu entwickeln und Schwachstellen mithilfe eines LLM-Tools zu entdecken.
Der zweite KI-gestützte Cyberangriff kam von einer im Iran ansässigen Gruppe namens „CyberAv3ngers“, die ChatGPT nutzte, um Schwachstellen auszunutzen und Passwörter von macOS-basierten PC-Benutzern zu stehlen. Der dritte Angriff, angeführt von einer anderen im Iran ansässigen Gruppe namens Storm-0817, nutzte ChatGPT, um Android-Malware zu entwickeln. Die Malware stahl Kontaktlisten, extrahierte Anrufprotokolle und den Browserverlauf, ermittelte den genauen Gerätestandort und griff auf Dateien auf den infizierten Geräten zu.
Alle diese Angriffe nutzten bestehende Methoden zur Entwicklung von Malware, und dem Bericht zufolge gab es keine Hinweise darauf, dass ChatGPT wesentlich neue Malware erstellt hätte. Dennoch zeigt es, wie einfach es für Bedrohungsakteure ist, generative KI-Dienste dazu zu verleiten, bösartige Angriffstools zu entwickeln. Es öffnet eine neue Schar von Würmern und zeigt, dass es für jeden mit den nötigen Kenntnissen einfacher ist, ChatGPT zu aktivieren, um etwas mit bösen Absichten zu tun. Zwar gibt es Sicherheitsforscher, die solche potenziellen Schwachstellen entdecken, um sie zu melden und zu beheben, doch Angriffe wie dieser würden die Notwendigkeit schaffen, die Implementierungsbeschränkungen generativer KI zu diskutieren.
OpenAI ist von nun an fest entschlossen, seine künstliche Intelligenz weiter zu verbessern, um den Einsatz von Methoden zu verhindern, die die Sicherheit und Integrität seiner Systeme gefährden könnten. Diese Entscheidung unterstreicht, wie wichtig es ist, beim Schutz Ihrer fortschrittlichen Technologien einen proaktiven Ansatz beizubehalten. In der Zwischenzeit wird sich OpenAI nicht nur auf die Entwicklung seiner KI konzentrieren, sondern auch eng mit seinen internen Sicherheitsteams zusammenarbeiten, um sicherzustellen, dass wirksame und robuste Maßnahmen zum Schutz seiner Plattformen umgesetzt werden.
Das Unternehmen hat deutlich gemacht, dass es sich nicht nur auf sein eigenes Umfeld konzentrieren wird, sondern seine Entdeckungen und Fortschritte auch weiterhin mit anderen Akteuren der Branche und der Forschungsgemeinschaft teilen wird. Dieser kollaborative Ansatz soll verhindern, dass ähnliche Situationen in Zukunft auftreten, und ein sichereres und zuverlässigeres Ökosystem für alle Nutzer von Technologien der künstlichen Intelligenz fördern.
Obwohl diese Initiative von OpenAI geleitet wird, ist es von entscheidender Bedeutung, dass auch andere Branchenführer mit ihren eigenen generativen KI-Plattformen robuste Schutzmaßnahmen ergreifen, um Angriffe zu verhindern, die ihre Systeme gefährden könnten.
Die Abwehr dieser Art von Bedrohungen stellt eine ständige Herausforderung dar und es ist wichtig, dass alle Unternehmen, die an der Entwicklung künstlicher Intelligenz beteiligt sind, proaktive Schutzmaßnahmen implementieren.
Diese Maßnahmen sollten sich nicht nur auf die Lösung von Problemen konzentrieren, sobald sie auftreten, sondern auch darauf, sie zu antizipieren, um sie gar nicht erst entstehen zu lassen. Auf diese Weise können Unternehmen allen ihren Nutzern ein sicheres und zuverlässiges Erlebnis garantieren und das Vertrauen in Technologien der künstlichen Intelligenz und deren transformatives Potenzial in der Gesellschaft stärken.