OpenAI-rapport: Chinese en Iraanse hackers gebruiken ChatGPT voor malware en phishing bij cyberaanvallen
Chinese en Iraanse hackers gebruiken ChatGPT- en LLM-tools om malware en phishingaanvallen te ontwikkelen: een rapport van OpenAI documenteert meer dan 20 cyberaanvallen die door ChatGPT worden aangestuurd.
Als er één teken is dat AI meer problemen veroorzaakt dan het waard is, is het wel OpenAI bevestigt dat er meer dan 20 cyberaanvallen hebben plaatsgevonden, allemaal via ChatGPT. Het rapport bevestigt dat generatieve AI is gebruikt om phishingaanvallen uit te voeren, malware te debuggen en te ontwikkelen, en andere kwaadaardige activiteiten uit te voeren.
Het rapport bevestigt twee cyberaanvallen met behulp van ChatGPT-generatieve AI. Cisco Talos meldde de eerste in november 2024, die werd gebruikt door Chinese cybercriminelen die zich op Aziatische overheden richtten. Deze aanval maakte gebruik van een phishing genaamd 'SweetSpecter', dat een ZIP-bestand bevat met een schadelijk bestand dat, indien gedownload en geopend, een infectieketen op het systeem van de gebruiker zou creëren. OpenAI ontdekte dat SweetSpecter was gemaakt met behulp van meerdere accounts die ChatGPT gebruikten om scripts te ontwikkelen en kwetsbaarheden te ontdekken met behulp van een LLM-tool.
De tweede AI-versterkte cyberaanval kwam van een in Iran gevestigde groep genaamd 'CyberAv3ngers' die ChatGPT gebruikte om kwetsbaarheden te misbruiken en wachtwoorden van pc-gebruikers te stelen op basis van macOSDe derde aanval, geleid door een andere in Iran gevestigde groep genaamd Storm-0817, gebruikte ChatGPT om malware te ontwikkelen om AndroidDe malware stal contactenlijsten, haalde oproeplogboeken en de geschiedenis van de browser, de precieze locatie van het apparaat verkregen en toegang verkregen tot bestanden op de geïnfecteerde apparaten.
Bij al deze aanvallen werd gebruik gemaakt van bestaande methoden om malware en volgens het rapport zijn er geen aanwijzingen dat ChatGPT substantieel nieuwe malware heeft gecreëerd. Toch laat het zien hoe gemakkelijk het voor kwaadwillenden is om gebruikers te misleiden. diensten generatieve AI om tools voor kwaadaardige aanvallen te creëren. Het opent een heel nieuw blik wormen en bewijst dat het voor iedereen met de nodige kennis makkelijker is om ChatGPT te activeren om iets kwaadaardigs te doen. Hoewel er onderzoekers zijn beveiliging die dergelijke potentiële kwetsbaarheden ontdekken, deze moeten melden en oplossen. Bij dit soort aanvallen is het nodig om de implementatiebeperkingen van generatieve AI te bespreken.
Vanaf nu zet OpenAI zich er nadrukkelijk voor in om zijn diensten te blijven verbeteren. kunstmatige intelligentie met als doel het voorkomen van het gebruik van methoden die de veiligheid en integriteit van haar systemen in gevaar kunnen brengen. Deze beslissing onderstreept het belang van een proactieve aanpak voor de bescherming van haar systemen. technologieën In de tussentijd richt OpenAI zich niet alleen op de ontwikkeling van zijn AI, maar werkt het ook nauw samen met zijn interne veiligheids- en beveiligingsteams om te garanderen dat er effectieve en robuuste maatregelen worden genomen om zijn platforms te beschermen.
Het bedrijf heeft duidelijk gemaakt dat het zich niet alleen op zijn eigen omgeving zal richten, maar zijn ontdekkingen en ontwikkelingen ook zal blijven delen met andere spelers in de industrie en de onderzoeksgemeenschap. Deze gezamenlijke aanpak is erop gericht soortgelijke situaties in de toekomst te voorkomen en een veiliger en betrouwbaarder ecosysteem te creëren voor alle gebruikers van informatietechnologieën. kunstmatige intelligentie.
Hoewel dit initiatief wordt geleid door OpenAI, is het van groot belang dat andere marktleiders met hun eigen generatieve AI-platformen ook robuuste beschermingsmaatregelen treffen om aanvallen te voorkomen die hun systemen in gevaar kunnen brengen.
Het voorkomen van dit soort bedreigingen is een voortdurende uitdaging, en het is essentieel dat alle bedrijven die betrokken zijn bij de ontwikkeling van kunstmatige intelligentie proactieve veiligheidsmaatregelen implementeren.
Deze maatregelen moeten niet alleen gericht zijn op het oplossen van problemen zodra ze zich voordoen, maar ook op het anticiperen op deze problemen om te voorkomen dat ze zich überhaupt voordoen. Zo kunnen bedrijven een veilige en betrouwbare ervaring garanderen voor al hun gebruikers, wat het vertrouwen in de gebruikers versterkt. technologieën van kunstmatige intelligentie en het transformerende potentieel ervan in de samenleving.