OpenAI-rapport: Kinesiska och iranska hackare använder ChatGPT för skadlig programvara och nätfiske i cyberattacker
Kinesiska och iranska hackare använder ChatGPT- och LLM-verktyg för att utveckla skadlig programvara och nätfiskeattacker: En OpenAI-rapport dokumenterar mer än 20 ChatGPT-drivna cyberattacker.
Om det finns ett tecken på att AI orsakar mer problem än det är värt, så är det Öppen AI bekräftar att fler än 20 cyberattacker har inträffat, alla skapade via ChatGPT. Rapporten bekräftar att generativ AI användes för att utföra nätfiskeattacker, felsöka och utveckla skadlig programvara och utföra andra skadliga aktiviteter.
Rapporten bekräftar två cyberattacker med ChatGPT:s generativa AI. Cisco Talos rapporterade den första i november 2024, vilken användes av kinesiska hotaktörer som riktade sig mot asiatiska regeringar. Denna attack använde en nätfiske kallad "SweetSpecter", som innehåller en ZIP-fil som innehåller en skadlig fil som, om den laddades ner och öppnades, skulle skapa en infektionskedja på användarens system. OpenAI upptäckte att SweetSpecter skapades med flera konton som använde ChatGPT för att utveckla skript och upptäcka sårbarheter med hjälp av ett LLM-verktyg.
Den andra AI-förstärkta cyberattacken kom från en Iran-baserad grupp kallad 'CyberAv3ngers' som använde ChatGPT för att utnyttja sårbarheter och stjäla lösenord från PC-användare baserat på macOSDen tredje attacken, ledd av en annan Iran-baserad grupp kallad Storm-0817, använde ChatGPT för att utveckla skadlig programvara för att AndroidSkadlig programvara stal kontaktlistor, extraherade samtalsloggar och historik för webbläsare, erhöll enhetens exakta plats och fick åtkomst till filer på de infekterade enheterna.
Alla dessa attacker använde befintliga metoder för att utveckla skadlig kod och enligt rapporten finns det inga tecken på att ChatGPT har skapat väsentligt ny skadlig kod. Ändå visar det hur lätt det är för hotaktörer att lura användare att tjänster generativ AI för att skapa skadliga attackverktyg. Det öppnar en helt ny burk med maskar och bevisar att det är lättare för alla med nödvändig kunskap att aktivera ChatGPT för att göra något skadligt. Även om det finns forskare säkerhet som upptäcker sådana potentiella sårbarheter för att rapportera och åtgärda dem, skulle attacker som denna skapa ett behov av att diskutera implementeringsbegränsningarna för generativ AI.
Från och med nu är OpenAI fast beslutet att fortsätta förbättra sin artificiell intelligens i syfte att förhindra användning av metoder som kan äventyra säkerheten och integriteten i dess system. Detta beslut understryker vikten av att upprätthålla en proaktiv strategi för att skydda dess teknologier Under tiden kommer OpenAI inte bara att fokusera på att utveckla sin AI, utan också arbeta nära sina interna säkerhetsteam för att säkerställa att effektiva och robusta åtgärder finns på plats för att skydda sina plattformar.
Företaget har tydliggjort att det inte bara kommer att fokusera på sin egen miljö, utan också fortsätta att dela sina upptäckter och framsteg med andra aktörer inom branschen och forskarsamhället. Denna samarbetsstrategi syftar till att förhindra att liknande situationer uppstår i framtiden och främja ett säkrare och mer tillförlitligt ekosystem för alla användare av informationsteknik. artificiell intelligens.
Även om detta initiativ leds av OpenAI är det avgörande att andra branschledare med sina egna generativa AI-plattformar också antar robusta skyddsåtgärder för att förhindra attacker som kan äventyra deras system.
Att förebygga den här typen av hot är en ständig utmaning, och det är viktigt att alla företag som är involverade i utvecklingen av artificiell intelligens implementera proaktiva skyddsåtgärder.
Dessa åtgärder bör inte bara fokusera på att lösa problem när de uppstår, utan också på att förutse dem för att förhindra att de uppstår från första början. På så sätt kan företag garantera en säker och pålitlig upplevelse för alla sina användare, vilket stärker förtroendet för teknologier av artificiell intelligens och dess transformerande potential i samhället.