Raport OpenAI: Chińscy i irańscy hakerzy wykorzystują ChatGPT do złośliwego oprogramowania i phishingu w cyberatakach
Chińscy i irańscy hakerzy wykorzystują narzędzia ChatGPT i LLM do tworzenia złośliwego oprogramowania i ataków phishingowych: raport OpenAI dokumentuje ponad 20 cyberataków przeprowadzanych z wykorzystaniem narzędzi ChatGPT.
Jeśli istnieje jeden znak, że sztuczna inteligencja powoduje więcej problemów niż korzyści, to jest to OtwórzAI potwierdza, że doszło do ponad dwudziestu cyberataków, wszystkie przeprowadzone za pośrednictwem ChatGPT. Raport potwierdza, że sztuczna inteligencja generatywna była wykorzystywana do przeprowadzania ataków phishingowych, debugowania i tworzenia złośliwego oprogramowania, a także do wykonywania innych złośliwych działań.
Raport potwierdza dwa cyberataki wykorzystujące generyczną sztuczną inteligencję ChatGPT. Cisco Talos poinformowało o pierwszym ataku w listopadzie 2024 r., który został wykorzystany przez chińskich cyberprzestępców atakujących rządy azjatyckie. W tym ataku zastosowano metodę phishing o nazwie „SweetSpecter” zawierający plik ZIP zawierający złośliwy plik, który po pobraniu i otwarciu tworzy łańcuch infekcji w systemie użytkownika. OpenAI odkryło, że SweetSpecter został stworzony przy użyciu wielu kont, które używały ChatGPT do opracowywania skryptów i wykrywania luk za pomocą narzędzia LLM.
Drugi cyberatak wspomagany sztuczną inteligencją pochodził od irańskiej grupy o nazwie „CyberAv3ngers”, która wykorzystała ChatGPT do wykorzystania luk w zabezpieczeniach i kradzieży haseł od użytkowników komputerów PC na podstawie macOS. Trzeci atak, przeprowadzony przez inną irańską grupę o nazwie Storm-0817, polegał na wykorzystaniu ChatGPT do opracowania złośliwego oprogramowania Android. Oprogramowanie złośliwe ukradło listy kontaktów, wyodrębniło dzienniki połączeń i historię przeglądarka, uzyskał dokładną lokalizację urządzenia i uzyskał dostęp do plików znajdujących się na zainfekowanych urządzeniach.
We wszystkich tych atakach wykorzystano istniejące metody w celu opracowania złośliwe oprogramowanie i według raportu nie ma żadnych przesłanek wskazujących na to, że ChatGPT stworzył znacząco nowe złośliwe oprogramowanie. Tak czy inaczej, pokazuje to, jak łatwo cyberprzestępcy mogą oszukać użytkowników. Usługi generatywna sztuczna inteligencja do tworzenia złośliwych narzędzi ataków. Otwiera to zupełnie nową puszkę Pandory, udowadniając, że każdemu posiadającemu odpowiednią wiedzę łatwiej jest aktywować ChatGPT w celu wykonania złośliwego działania. Chociaż istnieją badacze bezpieczeństwo odkrywania takich potencjalnych luk w zabezpieczeniach, zgłaszania ich i łatania, ataki takie stwarzają potrzebę omówienia ograniczeń implementacji generatywnej sztucznej inteligencji.
Od teraz OpenAI z pełnym zaangażowaniem kontynuuje udoskonalanie swoich usług. sztuczna inteligencja w celu zapobiegania stosowaniu metod, które mogłyby naruszyć bezpieczeństwo i integralność ich systemów. Decyzja ta podkreśla znaczenie proaktywnego podejścia do ochrony zdrowia. technologie zaawansowany. Tymczasem OpenAI nie będzie się skupiać wyłącznie na rozwijaniu swojej sztucznej inteligencji, ale będzie również ściśle współpracować z wewnętrznymi zespołami ds. bezpieczeństwa, aby zapewnić skuteczne i solidne środki ochrony swoich platform.
Firma jasno dała do zrozumienia, że nie zamierza skupiać się wyłącznie na własnej działalności, lecz będzie także nadal dzielić się swoimi odkryciami i osiągnięciami z innymi podmiotami z branży oraz społecznością badawczą. Takie podejście oparte na współpracy ma na celu zapobieganie podobnym sytuacjom w przyszłości i stworzenie bezpieczniejszego i bardziej niezawodnego ekosystemu dla wszystkich użytkowników technologii informatycznych. sztuczna inteligencja.
Chociaż inicjatywie przewodzi OpenAI, ważne jest, aby inni liderzy branży, posiadający własne platformy generatywnej sztucznej inteligencji, również wdrożyli solidne środki ochronne w celu zapobiegania atakom, które mogłyby naruszyć ich systemy.
Zapobieganie tego typu zagrożeniom to nieustanne wyzwanie i niezwykle ważne jest, aby wszystkie firmy zaangażowane w rozwój sztuczna inteligencja wdrożyć proaktywne zabezpieczenia.
Działania te powinny koncentrować się nie tylko na rozwiązywaniu problemów w momencie ich wystąpienia, lecz także na ich przewidywaniu, aby zapobiegać ich wystąpieniu. W ten sposób firmy będą mogły zagwarantować wszystkim swoim użytkownikom bezpieczne i niezawodne działanie, wzmacniając zaufanie do technologie sztucznej inteligencji i jej potencjału transformacyjnego w społeczeństwie.