Отчет OpenAI: Кибератаки китайских и иранских хакеров используют ChatGPT для вредоносного ПО и фишинга
Китайские и иранские хакеры используют инструменты ChatGPT и LLM для разработки вредоносных программ и фишинговых атак: в отчете OpenAI зафиксировано более 20 кибератак, сгенерированных ChatGPT
Если и есть хоть один признак того, что ИИ приносит больше проблем, чем пользы, то это ОпенАИ подтверждает, что произошло более двадцати кибератак, и все они были созданы через ChatGPT. В отчете подтверждается, что генеративный ИИ использовался для проведения фишинговых атак, отладки и разработки вредоносного ПО, а также для выполнения других вредоносных действий.
В отчете подтверждаются две кибератаки с использованием генеративного искусственного интеллекта ChatGPT. О первом сообщила компания Cisco Talos в ноябре 2024 года, которая использовалась китайскими злоумышленниками, нацеленными на правительства стран Азии. В этой атаке использовался фишинговый метод SweetSpecter, который включает в себя ZIP-архив с вредоносным файлом, который, если его загрузить и открыть, создаст цепочку заражения системы пользователя. OpenAI обнаружила, что SweetSpecter был создан с использованием нескольких учетных записей, которые использовали ChatGPT для разработки сценариев и обнаружения уязвимостей с помощью инструмента LLM.
Вторая кибератака с использованием искусственного интеллекта была совершена иранской группой под названием CyberAv3ngers, которая использовала ChatGPT для использования уязвимостей и кражи паролей у пользователей ПК на базе MacOS. Третья атака, организованная другой иранской группой под названием Storm-0817, использовала ChatGPT для разработки вредоносного ПО для Android. Вредоносное ПО похищало списки контактов, извлекало журналы вызовов и историю браузера, получало точное местоположение устройства и получало доступ к файлам на зараженных устройствах.
Во всех этих атаках использовались существующие методы разработки вредоносного ПО, и, согласно отчету, не было никаких признаков того, что ChatGPT создал существенно новое вредоносное ПО. Тем не менее, это показывает, насколько легко злоумышленникам обманом заставить генеративные службы искусственного интеллекта создать вредоносные инструменты атаки. Он открывает новую банку с червями, показывая, что любому человеку, обладающему необходимыми знаниями, легче активировать ChatGPT, чтобы сделать что-то с плохими намерениями. Хотя есть исследователи в области безопасности, которые обнаруживают такие потенциальные уязвимости и сообщают о них и исправляют их, подобные атаки создадут необходимость обсуждения ограничений реализации генеративного ИИ.
Отныне OpenAI твердо намерена продолжать совершенствовать свой искусственный интеллект с целью предотвращения использования методов, которые могут поставить под угрозу безопасность и целостность ее систем. Это решение подчеркивает важность сохранения упреждающего подхода к защите ваших передовых технологий. Тем временем OpenAI не только сосредоточится на разработке своего искусственного интеллекта, но также будет тесно сотрудничать со своими внутренними командами по безопасности и обеспечению безопасности, чтобы обеспечить внедрение эффективных и надежных мер для защиты своих платформ.
Компания ясно дала понять, что она не только сосредоточится на своей собственной среде, но также продолжит делиться своими открытиями и достижениями с другими игроками отрасли и исследовательским сообществом. Этот совместный подход направлен на предотвращение повторения подобных ситуаций в будущем, создавая более безопасную и надежную экосистему для всех пользователей технологий искусственного интеллекта.
Хотя эту инициативу возглавляет OpenAI, крайне важно, чтобы другие лидеры отрасли со своими собственными платформами генеративного искусственного интеллекта также приняли надежные меры защиты для предотвращения атак, которые могут поставить под угрозу их системы.
Предотвращение подобных угроз является постоянной задачей, и крайне важно, чтобы все компании, участвующие в разработке искусственного интеллекта, реализовали упреждающие меры безопасности.
Эти меры должны быть сосредоточены не только на решении проблем после их возникновения, но и на их прогнозировании, чтобы в первую очередь предотвратить их возникновение. Таким образом, компании смогут гарантировать безопасный и надежный опыт для всех своих пользователей, укрепляя доверие к технологиям искусственного интеллекта и их преобразующему потенциалу в обществе.