Кибератаки китайских и иранских хакеров используют ChatGPT

Кибератаки китайских и иранских хакеров используют ChatGPT

Отчет OpenAI: Кибератаки китайских и иранских хакеров используют ChatGPT для вредоносного ПО и фишинга

Китайские и иранские хакеры используют инструменты ChatGPT и LLM для разработки вредоносных программ и фишинговых атак: в отчете OpenAI зафиксировано более 20 кибератак, сгенерированных ChatGPT

 

Если и есть хоть один признак того, что ИИ приносит больше проблем, чем пользы, то это ОпенАИ подтверждает, что произошло более двадцати кибератак, и все они были созданы через ChatGPT. В отчете подтверждается, что генеративный ИИ использовался для проведения фишинговых атак, отладки и разработки вредоносного ПО, а также для выполнения других вредоносных действий.

В отчете подтверждаются две кибератаки с использованием генеративного искусственного интеллекта ChatGPT. О первом сообщила компания Cisco Talos в ноябре 2024 года, которая использовалась китайскими злоумышленниками, нацеленными на правительства стран Азии. В этой атаке использовался фишинговый метод SweetSpecter, который включает в себя ZIP-архив с вредоносным файлом, который, если его загрузить и открыть, создаст цепочку заражения системы пользователя. OpenAI обнаружила, что SweetSpecter был создан с использованием нескольких учетных записей, которые использовали ChatGPT для разработки сценариев и обнаружения уязвимостей с помощью инструмента LLM.

El segundo ciberataque mejorado con IA provino de un grupo con sede en Irán llamado ‘CyberAv3ngers’ que utilizó ChatGPT para explotar vulnerabilidades y robar contraseñas de usuarios de PC basadas en macOS. El tercer ataque, liderado por otro grupo con sede en Irán llamado Storm-0817, utilizó ChatGPT para desarrollar malware para Android. El malware robó listas de contactos, extrajo registros de llamadas e historial del браузер, obtuvo la ubicación precisa del dispositivo y accedió a archivos en los dispositivos infectados.

Todos estos ataques utilizaron métodos existentes para desarrollar malware y, según el informe, no ha habido indicios de que ChatGPT haya creado malware sustancialmente nuevo. De todos modos, muestra lo fácil que es para los actores de amenazas engañar a los услуги de IA generativa para que creen herramientas de ataque maliciosas. Abre una nueva lata de gusanos, demostrando que es más fácil para cualquier persona con el conocimiento necesario activar ChatGPT para hacer algo con malas intenciones. Si bien hay investigadores de seguridad que descubren tales vulnerabilidades potenciales para informarlas y parchearlas, ataques como este crearían la necesidad de discutir las limitaciones de implementación de la IA generativa.

A partir de ahora, OpenAI se ha comprometido firmemente a seguir mejorando su inteligencia artificial con el objetivo de evitar que se empleen métodos que puedan comprometer la seguridad y la integridad de sus sistemas. Esta decisión subraya la importancia de mantener un enfoque proactivo en la protección de sus технологии avanzadas. Mientras tanto, OpenAI no solo se enfocará en el desarrollo de su IA, sino que también colaborará estrechamente con sus equipos internos de seguridad y protección para garantizar que se implementen medidas efectivas y robustas que salvaguarden sus plataformas.

Компания ясно дала понять, что она не только сосредоточится на своей собственной среде, но также продолжит делиться своими открытиями и достижениями с другими игроками отрасли и исследовательским сообществом. Этот совместный подход направлен на предотвращение повторения подобных ситуаций в будущем, создавая более безопасную и надежную экосистему для всех пользователей технологий искусственного интеллекта.

Хотя эту инициативу возглавляет OpenAI, крайне важно, чтобы другие лидеры отрасли со своими собственными платформами генеративного искусственного интеллекта также приняли надежные меры защиты для предотвращения атак, которые могут поставить под угрозу их системы.

Предотвращение подобных угроз является постоянной задачей, и крайне важно, чтобы все компании, участвующие в разработке искусственного интеллекта, реализовали упреждающие меры безопасности.

Эти меры должны быть сосредоточены не только на решении проблем после их возникновения, но и на их прогнозировании, чтобы в первую очередь предотвратить их возникновение. Таким образом, компании смогут гарантировать безопасный и надежный опыт для всех своих пользователей, укрепляя доверие к технологиям искусственного интеллекта и их преобразующему потенциалу в обществе.

5 3 голоса
Article Rating
Подписаться
Уведомить о
гость

0 Comments
Самый старый
Самый новый Наибольшее количество голосов
онлайн-комментарии
Посмотреть все комментарии