OpenAI 보고서: 중국과 이란 해커의 사이버 공격에서 악성 코드 및 피싱에 ChatGPT 사용
중국과 이란 해커는 ChatGPT 및 LLM 도구를 사용하여 맬웨어 및 피싱 공격을 개발합니다. OpenAI 보고서에는 20개 이상의 ChatGPT 생성 사이버 공격이 기록되어 있습니다.
AI가 가치보다 문제가 더 많다는 징후가 하나 있다면, 오픈AI 20건 이상의 사이버 공격이 발생했으며 모두 ChatGPT를 통해 발생했음을 확인합니다. 보고서는 생성 AI가 피싱 공격 수행, 악성 코드 디버깅 및 개발, 기타 악의적인 활동 수행에 사용되었음을 확인했습니다.
보고서는 ChatGPT 생성 AI를 사용한 두 건의 사이버 공격을 확인했습니다. 첫 번째는 2024년 11월 Cisco Talos가 보고한 것으로, 아시아 정부를 표적으로 삼는 중국 위협 행위자들이 사용했습니다. 이 공격은 'SweetSpecter'라는 피싱 방법을 사용했습니다. 여기에는 다운로드하여 열면 사용자 시스템에 감염 체인을 생성하는 악성 파일이 포함된 ZIP 아카이브가 포함되어 있습니다. OpenAI는 ChatGPT를 사용하여 스크립트를 개발하고 LLM 도구를 사용하여 취약점을 발견하는 여러 계정을 사용하여 SweetSpecter가 생성되었음을 발견했습니다.
El segundo ciberataque mejorado con IA provino de un grupo con sede en Irán llamado ‘CyberAv3ngers’ que utilizó ChatGPT para explotar vulnerabilidades y robar contraseñas de usuarios de PC basadas en macOS. El tercer ataque, liderado por otro grupo con sede en Irán llamado Storm-0817, utilizó ChatGPT para desarrollar malware para 기계적 인조 인간. El malware robó listas de contactos, extrajo registros de llamadas e historial del 브라우저, obtuvo la ubicación precisa del dispositivo y accedió a archivos en los dispositivos infectados.
Todos estos ataques utilizaron métodos existentes para desarrollar malware y, según el informe, no ha habido indicios de que ChatGPT haya creado malware sustancialmente nuevo. De todos modos, muestra lo fácil que es para los actores de amenazas engañar a los 서비스 de IA generativa para que creen herramientas de ataque maliciosas. Abre una nueva lata de gusanos, demostrando que es más fácil para cualquier persona con el conocimiento necesario activar ChatGPT para hacer algo con malas intenciones. Si bien hay investigadores de seguridad que descubren tales vulnerabilidades potenciales para informarlas y parchearlas, ataques como este crearían la necesidad de discutir las limitaciones de implementación de la IA generativa.
A partir de ahora, OpenAI se ha comprometido firmemente a seguir mejorando su inteligencia artificial con el objetivo de evitar que se empleen métodos que puedan comprometer la seguridad y la integridad de sus sistemas. Esta decisión subraya la importancia de mantener un enfoque proactivo en la protección de sus 기술 avanzadas. Mientras tanto, OpenAI no solo se enfocará en el desarrollo de su IA, sino que también colaborará estrechamente con sus equipos internos de seguridad y protección para garantizar que se implementen medidas efectivas y robustas que salvaguarden sus plataformas.
회사는 자체 환경에만 초점을 맞추는 것이 아니라 업계 및 연구 커뮤니티의 다른 참여자들과 발견 및 발전을 계속 공유할 것임을 분명히 했습니다. 이러한 협업적 접근 방식은 향후 유사한 상황이 발생하지 않도록 방지하고 모든 인공 지능 기술 사용자를 위한 보다 안전하고 신뢰할 수 있는 생태계를 조성하기 위한 것입니다.
이 이니셔티브는 OpenAI가 주도하고 있지만 자체 생성 AI 플랫폼을 보유한 다른 업계 리더들도 시스템을 손상시킬 수 있는 공격을 방지하기 위해 강력한 보호 조치를 채택하는 것이 중요합니다.
이러한 유형의 위협을 예방하는 것은 지속적인 과제이며, 인공 지능 개발에 참여하는 모든 회사가 사전 예방적 보호 조치를 구현하는 것이 필수적입니다.
이러한 조치는 문제가 발생했을 때 이를 해결하는 데 초점을 둘 뿐만 아니라 문제가 발생하는 것을 사전에 예방하는 데도 초점을 맞춰야 합니다. 이러한 방식으로 기업은 모든 사용자에게 안전하고 신뢰할 수 있는 경험을 보장하고 인공 지능 기술과 사회의 변혁적 잠재력에 대한 신뢰를 강화할 수 있습니다.