Rapport OpenAI : les cyberattaques des pirates chinois et iraniens utilisent ChatGPT pour les logiciels malveillants et le phishing
Les pirates chinois et iraniens utilisent les outils ChatGPT et LLM pour développer des logiciels malveillants et des attaques de phishing : un rapport d'OpenAI documente plus de 20 cyberattaques générées par ChatGPT.
S’il y a un signe que l’IA pose plus de problèmes qu’elle n’en vaut la peine, c’est bien OpenAI confirme que plus d'une vingtaine de cyberattaques ont eu lieu, toutes créées via ChatGPT. Le rapport confirme que l’IA générative a été utilisée pour mener des attaques de phishing, déboguer et développer des logiciels malveillants, ainsi que pour mener d’autres activités malveillantes.
Le rapport confirme deux cyberattaques utilisant l'IA générative ChatGPT. Le premier a été signalé par Cisco Talos en novembre 2024, et a été utilisé par des acteurs menaçants chinois ciblant les gouvernements asiatiques. Cette attaque a utilisé une méthode de phishing appelée « SweetSpecter », qui inclut une archive ZIP contenant un fichier malveillant qui, s'il était téléchargé et ouvert, créerait une chaîne d'infection sur le système de l'utilisateur. OpenAI a découvert que SweetSpecter avait été créé à l'aide de plusieurs comptes utilisant ChatGPT pour développer des scripts et découvrir des vulnérabilités à l'aide d'un outil LLM.
El segundo ciberataque mejorado con IA provino de un grupo con sede en Irán llamado ‘CyberAv3ngers’ que utilizó ChatGPT para explotar vulnerabilidades y robar contraseñas de usuarios de PC basadas en macOS. El tercer ataque, liderado por otro grupo con sede en Irán llamado Storm-0817, utilizó ChatGPT para desarrollar malware para Androïde. El malware robó listas de contactos, extrajo registros de llamadas e historial del navigateur, obtuvo la ubicación precisa del dispositivo y accedió a archivos en los dispositivos infectados.
Todos estos ataques utilizaron métodos existentes para desarrollar malware y, según el informe, no ha habido indicios de que ChatGPT haya creado malware sustancialmente nuevo. De todos modos, muestra lo fácil que es para los actores de amenazas engañar a los services de IA generativa para que creen herramientas de ataque maliciosas. Abre una nueva lata de gusanos, demostrando que es más fácil para cualquier persona con el conocimiento necesario activar ChatGPT para hacer algo con malas intenciones. Si bien hay investigadores de seguridad que descubren tales vulnerabilidades potenciales para informarlas y parchearlas, ataques como este crearían la necesidad de discutir las limitaciones de implementación de la IA generativa.
A partir de ahora, OpenAI se ha comprometido firmemente a seguir mejorando su inteligencia artificial con el objetivo de evitar que se empleen métodos que puedan comprometer la seguridad y la integridad de sus sistemas. Esta decisión subraya la importancia de mantener un enfoque proactivo en la protección de sus technologies avanzadas. Mientras tanto, OpenAI no solo se enfocará en el desarrollo de su IA, sino que también colaborará estrechamente con sus equipos internos de seguridad y protección para garantizar que se implementen medidas efectivas y robustas que salvaguarden sus plataformas.
L'entreprise a clairement indiqué qu'elle ne se concentrerait pas uniquement sur son propre environnement, mais qu'elle continuerait également à partager ses découvertes et ses avancées avec d'autres acteurs de l'industrie et de la communauté de la recherche. Cette approche collaborative vise à éviter que des situations similaires ne se reproduisent à l’avenir, en favorisant un écosystème plus sûr et plus fiable pour tous les utilisateurs des technologies d’intelligence artificielle.
Bien que cette initiative soit dirigée par OpenAI, il est crucial que les autres leaders du secteur disposant de leurs propres plateformes d’IA générative adoptent également des mesures de protection robustes pour prévenir les attaques susceptibles de compromettre leurs systèmes.
La prévention de ce type de menaces constitue un défi permanent et il est essentiel que toutes les entreprises impliquées dans le développement de l’intelligence artificielle mettent en œuvre des mesures de protection proactives.
Ces mesures ne devraient pas se concentrer uniquement sur la résolution des problèmes dès qu’ils surviennent, mais aussi sur leur anticipation pour éviter qu’ils ne surviennent. De cette manière, les entreprises pourront garantir une expérience sûre et fiable à tous leurs utilisateurs, renforçant ainsi la confiance dans les technologies d’intelligence artificielle et leur potentiel de transformation dans la société.