Rapport OpenAI : Les cyberattaques menées par des pirates informatiques chinois et iraniens utilisent ChatGPT pour les logiciels malveillants et le phishing.
Les pirates chinois et iraniens utilisent les outils ChatGPT et LLM pour développer des logiciels malveillants et des attaques de phishing : un rapport d'OpenAI documente plus de 20 cyberattaques générées par ChatGPT.
S’il y a un signe que l’IA pose plus de problèmes qu’elle n’en vaut la peine, c’est bien OpenAI confirme que plus d'une vingtaine de cyberattaques ont eu lieu, toutes créées via ChatGPT. Le rapport confirme que l’IA générative a été utilisée pour mener des attaques de phishing, déboguer et développer des logiciels malveillants, ainsi que pour mener d’autres activités malveillantes.
Le rapport confirme deux cyberattaques utilisant l'IA générative ChatGPT. Le premier a été signalé par Cisco Talos en novembre 2024, et a été utilisé par des acteurs menaçants chinois ciblant les gouvernements asiatiques. Cette attaque a utilisé une méthode de phishing appelé « SweetSpecter », qui comprend une archive ZIP contenant un fichier malveillant qui, s'il était téléchargé et ouvert, créerait une chaîne d'infection sur le système de l'utilisateur. OpenAI a découvert que SweetSpecter avait été créé à l'aide de plusieurs comptes utilisant ChatGPT pour développer des scripts et découvrir des vulnérabilités à l'aide d'un outil LLM.
La deuxième cyberattaque améliorée par l'IA est venue d'un groupe basé en Iran appelé « CyberAv3ngers » qui a utilisé ChatGPT pour exploiter les vulnérabilités et voler les mots de passe des utilisateurs de PC en fonction de macOS. La troisième attaque, menée par un autre groupe basé en Iran appelé Storm-0817, a utilisé ChatGPT pour développer des logiciels malveillants. Androïde. Le malware a volé les listes de contacts, extrait les journaux d’appels et l’historique du téléphone. navigateur, a obtenu l'emplacement précis de l'appareil et a accédé aux fichiers sur les appareils infectés.
Toutes ces attaques ont utilisé des méthodes existantes pour développer malware et, selon le rapport, rien n’indique que ChatGPT ait créé de nouveaux logiciels malveillants. Cela montre néanmoins à quel point il est facile pour les auteurs de menaces de tromper les utilisateurs. services IA générative pour créer des outils d'attaque malveillants. Cela ouvre une nouvelle boîte de Pandore, prouvant qu'il est plus facile pour quiconque disposant des connaissances nécessaires pour activer ChatGPT de faire quelque chose avec une intention malveillante. Bien qu'il existe des chercheurs de sécurité en découvrant de telles vulnérabilités potentielles pour les signaler et les corriger, des attaques comme celle-ci créeraient le besoin de discuter des limites de mise en œuvre de l'IA générative.
Désormais, OpenAI s'engage fermement à continuer d'améliorer son intelligence artificielle dans le but d’empêcher l’utilisation de méthodes susceptibles de compromettre la sécurité et l’intégrité de leurs systèmes. Cette décision souligne l'importance de maintenir une approche proactive dans la protection de votre technologies avancé. Entre-temps, OpenAI ne se concentrera pas seulement sur le développement de son IA, mais collaborera également en étroite collaboration avec ses équipes internes de sécurité et de sûreté pour garantir que des mesures efficaces et robustes sont mises en œuvre pour protéger ses plateformes.
L'entreprise a clairement indiqué qu'elle ne se concentrerait pas uniquement sur son propre environnement, mais qu'elle continuerait également à partager ses découvertes et ses avancées avec d'autres acteurs de l'industrie et de la communauté de la recherche. Cette approche collaborative vise à éviter que des situations similaires ne se reproduisent à l'avenir, en favorisant un écosystème plus sûr et plus fiable pour tous les utilisateurs de technologies technologiques. intelligence artificielle.
Bien que cette initiative soit dirigée par OpenAI, il est crucial que les autres leaders du secteur disposant de leurs propres plateformes d’IA générative adoptent également des mesures de protection robustes pour prévenir les attaques susceptibles de compromettre leurs systèmes.
Prévenir ce type de menaces est un défi constant et il est essentiel que toutes les entreprises impliquées dans le développement de intelligence artificielle mettre en œuvre des mesures de protection proactives.
Ces mesures ne devraient pas se concentrer uniquement sur la résolution des problèmes dès qu’ils surviennent, mais aussi sur leur anticipation afin d’éviter qu’ils ne surviennent. De cette manière, les entreprises pourront garantir une expérience sûre et fiable à tous leurs utilisateurs, renforçant ainsi la confiance dans le technologies de l’intelligence artificielle et de son potentiel de transformation dans la société.