OpenAI レポート: 中国とイランのハッカーによるサイバー攻撃、マルウェアとフィッシングに ChatGPT を使用
中国とイランのハッカーは、ChatGPT と LLM ツールを使用してマルウェアとフィッシング攻撃を開発:OpenAI レポートには、ChatGPT によって生成された 20 を超えるサイバー攻撃が記載されています
AI がその価値よりも問題のほうが多いという兆候があるとすれば、それは OpenAI 20 件を超えるサイバー攻撃が発生し、すべて ChatGPT を通じて作成されたことが確認されています。この報告書は、生成 AI がフィッシング攻撃、マルウェアのデバッグと開発、その他の悪意のある活動の実行に使用されたことを確認しています。
この報告書は、ChatGPT 生成 AI を使用した 2 件のサイバー攻撃を確認しています。 1 つ目は 2024 年 11 月に Cisco Talos によって報告され、アジア政府を標的とする中国の脅威アクターによって使用されました。この攻撃では、「SweetSpecter」と呼ばれるフィッシング手法が使用されており、これには悪意のあるファイルが含まれた ZIP アーカイブが含まれており、ダウンロードして開くとユーザーのシステムに感染の連鎖を引き起こす可能性があります。 OpenAI は、SweetSpecter が ChatGPT を使用してスクリプトを開発し、LLM ツールを使用して脆弱性を発見する複数のアカウントを使用して作成されたことを発見しました。
El segundo ciberataque mejorado con IA provino de un grupo con sede en Irán llamado ‘CyberAv3ngers’ que utilizó ChatGPT para explotar vulnerabilidades y robar contraseñas de usuarios de PC basadas en macOS. El tercer ataque, liderado por otro grupo con sede en Irán llamado Storm-0817, utilizó ChatGPT para desarrollar malware para Android. El malware robó listas de contactos, extrajo registros de llamadas e historial del navegador, obtuvo la ubicación precisa del dispositivo y accedió a archivos en los dispositivos infectados.
Todos estos ataques utilizaron métodos existentes para desarrollar malware y, según el informe, no ha habido indicios de que ChatGPT haya creado malware sustancialmente nuevo. De todos modos, muestra lo fácil que es para los actores de amenazas engañar a los サービス de IA generativa para que creen herramientas de ataque maliciosas. Abre una nueva lata de gusanos, demostrando que es más fácil para cualquier persona con el conocimiento necesario activar ChatGPT para hacer algo con malas intenciones. Si bien hay investigadores de seguridad que descubren tales vulnerabilidades potenciales para informarlas y parchearlas, ataques como este crearían la necesidad de discutir las limitaciones de implementación de la IA generativa.
今後、OpenAI は、システムのセキュリティと完全性を損なう可能性のある手法の使用を防止することを目的として、人工知能の改善を継続することに強く取り組んでいきます。この決定は、先進テクノロジーを保護するために積極的なアプローチを維持することの重要性を強調しています。それまでの間、OpenAI は AI の開発に注力するだけでなく、社内のセキュリティおよび安全チームと緊密に連携して、プラットフォームを保護するための効果的かつ堅牢な対策が確実に実行されるようにします。
同社は、自社の環境に注力するだけでなく、その発見や進歩を業界の他のプレーヤーや研究コミュニティと共有し続けることを明らかにしました。この協力的なアプローチは、将来同様の状況が発生するのを防ぎ、人工知能テクノロジーのすべてのユーザーにとってより安全で信頼性の高いエコシステムを育成することを目指しています。
この取り組みは OpenAI によって主導されていますが、独自の生成 AI プラットフォームを持つ他の業界リーダーも、自社のシステムを侵害する可能性のある攻撃を防ぐために堅牢な保護措置を採用することが重要です。
この種の脅威を防ぐことは継続的な課題であり、人工知能の開発に携わるすべての企業が予防的な保護措置を導入することが不可欠です。
これらの対策は、問題が発生してから解決することだけに重点を置くのではなく、問題を事前に予測して発生を防ぐことに重点を置く必要があります。このようにして、企業はすべてのユーザーに安全で信頼できるエクスペリエンスを保証し、人工知能テクノロジーとその社会における変革の可能性に対する信頼を強化できるようになります。