OpenAI 报告:中国和伊朗黑客利用 ChatGPT 进行恶意软件和网络钓鱼的网络攻击
中国和伊朗黑客使用 ChatGPT 和 LLM 工具开发恶意软件和网络钓鱼攻击:OpenAI 报告记录了 20 多个 ChatGPT 生成的网络攻击
如果有一个迹象表明人工智能带来的麻烦大于其价值,那就是 开放人工智能 确认已发生超过 20 起网络攻击,全部是通过 ChatGPT 创建的。该报告证实,生成式人工智能被用来进行网络钓鱼攻击、调试和开发恶意软件以及执行其他恶意活动。
该报告证实了两次使用 ChatGPT 生成人工智能的网络攻击。第一个是 Cisco Talos 于 2024 年 11 月报告的,它被中国威胁者用来针对亚洲政府。这次攻击使用了一种名为“SweetSpecter”的网络钓鱼方法,其中包含一个带有恶意文件的 ZIP 存档,如果下载并打开该文件,就会在用户系统上创建感染链。 OpenAI 发现 SweetSpecter 是使用多个帐户创建的,这些帐户使用 ChatGPT 来开发脚本并使用 LLM 工具发现漏洞。
第二起人工智能增强型网络攻击来自伊朗的一个名为“CyberAv3ngers”的组织,该组织利用 ChatGPT 来利用漏洞并窃取 macOS PC 用户的密码。第三次攻击由另一个名为 Storm-0817 的伊朗组织领导,使用 ChatGPT 开发 Android 恶意软件。该恶意软件窃取联系人列表、提取通话记录和浏览器历史记录、获取精确的设备位置并访问受感染设备上的文件。
所有这些攻击都使用现有方法来开发恶意软件,并且根据报告,没有迹象表明 ChatGPT 创建了实质上新的恶意软件。尽管如此,它还是表明了威胁行为者诱骗生成式人工智能服务创建恶意攻击工具是多么容易。它打开了一个新的蠕虫罐头,表明任何拥有必要知识的人都可以更容易地激活 ChatGPT 来进行恶意活动。尽管有些安全研究人员发现了此类潜在漏洞并进行了报告和修补,但像这样的攻击将需要讨论生成式人工智能的实施限制。
从现在开始,OpenAI 坚定地致力于继续改进其人工智能,以防止使用可能损害其系统安全性和完整性的方法。这一决定强调了保持积极主动的方法来保护先进技术的重要性。与此同时,OpenAI不仅将专注于人工智能的开发,还将与其内部安全团队密切合作,确保采取有效、稳健的措施来保护其平台。
该公司已明确表示,不仅将关注自身环境,还将继续与行业和研究界的其他参与者分享其发现和进展。这种协作方法旨在防止未来发生类似情况,为人工智能技术的所有用户培育一个更安全、更可靠的生态系统。
尽管该计划由 OpenAI 牵头,但拥有自己的生成式 AI 平台的其他行业领导者也必须采取强有力的保护措施来防止可能损害其系统的攻击,这一点至关重要。
预防此类威胁是一项持续的挑战,所有参与人工智能开发的公司都必须实施主动的防护措施。
这些措施不仅应着眼于问题发生后的解决,还应着眼于预防问题的发生。通过这种方式,公司将能够保证所有用户获得安全可靠的体验,增强对人工智能技术及其社会变革潜力的信任。