OpenAI 报告:中国和伊朗黑客利用 ChatGPT 进行恶意软件和网络钓鱼
中国和伊朗黑客使用 ChatGPT 和 LLM 工具开发恶意软件和网络钓鱼攻击:OpenAI 报告记录了 20 多个 ChatGPT 生成的网络攻击
如果有一个迹象表明人工智能带来的麻烦大于其价值,那就是 开放人工智能 确认已发生超过 20 起网络攻击,全部是通过 ChatGPT 创建的。该报告证实,生成式人工智能被用来进行网络钓鱼攻击、调试和开发恶意软件以及执行其他恶意活动。
该报告证实了两次使用 ChatGPT 生成人工智能的网络攻击。第一个是 Cisco Talos 于 2024 年 11 月报告的,它被中国威胁者用来针对亚洲政府。这次攻击使用了一种方法 网络钓鱼 一个名为“SweetSpecter”的恶意软件包含一个ZIP文件,其中包含一个恶意文件,如果下载并打开,就会在用户系统上创建感染链。OpenAI发现,SweetSpecter是使用多个账户创建的,这些账户使用ChatGPT开发脚本,并使用LLM工具发现漏洞。
第二次 AI 增强型网络攻击来自伊朗一个名为“CyberAv3ngers”的组织,该组织利用 ChatGPT 利用漏洞并窃取 PC 用户的密码,具体依据如下: macOS。第三次攻击由另一个名为 Storm-0817 的伊朗组织领导,使用 ChatGPT 开发恶意软件 安卓。该恶意软件窃取了联系人列表、提取了通话记录和电话历史记录。 浏览器,获取设备的精确位置并访问受感染设备上的文件。
所有这些攻击都是利用现有的方法来开发的 恶意软件 而且,根据该报告,没有迹象表明 ChatGPT 已经创建了实质上新的恶意软件。尽管如此,它还是表明了威胁行为者欺骗用户是多么容易。 服务 生成式人工智能来创建恶意攻击工具。这又引发了新的麻烦,证明任何拥有必要知识的人都可以更轻松地激活 ChatGPT 来做一些恶意的事情。虽然有研究人员 安全 发现此类潜在漏洞并进行报告和修补,这样的攻击将需要讨论生成式人工智能的实施限制。
从现在开始,OpenAI坚定致力于继续改进其 人工智能 目的是防止使用可能损害其系统安全性和完整性的方法。这一决定强调了保持积极主动的方法来保护您的重要性 技术 avanzadas. Mientras tanto, OpenAI no solo se enfocará en el desarrollo de su IA, sino que también colaborará estrechamente con sus equipos internos de 安全 y protección para garantizar que se implementen medidas efectivas y robustas que salvaguarden sus plataformas.
该公司已明确表示,不仅将关注自身环境,还将继续与行业和研究界的其他参与者分享其发现和进展。这种协作方法旨在防止未来发生类似情况,为所有技术用户培育一个更安全、更可靠的生态系统。 人工智能.
尽管该计划由 OpenAI 牵头,但拥有自己的生成式 AI 平台的其他行业领导者也必须采取强有力的保护措施来防止可能损害其系统的攻击,这一点至关重要。
预防这些类型的威胁是一项持续的挑战,所有参与开发的公司都必须 人工智能 落实主动保障措施。
这些措施不仅应着眼于问题发生后的解决,还应着眼于预防问题的发生。通过这种方式,公司将能够保证所有用户获得安全可靠的体验,增强对用户的信任 技术 人工智能及其对社会的变革潜力。



















