我们构建的人工智能工具可以改善生活并帮助解决复杂的挑战,但我们知道恶意行为者有时会试图滥用我们的工具来伤害他人,包括促进网络行动。 在这些恶意行为者中,国家附属团体——可能拥有先进技术、大量财政资源和熟练人员——可能对数字生态系统和人类福祉构成独特的风险。
我们与 Microsoft Threat Intelligence 合作,阻止了五个试图利用 AI
服务支持恶意网络活动的国家附属行为者。
我们还概述了检测和干扰此类行为者的方法,以促进其活动的信息共享和透明度。
基于与 Microsoft 的合作和信息共享,我们阻止了五个与国家有关的恶意行为者:两个与中国有关的威胁行为者,称为 Charcoal Typhoon 和 Salmon Typhoon; 与伊朗有关联的威胁组织 Crimson Sandstorm; 朝鲜演员 Emerald Sleet; 还有俄罗斯演员森林暴雪。 已识别的与这些参与者相关的 OpenAI 帐户已被终止。
这些参与者通常寻求使用 OpenAI 服务来查询开源信息、翻译、查找编码错误以及运行基本编码任务。
具体来说:
有关威胁行为者的性质及其活动的更多技术细节可以在今天发布的Microsoft 博客文章 中找到 。
这些参与者的活动与我们之前与外部网络安全专家合作进行的红队评估
一致
,评估结果发现,GPT-4
只为恶意网络安全任务提供有限的增量功能,超出了公开可用的、非人工智能驱动的能力所能实现的能力工具
。
尽管我们当前的恶意网络安全任务模型的能力有限,但我们认为领先于重大且不断变化的威胁非常重要。 为了应对威胁,我们正在采取多管齐下的方法来打击恶意的国家附属行为者对我们平台的使用:
绝大多数人使用我们的系统来帮助改善他们的日常生活,从学生的虚拟导师到可以为视障人士转录世界的应用程序。
与许多其他生态系统的情况一样,有一些恶意行为者需要持续关注,以便其他人可以继续享受好处。
尽管我们努力最大程度地减少此类行为者的潜在滥用行为,但我们无法阻止每一个实例。
但通过不断创新、调查、协作和共享,我们使恶意行为者更难在整个数字生态系统中不被发现,并改善其他人的体验。