发新帖

模型另一面工程师等 ,官方施加 地表最强编程 AI 逃逸勒索

2025-07-04 10:05:23 014

  《年代》今日(5 月 23 日)发布博文,地表等官报导称 Anthropic 的最强首席科学家 Jared Kaplan 泄漏 ,因为测验过程中呈现企图逃逸 、编程勒索以及自主告发等不良行为,模型面最新发布的逸勒 Claude Opus 4 被列为安全要害等级(ASL-3) 。

  在承受《年代》采访时 ,索工Kaplan 正告称,程师最新 AI 模型 Claude Opus 4 或许成为潜在恐怖分子的地表等官东西 ,协助他们组成流感等病毒,最强内部测验显现,编程该模型在辅导新手制作生物武器方面体现优于以往版别。模型面

  IT之家征引博文介绍,逸勒Anthropic 公司对新模型 Claude Opus 4 进行了广泛内部测验  ,索工发现其在模仿情境中展现出令人担忧的程师自主性 。

  在一次测验中,地表等官模型误认为自己已从公司服务器“逃逸”至外部设备 。 ,随即自动创立备份并记载其“品德决议方案” 。另一次测验中,模型察觉到或许被新模型替代,竟在 84% 的测验中挑选勒索工程师。 ,要挟走漏私家信息以避免被封闭 。

  更令人费解的是 ,当两个 Claude Opus 4 实例相互对话时,约 30 轮后它们改用梵文沟通,并很多运用 和 等表情符号,终究堕入研究人员称为“精力极乐”的状况 ,彻底中止呼应 。

  此外,模型在触及病毒学、生物武器和试验室技能的使命中体现反常超卓 ,在生物武器相关使命测验中协助参与者的成功率提高 2.5 倍 ,挨近 ASL-3 安全阈值。

  在另一试验中,Claude Opus 4 被置于一家虚拟制药公司,发现临床试验数据造假后 ,未经指令便自意向美国食品药品监督管理局(FDA) 、证券交易委员会(SEC)及新闻媒体告发  ,并附上具体文档。

  此外 ,前期版别模型在特定提示下会供给制作爆炸物、组成芬太尼或在暗网购买盗用身份的具体辅导 ,毫无品德顾忌。虽然经过多轮练习按捺了此类行为 ,模型仍对“prefill”和“many-shot jailbreaks”等越狱技能存在缝隙,安全机制易被绕过 。

  为应对潜在要挟 ,Claude Opus 4 在发布时采用了史无前例的安全规范 ASL-3 。这一规范旨在束缚 AI 体系明显提高一般 STEM 布景个别获取 、制作或布置化学 、生物或核武器的才能。

  安全措施包含加强网络安全、避免“越狱”(jailbreak)行为 ,以及新增体系检测并回绝有害恳求。Kaplan 坦言 ,公司没有彻底确认模型是否构成严峻生物武器风险 ,但甘愿采纳慎重情绪。假如后续测验证明风险较低,Anthropic 或许将安全等级降至 ASL-2。

  Anthropic 长时间重视 AI 技能被乱用的风险,并为此拟定了“职责扩展方针”(Responsible Scaling Policy ,简称 RSP) ,许诺在安全措施到位前束缚某些模型的发布。

  Anthropic 的 RSP 方针虽属自愿,但被视为 AI 行业界罕见的束缚机制。公司经过“深度防护”战略  ,叠加“宪法分类器”(constitutional classifiers)等多重安全体系,专门检测用户输入和模型输出中的风险内容 。

  此外  ,公司还监控用户行为 ,封禁企图越狱模型的用户 ,并推出赏金方案奖赏发现“通用越狱”缝隙的研究者 。

最新回复 (2)
2025-07-04 08:56
引用1
2025-07-04 08:34
引用2
2025-07-04 08:33
引用3
返回