Anthropic发布Claude Opus 4.7:以“自审代码”与“安全分级”重塑AI开发范式
Anthropic于2026年4月17日发布Claude Opus 4.7,该模型在软件工程基准测试中显著超越前代,并具备更强的指令遵循与多模态视觉能力。其核心创新在于主动限制网络安全能力以测试新护栏,并推出Cyber Verification Program实现能力分级。同时,通过新增auto mode和/ultrareview功能,推动AI从单纯生成代码向自主审查与全流程协作演进。
事件概述
2026年4月17日,Anthropic正式发布Claude Opus 4.7。作为紧随Project Glasswing和Mythos Preview之后的产品,Opus 4.7被明确定位为“首款用于测试新网络安全护栏的公开模型”。官方在训练过程中实验性地削弱了其部分网络安全能力,旨在为未来更高阶模型(如Mythos)的广泛发布积累安全验证数据。
核心性能升级
Opus 4.7在多项基准测试中表现优于Opus 4.6,尤其在高级软件工程任务上提升显著:
- SWE-Bench Verified:得分87.6%(前代80.8%);
- SWE-Bench Pro:得分64.3%(前代53.4%);
- Terminal-Bench 2.0:得分69.4%(前代65.4%);
- Finance agent v11:得分64.4%(前代60.1%)。
关键改进点包括:
- 指令遵循更严格:模型倾向于按字面意思执行指令,减少了以往对模糊指令的自动补全或忽略,提升了严谨性但可能导致旧提示词失效。
- 多模态视觉增强:支持最高2576像素长边的图像输入(约3.75兆像素),专为Computer Use功能设计,使Agent能精准识别软件界面、终端输出及代码截图,而非仅进行简单的图像识别。
- 记忆能力进化:引入基于文件系统的记忆机制,能在长周期、多会话工作中保留项目约束、架构决策等关键信息,助力Agent从“临时工”向“稳定同事”转变。
- 安全性与对齐:在诚实度和抵抗恶意注入攻击方面有所提升,但在提供危害建议(如管制刀具制作)的能力上受到更强限制。官方评估结论为“基本对齐且值得信赖,但行为尚不完全理想”。
定价策略与成本逻辑
Opus 4.7名义价格与Opus 4.6保持一致(输入$5/百万token,输出$25/百万token)。然而,由于新的tokenizer效率变化及强思考模式下的额外推理消耗,实际token使用量可能增加至原来的1.0至1.35倍。Anthropic引入了x-high effort和task budgets机制,标志着计费逻辑从单纯的“单次调用长度”转向为“任务过程付费”,即用户需为模型的试错、验证及多轮推理过程买单。
安全分级与工具革新
为应对模型能力过剩带来的潜在风险,Anthropic同步推出了两项关键举措:
1. Cyber Verification Program(网络安全验证计划)
- 能力分级:普通用户获得经过安全护栏限制的Opus版本;仅经认证的安全专家可申请解锁更宽的网络安全用途权限。
- 动态拦截:模型会自动检测并阻止高风险或禁止的网络安全请求,Anthropic将利用真实部署数据优化未来的安全机制。
2. Claude Code 功能更新
- Auto Mode(自动模式):解决Agent自主性与风险控制之间的矛盾。根据操作风险级别,系统可自动执行低风险任务、提示用户确认或要求明确授权,无需每一步都打断用户。
- /ultrareview(超审查模式):新增专门的代码审查会话,读取变更并指出Bug与设计问题。这标志着AI编程进入第二阶段——AI不仅能生成代码,还能自我审查,形成“生成+审查”的双闭环工作流。
行业启示
Opus 4.7的发布策略反映了AI竞争逻辑的转变:当模型能力达到临界点后,“克制”本身成为差异化优势。Anthropic选择先发布“阉割版”模型以测试安全边界,而非一味追求最强参数。这种在能力、安全与成本之间寻求平衡的思路,以及推动AI参与代码审查全流程的尝试,预示着企业级应用将更看重“可靠性”而非单纯的“速度”或“便宜”。
