
出品|虎嗅科技组
作者|赵致格
头图|视觉中国
一直以来,Anthropic在行业内被公认为最注重伦理和AI安全的公司之一。其CEO达里奥·阿莫迪多次强调,该公司推迟了Claude的发布是因为对安全性的重视,最终导致ChatGPT抢占了市场先机。
然而,在2月25日,Anthropic发表声明表示将调整之前的安全承诺。在竞争日益激烈和政府监管不到位的情况下,它决定不再严格遵守《负责任扩展政策》(Responsible Scaling Policy, RSP)。
从2023年起,Anthropic实施了《负责任规模化政策》,其中最关键的一点是:当模型迭代速度超过其安全保障能力时,在无法证明风险缓解措施有效的前提下,暂停规模扩张或推迟新模型的发布。这一政策被视为是对AI行业“追求速度至上”风气的一种挑战,并成为了该公司在AI安全领域中的核心原则。
新版《负责任扩展政策》中,Anthropic不再承诺单方面停止开发有潜在风险的模型,而是在特定条件下才会延迟高能力模型的发展或发行。考虑到缺乏明确定义的“领先地位”,这项新规定实际上放宽了原有的限制措施。
尽管如此,新版政策仍包含了一些安全相关的条款:该公司承诺在AI安全性问题上保持透明度,并额外披露其自身模型的安全测试结果;同时保证在安全方面的投入要达到或超过竞争对手的标准。
政策还提出Anthropic将定期发布“前沿安全路线图”,列出未来计划实现的安全措施目标,以及每3到6个月发布一次“风险报告”。公司表示这些文档将详细说明模型的能力、潜在威胁及现有的风险管理策略,并评估整体的风险水平。
为什么Anthropic选择在此时调整其安全政策?首席科学家贾里德·卡普兰在接受《时代》杂志独家采访时说:“我们认为,在当前AI迅猛发展的背景下,如果其他竞争对手都在全速前进,仅靠我们单方面做出承诺是不合理的。”
卡普兰进一步指出,这并不意味着公司将放弃对速度的追求,而是出于对“政治和科学现实”的务实考虑。
一直以来,Anthropic不仅发布了多项自律条款,还在推动美国各级政府就模型透明度及AI安全框架立法方面发挥了重要作用。在《负责任扩展政策》发布之后,有十几个州陆续出台了不同程度的相关立法,其中加利福尼亚州和科罗拉多州的规定最为全面且严格。
然而,特朗普政府的立场显然与Anthropic相左,对AI发展采取了宽松的态度,并试图废除各州已经出台的相关监管措施。这使得该公司所期待的联邦立法几乎无法实现。
于是,Anthropic在其官方网站上评论说:“政策环境现在更加注重AI的竞争性和经济增长,而以安全为重点的讨论在联邦层面尚未取得实际进展。”
对于Anthropic长期以来对AI安全的态度,有人将其视为一种理想主义的价值观追求;也有人认为达里奥·阿莫迪推动立法是试图通过政治手段影响商业竞争。严格的监管可能会增加小企业和开源项目的进入门槛,从而为像Anthropic这样已经建立了成熟安全保障体系的大企业带来竞争优势。
无论之前是否有此意图,在特朗普政府否决了这一路径之后,Anthropic不得不直接面对与竞争对手争夺AI主导权的激烈斗争。
十几天前,Anthropic刚刚完成了迄今为止最大规模的一次融资活动,金额高达300亿美元。此次由GIC和Coatue领投,并得到了微软、英伟达、亚马逊及谷歌等多家公司的支持。这轮投资使Anthropic的估值从2022年9月的1830亿美元飙升至3800亿美元。
高额的市值也带来了巨大的盈利压力,Anthropic定下了到2026年的营收目标为180亿美元,相比2025年的47亿增长了近四倍;而2027年更计划达到550亿美元的收入水平。
Anthropic的主要收入来源是为企业提供各类API服务。达里奥·阿莫迪之前透露,大约80%的营收来自企业客户,其中相当一部分来自于其广受欢迎的AI编程工具Claude Code。然而,Anthropic最大的竞争对手也在该领域迅速发展,并推出了一系列新的AI编程工具和模型版本。
在两大巨头的竞争愈发激烈的背景下,取消“安全护栏”可能是Anthropic为在大模型能力上全面冲刺所做的第一步举措。
