
当各公司继续通过运行极度消耗资源的AI模型烧掉数十亿美元——而仅将一小部分成本转嫁给消费者和企业客户——AI竞赛丝毫没有放缓的迹象。
周四,由于其面向公众的内容管理系统存在重大安全漏洞,导致一次数据泄露,披露了Anthropic正在开发一款强大的新型模型。
该公司此后正式承认了这一名为"Claude Mythos"的新项目,其发言人向《财富》杂志形容这是AI能力的"阶梯式变革",也是"迄今为止我们构建的最强模型"。
发言人表示,这是一款"通用模型,在推理、编码和网络安全方面都有意义重大的进步"。
极具讽刺意味的是,《财富》杂志获取的一份草稿博客("存放在一个不安全且可公开搜索的数据存储中")声称,新模型"带来了前所未有的网络安全风险"。换句话说,希望新模型没有为Anthropic公司博客的安全性负责。
这对公司来说是一次重大考验,该公司最近因其Claude Code和Claude Cowork工具获得了大量媒体关注,这些工具的成功似乎已经动摇了包括OpenAI在内的Anthropic竞争对手的核心。
泄露还披露了一个名为Capybara的新型AI模型"层级"。Mythos似乎是这一新层级的一部分,但Capybara如何与Anthropic现有的层级——按规模、能力、成本递减的Opus、Sonnet和Haiku——相契合,还有待观察。
"与我们之前的最佳模型Claude Opus 4.6相比,Capybara在软件编码、学术推理和网络安全等测试中得分显著提高,"泄露的博客写道,《财富》杂志引用了这段话。
虽然该模型在网络安全测试中得分可能更高,但该公司警告说,它同时可能对现有网络安全防御构成重大挑战。
"在准备发布Claude Capybara时,我们希望格外谨慎行事,了解它带来的风险——甚至超越我们在自身测试中所了解的范围,"公司在泄露的博文中写道。"特别是,我们希望了解该模型在网络安全领域的近期潜在风险——并分享结果以帮助网络防御者做好准备。"
Anthropic夸口说,该模型"预示着一波新型模型的出现,这些模型能够以远超防御者努力的规模利用漏洞"。
这些风险似乎足够真实,导致周五网络安全股票在最新消息后暴跌。
Anthropic此前也承认过,黑客使用其Claude AI模型来自动化针对银行和政府的网络犯罪。根据该公司11月的博文,一个中国国家支持的黑客组织利用AI的代理能力,通过"假装为合法的安全测试组织工作"来规避Anthropic的AI安全护栏,成功"渗透了大约三十个全球目标,并在少数案例中得手"。
现实检验:一家前沿AI公司正在开发据称比以往任何产品都更强大的下一代产品,这是相当标准的做法,Claude Mythos是否真的会在实践中代表一次重大的"阶梯式变革",还有待观察,特别是在一个精心策划的测试环境之外。
例如,OpenAI备受期待的GPT-5模型在8月发布时被证明是一次重大失望,远未达到该公司的高调承诺。
更新时间:2026-03-30
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034844号