文 | 金锐点
编辑 | 金锐点
最近AI圈炸了,美国两家公司刚吹的“自研”AI编程模型,全露馅了。
一个思考时飙中文,一个被“问住”就认“我是中国智谱的GLM模型”,说好的“自主研发”,难道真是套壳中国的?

要说最近美国AI圈的“迷惑行为”,首推Cursor和Cognition这两家公司。先看Cursor,本周刚发布2.0版本,特意强调“终于用上自家开发的模型Composer”,还说这是用强化学习训出来的大型MoE模型,能让写代码的体验“从头到尾丝滑”。
不少程序员赶紧下载试用,结果发现个怪事,这模型处理复杂代码时,后台会蹦出一串中文注释,比如“这里要兼容多语言编码,优先适配中文路径”“调用函数得参考国产模型的参数规范”。
更邪门的是,有开发者做了对比测试,Composer处理中文技术文档的速度,比处理英文文档快20%,连报错提示都带着中式表达,跟国内阿里的QwenCode模型像一个模子刻出来的。

要知道,QwenCode本就是专门针对中文场景优化的开源模型,可Cursor从来没提过跟阿里有合作,这种撞脸,说巧合真没人信。
再看Cognition的SWE-1.5,刚发布时风头更盛,号称“独立突破的千亿级智能体模型”,速度比Haiku4.5快6倍、比Sonnet4.5快13倍,不少开发者都等着尝鲜。
结果没过几天,有技术博主搞了次“模型越狱”,用特殊指令绕过安全限制,逼它说“实话”,这下可好,SWE-1.5直接输出“我的基础模型来自中国智谱AI的GLM系列,现在这个版本是在GLM4.6基础上优化的”。

智谱AI的官方很快就转发了Cognition的发布推文,还配文“期待更多基于GLM生态的创新”。
这波“官方认亲”下来,Cognition的“自研”说辞彻底站不住脚,有程序员开玩笑说,“现在美国AI不光得学中文,还得先认个中国‘技术爸妈’,不然连速度都提不上来。”
为啥美国公司非要“套壳”中国模型,核心就是贵,系统架构师DanielJeffries在社交平台算过笔账,从头训一个千亿参数的AI编程模型,光算力成本就得25亿美元,还得组至少200人的算法团队,花18个月收集标注数据。

可Cursor和Cognition都是聚焦工具开发的公司,前者一年营收还不到1亿美元,后者刚完成B轮融资,哪扛得住这种“烧钱游戏”?
反观中国的开源模型,不仅能免费拿到基础权重,还附赠完整的调试工具包,比如智谱的GLM4.6,开发者只要投几百万美元做强化学习微调,就能让模型适配自己的场景。

阿里的QwenCode更贴心,连行业专属的数据集都打包好了,Cursor要做的,其实就是把模型嵌到自己的工具界面里,这种“拿来就能用”的便利,对缺钱缺资源的美国初创公司来说,几乎是唯一的选择。
而最近Cerebras的一封官宣邮件,直接把“套壳”这事锤得死死的,这家美国硬件公司在邮件里明明白白写着,“11月5日会推出新的编码模型zai-glm-4.6,这个模型是基于中国智谱AI的GLM4.6定制的,专门针对高性能编程场景设计”。

要知道,Cerebras之前一直给Cognition提供硬件支持,这封邮件一出来,等于把窗户纸捅破了,Cognition的SWE-1.5,其实就是跑在Cerebras硬件上的“定制版GLM4.6”。
连AI领域的权威人物LeCun都忍不住转发Jeffries的分析,还配文“开源让创新更平等”,这话听着中立,其实点破了美国公司的处境,不是不想自研,是真没那能力,不是不想要“自主”,是中国开源模型太香。
毕竟,花几百万就能拿到比自研更好的技术,换谁都不会跟钱和效率过不去。

中国开源模型的实力,早就不是“碰巧领先”,而是实实在在统治了全球市场,10月29日,英伟达CEO黄仁勋在华盛顿GTC大会上,当着全球科技大佬的面坦言,“现在做AI应用,绕不开开源模型,而做开源模型,绕不开中国的技术。”
他现场展示的图表更扎眼,2025年以来,阿里通义千问(Qwen)的全球下载量占比超过65%,衍生模型数量突破5200个,是排名第二的西方模型的3倍还多,成了全球开发者最依赖的“基础工具”。
在AI开发者最常用的社区HuggingFace上,实时趋势榜前10名里,有7个是中国模型:MiniMax的代码模型排第一,DeepSeek的多模态模型排第三,百度混元、美团LongCat、Kimi这些国产模型也都挤在前头。

而且这些模型不光下载量高,用户评分更是甩西方竞品一大截,就说代码生成能力,国产模型的“一次通过率”平均能到82%,而西方同类模型最多也就68%。
差距主要在多语言场景适配和复杂逻辑处理上,毕竟中文场景的优化,中国模型本来就更擅长。
第三方测评平台ArtificialAnalysis的报告更详细,他们对比了全球23款主流AI编程模型,发现国产模型在三个关键指标上都领先,推理速度平均比西方模型快30%,上下文窗口能处理的代码长度是西方模型的1.5倍。

在专业领域也适配,在芯片设计、工业软件这些硬核领域,国产模型的错误率比西方模型低45%。报告里还提了个细节,不少西方科技公司在测评时,会特意标注“基于中国开源模型优化”,生怕用户误以为是“纯自研”,反而质疑性能。
这些数据背后,其实是中国开源模型从“跟跑”到“领跑”的转变,以前,咱们得盯着西方模型的更新日志抄作业,现在西方公司得拿着中国模型的参数手册做优化,这种角色互换,比任何宣传都更能证明中国AI的技术实力。

当中国开源模型成了美国公司的“技术靠山”,全球AI的玩法也不一样了,过去十年,西方巨头靠着先发优势,把基础模型当成“技术核武器”,要么高价授权,要么彻底封闭,想用上好模型,就得看他们的脸色。
而中国选择走开源路线,把Qwen、GLM这些核心模型免费开放,让全球开发者都能共享技术成果。
这种开放策略,不光打破了西方的技术垄断,还催出了全新的AI生态。比如Cursor,靠微调QwenCode,3个月就推出了Composer,省了至少2年的研发时间。
Cognition借GLM4.6的基础,快速实现了13倍的速度提升,一下子成了AI编程领域的独角兽,这些案例都说明中国开源模型已经不是“边缘玩家”,而是能决定行业节奏的“核心引擎”。

现在连学中文,都成了全球AI开发者的刚需,以前编程圈是英文的天下,中文技术文档少得可怜,想查点资料都得靠翻译软件。可现在不一样了,国产开源模型的核心参数说明、调试指南、社区讨论,大多是中文的。
从美国吹“自研”到露馅“套壳”,从编程圈全是英文到现在得学中文,这些变化说白了,就是中国AI技术硬气了。
咱不用靠卡别人脖子证明自己,而是用开源把技术分享出去,让全球都离不开,以后国产模型的影响力只会更大,毕竟真本事,从来不是靠贴标签,是靠实实在在的实力。
更新时间:2025-11-07
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号