套壳中国大模型撑起500亿美元估值?扒一扒 Cursor 的“套壳”疑云

1、

本周末,有一条最热闹的 AI 新闻,震动了太平洋两岸,连马斯克都关注了。

昨天,AI 编程工具 Cursor 推出了“自己的”模型 Composer 2[1]。

上图是官网截图,现在点进去还写着“自有模型”。

自从2024年10月,Composer 1 发布以来,外界就一直怀疑,它是套壳的中国模型,因为行为很类似,但苦于找不到证据。

现在 Composer 2 来了,很多人就开始研究,它的背后到底是什么模型,真的是 Cursor 自家的吗?

Cursor 为了防止破解,做了很多限制,但是百密一疏。国外推友 @fynnso 发现[2],有一个地方在上一个版本是禁止的,但是这个版本却可以执行。

首先,你自己架设一台服务器,充当 AI 模型的调用接口,有没有模型无所谓,只要能收到客户端请求就行。

然后,你在本地的 Cursor 里面,设置使用的模型为 Composer 2,模型网址就是你刚架设的服务器。这样一来,Cursor 就会向你的服务器发出请求,从而可以看到它到底在请求什么模型。

真相就暴露了,它请求的模型 ID 居然是 kimi-k2p5-rl-0317-s515-fast(下图)。


2、

这位国外推友就把上面的截图,发布[3]到网上。这下炸锅了,明眼人都看出来,这是铁证,Composer 2 实际上是套壳的 Kimi K2.5

可笑的是,事情一爆发,Cursor 第一时间就把漏洞堵上,现在已经没法复现这个请求(下图)。

但是为时已晚,网上传遍了,就连马斯克也发推[4]:“它就是 Kimi K2.5”。

这下好了,变成了公开的秘密,再也无法掩盖了。


3、

大家的关注点,很快就转移到 Cursor 是否侵权。因为 Kimi K2.5 虽然是开源模型,但是采用的是修改的 MIT 许可证(下图)。

许可证这样说:你可以任意使用这个模型,唯一的条件是如果你的商业产品月活用户超过1亿,或者月收入超过2000万美元,你必须在用户界面的醒目位置披露,你使用了 Kimi K2.5

Cursor 最新披露的年化收入是20亿美元,相当于月收入1.67亿美元,显然满足上面的条件。但是,它隐藏了使用 K2.5 的事实。

就在大家认定 Cursor 侵权的时候,他们的一个负责人终于坐不住了,出来说话[5]了。

他承认确实使用 Kimi K2.5,但是没有侵权,他们的许可证来自合作伙伴 Fireworks AI。

稍后,Kimi 官方也发推[6]了。

Kimi 官方确认,Cursor 是从 Fireworks AI 得到了授权。后者是一家硅谷的华人 AI 公司,从事 AI 模型的微调和强化学习,它从 Kimi 得到授权对模型进行再训练,然后又转授权给了 Cursor。


4、

事情到这里就基本清楚了,Cursor 并没有违反 Kimi 的授权条款,因此不存在侵权。

既然如此,为什么它拼命掩盖这个事实,大大方方承认,提供 Kimi K2.5 的修改版模型,很难吗?

我猜测,原因跟 Cursor 不断膨胀的估值有关

彭博社本月报道,Cursor 正在进行下一轮融资,估值达到500亿美元。

大家知道吗,它以前的估值是多少?

2023年10月,Cursor 成立时的估值是5000万美元;2024年8月的 A 轮融资,估值上升到4亿美元;12月的 B 轮融资,估值快速上升到26美元;2025年11月的最新一轮融资,估值已经到了293亿美元。

可以看到,每过几个月,估值就会翻倍。这种火箭式的上升速度,需要有业绩支持。但它本身只是一个 VS Code 的修改版,使用的都是开源技术。

为了支撑越来越高的估值,它有动机把自己从 AI 工具,包装成具有模型研发能力的大模型公司

我认为,这才是它不愿意披露使用了 Kimi K2.5 的主要原因。


5、

纵观整个事件,Cursor 无疑是输家,Kimi 则是这次的赢家,免费得到一大波高价值的曝光。

Cursor 发布 Composer 2 时,披露了性能和成本比较。

Composer 2 的性能低于 GPT-5.4,但高于 Opus 4.6。

但是,它的生成速度比 GPT-5.4 和 Opus 4.6 都快,成本也是最低的。

既然 Composer 2 就是微调的 Kimi K2.5,那么直接使用 Kimi,也能得到同样的效果


6、

以前,国外总是有人指责,中国公司窃取外国技术。但是,这个事件证明了,中国公司也有技术输出。那些国外的明星公司,背地也在偷偷摸摸使用中国技术。

联想到上周,Kimi 的创始人杨植麟收到黄仁勋的邀请,在 Nvidia GTC 大会演讲[7],是唯一的中国大模型公司代表。

他在台上宣讲,Kimi 团队刚刚发表的论文《注意力残差》[8](Attention Residuals)。

这种新技术据说可以显著提升大模型的推理能力。

我的想法是,大家要对国产大模型有信心,日常工作完全可以放心使用。国产大模型与国外旗舰模型的差距,正在不断缩小,而且价格实惠。

据杨植麟说[9],下一个要发布的 K3 模型性能提升巨大,即便没有强10倍,也比 K2.5 强得多,我们可以期待一下。

(完)

References

[1] Composer 2: https://cursor.com/cn/docs/models/cursor-composer-2
[2] 发现: https://x.com/fynnso/status/2034710006546014363
[3] 发布: https://x.com/fynnso/status/2034706304875602030
[4] 发推: https://x.com/elonmusk/status/2034941631871455262
[5] 说话: https://x.com/leerob/status/2035050444347600936
[6] 发推: https://x.com/Kimi_Moonshot/status/2035074972943831491
[7] 演讲: https://www.51cto.com/article/838459.html
[8] 《注意力残差》: https://github.com/MoonshotAI/Attention-Residuals
[9] 据杨植麟说: https://www.51cto.com/article/835315.html

展开阅读全文

更新时间:2026-03-23

标签:科技   疑云   模型   美元   中国   国外   公司   融资   下图   技术   许可证   性能

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034844号

Top