今天这事儿,你要是只当普通科技新闻看,那可就亏大了。7月25号晚上,上海,2025世界人工智能大会前夜,一个叫“阶跃星辰”的公司开发布会,说要发新一代大模型Step 3。这发布会本身不算啥新鲜事——这年头,不说自己搞大模型,都不好意思在AI圈混。但重点来了:台下坐着的记者们突然发现,台上圆桌论坛的嘉宾席,坐了四个“活化石”级别的人物。
沐曦股份的陈维良、天数智芯的盖鲁江、燧原科技的赵立东、壁仞科技的张文。这四位,你要是混芯片圈,耳朵里绝对灌满了他们的名字。简单说,中国能拿得出手的AI芯片公司,他们四个至少占了半壁江山。以前啥时候见过这四位凑一块儿?答案是:几乎没有。平时要么是各自发新品时“王婆卖瓜”,要么是行业峰会远远点头打招呼,最多在微信群里互相点个赞。今天倒好,不仅坐一排,还对着话筒开唠,主题就俩字:协同。
这事儿往小了说,是四个公司老板凑桌喝茶;往大了说,可能是中国AI算力从“看人脸色”到“自己说了算”的转折点。为啥这么说?别急,咱们掰开揉碎了聊——从这四位大佬为啥“破天荒”同框,到国产芯片到底到了哪一步,再到咱们普通人啥时候能用上“中国芯”的便宜算力,今天一次性说透。
先给不了解情况的朋友补个课:这四位大佬的公司,可不是啥“小作坊”。沐曦股份,陈维良带着团队从AMD、英伟达挖来的核心骨干,搞的是“通用计算芯片”,简单说就是AI能用来算账、画图、跑模型的“万能锅”;天数智芯,盖鲁江是中科院背景,他们家芯片专干“AI训练”的重活,就像给大模型“喂饭”的“超大号饭碗”;燧原科技,赵立东以前在华为干过,他们的芯片更擅长“推理”,就是AI学会了之后“干活”用的,比如你手机里的语音助手、自动驾驶的识别系统,都靠这个;壁仞科技,张文是前英伟达高管,他们家芯片主打“高性能”,追求算力极限,跟英伟达的A100、H100正面刚的那种。
你看,四家公司,各有各的“独门武功”,按理说应该是“同行是冤家”。前几年芯片圈啥风气?融资的时候比谁融得多,发新品的时候比谁算力高,甚至挖人的时候都要互相“使绊子”——毕竟高端芯片人才就那么多,你多一个我就少一个。那时候行业里流传个笑话:国产芯片公司开会,台上嘉宾互相夸“友商很优秀”,台下助理赶紧给老板发微信:“刚打听到,他们下一代芯片参数比我们高10%!”
那为啥现在突然“握手言和”?答案就俩字:被逼的。
这几年AI大模型跟坐了火箭似的往前冲,从GPT-3到现在的Step 3,模型参数从千亿到万亿,算力需求翻着跟头涨。但算力这东西,以前咱们得看别人脸色。全球80%的AI芯片市场被英伟达垄断,人家的A100、H100芯片,不仅卖得贵(一块芯片几十万),还动不动搞“出口管制”——你想买?先申请许可证,批不批看心情。去年就有国内大模型公司吐槽:“为了抢一批H100,老板带着团队在英伟达门口蹲了三天,跟求爷爷告奶奶似的。”
更憋屈的是啥?就算买到了芯片,也未必好用。英伟达的芯片是为自己的软件生态设计的,咱们的大模型想跑在上面,就得按人家的规则来,改代码、调参数,费时费力。打个比方:你买了个进口高压锅,结果发现它的接口跟你家灶台不匹配,你要么换灶台(改大模型),要么买个转接头(适配软件),总之就是“用着不顺手”。
这时候,国产芯片的机会来了——咱们自己的芯片,能不能跟自己的大模型“无缝衔接”?就像自家的锅配自家的灶,火候大小、时间长短,自己说了算。但问题是,单靠一家芯片公司行不行?
不行。因为大模型的需求太复杂了:训练的时候需要超大算力,推理的时候需要低功耗,手机、汽车、服务器里的AI场景又不一样。一家芯片公司再强,也不可能“包打天下”。而大模型厂商呢?阶跃星辰这种公司,开发Step 3这种大模型,既需要训练芯片,也需要推理芯片,还得考虑成本——总不能买一堆不同的芯片,搭个“杂牌军”吧?
所以你看,芯片公司需要大模型厂商告诉他们“我们要什么样的算力”,大模型厂商需要芯片公司提供“合身”的芯片,这俩就得绑在一起干。以前是“芯片公司造芯片,大模型公司买芯片”,现在得是“一起设计芯片,一起优化模型”,这就是“协同创新”。
而四位大佬同台,本质上就是给这个“协同”按下了“启动键”——以前是“各扫门前雪”,现在是“抱团取暖”。用陈维良在论坛上说的一句话:“以前咱们是‘茶壶煮饺子——肚里有货倒不出’,现在得‘打开天窗说亮话’,谁有啥本事、谁缺啥资源,摆到台面上聊,一起把蛋糕做大,总比现在这样‘小打小闹’强。”
这次圆桌论坛有个有意思的细节:四位大佬没带发言稿,主持人抛完问题,直接开唠,跟平时咱们小区大爷下棋时“唠嗑”似的,句句实在。台下记者本来准备了一堆“官方问题”,结果发现大佬们自己就把“痛点”全抖出来了。
第一个痛点:“谁当老大?”
芯片公司和大模型公司协同,技术标准谁说了算?比如芯片的接口设计,是按大模型的算法来,还是按芯片的硬件来?这里面就有利益博弈。大模型公司说:“我的模型需要更快的存储速度,你芯片得改接口。”芯片公司心里犯嘀咕:“改接口要加成本,你能保证买多少?万一你模型改了,我这芯片不就白改了?”
赵立东直接拿自己举例:“去年我们跟一家大模型公司合作,他们说要‘定制化推理芯片’,我们投入了200多人搞了半年,结果芯片快流片了,他们模型架构改了,之前的设计全白费。你说这账怎么算?”
盖鲁江接话:“所以得提前‘锁死需求’。就像盖房子,先跟住户把户型、面积、朝向定死,再开工。芯片和大模型也一样,需求没定死就动手,就是‘盲人摸象’。”
第二个痛点:“钱谁出?”
协同创新不是嘴上说说,得真金白银砸进去。设计一款高端AI芯片,从流片到测试,少说几十亿。大模型训练一次,电费、人力成本也是天文数字。如果芯片公司和大模型公司各出一半钱,万一失败了,损失怎么分?
张文说了句大实话:“以前我们也想跟大模型公司‘风险共担’,但人家一听‘共担’,扭头就走——‘我凭啥拿我的钱给你试错?英伟达芯片虽然贵,但至少能用。’所以现在得找到‘利益共同点’:比如芯片公司承诺‘达不到算力指标不要钱’,大模型公司承诺‘芯片好用就下大单’,用市场化的方式绑定。”
第三个痛点:“生态谁建?”
英伟达为啥牛?不光是芯片算力强,更重要的是它有CUDA生态——全世界的开发者都在用它的软件工具,形成了“芯片-软件-开发者”的铁三角。国产芯片呢?虽然硬件性能追上来了,但软件生态还是“小学生水平”。开发者用惯了CUDA,突然换国产芯片的软件,得重新学,成本太高。
陈维良在论坛上拍了桌子:“生态这东西,一家公司建不起来!得芯片公司、大模型公司、软件公司一起上。比如我们开放芯片的底层接口,大模型公司优化模型适配,软件公司开发工具包,让开发者‘上手就能用’。就像建高速公路,芯片是‘路基’,软件是‘路标’,大模型是‘跑在上面的车’,缺一个都不行。”
你看,这些痛点,哪一个是靠一家公司能解决的?四位大佬把这些“家丑”摆上台面,不是为了吐槽,是为了“一起想办法”。这才是这次同台最有价值的地方——以前国产芯片的问题,是“关起门来自己摸索”,现在是“打开门来一起解决”。
聊了这么多“协同创新”,肯定有人问:国产芯片现在到底啥水平?能不能跟英伟达掰手腕?
咱们得客观说:差距肯定有,但正在快速缩小。
先说好消息:这几年国产芯片的进步,能用“坐火箭”来形容。2020年的时候,国产AI芯片的算力还不到英伟达A100的一半,现在呢?壁仞科技的最新芯片,算力已经追到了H100的80%;沐曦的通用计算芯片,在某些大模型训练任务上,效率甚至超过了A100——因为它是为咱们自己的大模型“量身定制”的,没有“水土不服”的问题。
更重要的是“能用”了。以前国产芯片最大的槽点是“不稳定”:跑小模型还行,跑大模型动不动就死机、掉精度。现在呢?燧原科技的推理芯片,已经在几家手机厂商的AI助手里面用了,日均处理几亿次语音识别,没出过大问题;天数智芯的训练芯片,阶跃星辰用它训练Step 3的部分模块,成本比用英伟达芯片低了30%。
但坏消息也得说透:跟英伟达比,还有三个“坎”没过去。
第一个坎:“生态壁垒”。前面说了,英伟达的CUDA生态太强大了,全球几百万开发者都在用。国产芯片虽然也在做自己的软件工具(比如沐曦的MXCUDA、燧原的GPGPU SDK),但开发者数量差了好几个量级。就像你开了家新餐馆,菜做得不错,但服务员都是新手,客人点菜半天反应不过来,体验肯定差。
第二个坎:“成本控制”。英伟达芯片卖得贵,但人家量大,一条生产线能造几百万块芯片,分摊下来成本就低了。国产芯片呢?目前还在“小批量试产”阶段,一条线造几万块,成本自然降不下来。张文在论坛上算了笔账:“英伟达H100的硬件成本,我们现在能做到跟它差不多,但因为量小,分摊的研发费用比它高50%,所以最终售价还是比它贵。”
第三个坎:“高端人才”。高端芯片研发,拼的就是人才。全球顶尖的AI芯片专家,大部分还在英伟达、AMD这些公司。咱们这几年虽然挖了不少人,但真正能“带队攻坚”的顶级人才,还是不够。盖鲁江半开玩笑地说:“现在芯片圈挖人,已经不是‘给钱’的问题了,是‘给梦想’——你跟他说‘咱们一起干掉英伟达’,他可能就来了。”
可能有人会说:芯片大佬凑一起开会,跟我有啥关系?我又不买芯片。
关系大了。
最直接的:以后AI服务可能更便宜、更好用了。
现在为啥ChatGPT、文心一言这些AI工具还没完全普及?一个重要原因就是算力太贵。训练一个大模型要花几亿、几十亿,这些成本最终会转嫁到用户身上。而国产芯片一旦成熟,算力成本至少能降一半——就像以前进口彩电卖一万,国产彩电出来后,一千块就能买到。到时候,你用AI写报告、做设计、学英语,可能就跟现在用微信聊天一样,免费或者几块钱随便用。
再往远了说:手机、汽车、家电里的AI会更聪明。
现在你手机里的语音助手,为啥经常“听不懂人话”?因为推理芯片算力不够,只能跑小模型。以后用了国产高性价比推理芯片,手机里能塞下更大的模型,语音识别、图像理解会更准。汽车自动驾驶也是同理,国产芯片算力上来了,识别行人、判断路况的反应速度会更快,安全性大大提升。
更深层的:咱们终于不用“看别人脸色”了。
以前美国一搞芯片管制,国内科技公司就慌了神——“万一买不到芯片,大模型项目就得停”。现在国产芯片顶上来,相当于给中国AI产业装上了“国产发动机”。就像当年咱们搞出北斗导航,不用再依赖GPS一样,芯片自主可控,才能真正掌握AI发展的主动权。
当然,这一切不会一蹴而就。四位大佬同台,只是“万里长征第一步”。协同创新要落地,还得解决技术标准、利益分配、生态建设这些“硬骨头”;国产芯片要追上英伟达,可能还需要3-5年时间。但至少,我们看到了一个信号:中国芯片公司不再“各自为战”,而是开始“抱团攻坚”。
就像赵立东在论坛结束时说的:“以前咱们是‘各扫门前雪’,现在得‘众人拾柴火焰高’。芯片这事儿,没有捷径,就得一步一个脚印干。今天我们四个坐在这里,不是为了‘作秀’,是为了告诉行业:国产芯片,准备好了。”
最后说句掏心窝子的话:这几年咱们听了太多“国产替代”的故事,有真进步,也有“PPT芯片”。但这次四位大佬同台不一样——他们都是在芯片圈摸爬滚打了十几年的“老炮儿”,公司都已经做出了能商用的产品,不是“画大饼”。他们凑在一起聊“协同创新”,是真的看到了“一起把事干成”的可能。
或许过不了几年,当你用着便宜又好用的AI工具,开着自动驾驶汽车,刷着手机里精准识别你喜好的短视频时,你可能不会想起今天这四位大佬坐在一起唠的那些嗑。但你得知道,正是这些人在“卡脖子”的压力下,咬着牙往前冲,才让我们有机会过上这样的日子。
国产芯片的路还长,但至少,方向对了,人也齐了。剩下的,交给时间就好。
更新时间:2025-07-29
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号