
哈喽,大家好,我是小睿,12月3号拉斯维加斯re:Invent大会上,亚马逊AWS扔出一颗重磅炸弹,第三代AI芯片Trainium3正式亮相。
这 timing 太有讲究,前几天OpenAI刚砸380亿美元给AWS买算力,用的还全是英伟达芯片,转头亚马逊就端出了自家芯片。更狠的是AWS直接放话,用Trainium3训练模型,成本直接砍半。

这话可不是吹牛,现在练个大模型,起步就得几千万美元,头部玩家砸上亿都不眨眼,其中芯片占了大头。
过去几年英伟达A100、H100芯片几乎垄断市场,价格飙上天还得排队抢,AI公司不是在烧钱买芯片,就是在等芯片的路上熬着。
亚马逊这一刀,精准捅在了行业最痛的地方。

亚马逊的打法很明确,不跟英伟达拼技术参数,就跟你拼性价比,它手里握着最大的王牌,全球30%市占率的云计算底盘,上面全是嗷嗷待哺的算力客户。这些客户本来就在AWS上花钱,现在有半价选项,很难不动心。
最给面子的是Anthropic,就是做Claude大模型的那家。他们已经把50万颗Trainium2组成超级集群,用来训练最新版Claude 4,2025年底还要扩到100万颗。

要知道,这颗芯片2025年第三季度环比增长150%,已经做成了数十亿美元的生意,增速直逼火箭。
微软也跟着搅局,Azure马上宣布和AMD合作推出MI300X芯片,喊出“比同性能英伟达芯片便宜40%”的口号。谷歌更早就布局了TPU芯片,自家Gemini模型全靠TPU集群支撑,还开放给DeepMind等客户用。一场围绕“低价算力”的战争彻底打响。

面对围攻,英伟达真的不怕?还真有底气,它的护城河不是芯片本身,而是CUDA生态,这套系统已经钻进了几乎所有AI开发者的工作流里。
去年有家自动驾驶公司想换成其他芯片,结果发现团队300行核心代码要重写,光适配就花了3个月,最后还是乖乖用回英伟达。
亚马逊也清楚这一点,发布会特意提了一嘴,下一代Trainium4会兼容英伟达生态。这话翻译过来就是“现在打不过,但我在学你的招”。

而且目前Trainium客户就“少数超大型客户”,大部分中小开发者还是不敢轻易换芯片,改代码的成本比省下来的硬件钱还高。
英伟达还有张王牌,就是H200芯片刚发布就被抢空,订单排到2026年。
像特斯拉训练自动驾驶模型,一次就订了2万台H200,这种对极致性能有要求的客户,暂时还离不开英伟达。毕竟降价是一回事,能不能练出更牛的模型才是关键。

亚马逊推芯片,根本不是要干掉英伟达,而是为了守住云计算的江山。
AI是云计算未来最大的增长点,微软Azure、谷歌Cloud都在猛追,谁的算力性价比高,谁就能抢客户。AWS用自研芯片压低成本,既能给云服务降价留空间,又能多赚笔硬件钱,形成软硬件闭环。
谷歌的思路更偏向技术掌控,TPU芯片和自家TensorFlow框架深度绑定,用谷歌云的客户用TPU最顺手,这也是一种锁定。

微软则走“联盟路线”,除了AMD,还跟英伟达保持深度合作,OpenAI那380亿美元订单,表面是买英伟达芯片,实际钱全给了微软和AWS,这就是云服务商的底气。
最有意思的是,这场混战里最大的赢家是普通企业。以前英伟达说多少钱就多少钱,现在亚马逊砍价50%,微软跟降40%,中小公司终于有了讨价还价的余地。
就像去年一家AI教育公司,本来预算只够买100颗英伟达芯片,现在换成Trainium,能买200颗,模型训练速度直接翻倍。

AI芯片战场短期内没人能一统天下,英伟达靠生态守江山,亚马逊借云平台抢市场,谷歌凭技术筑壁垒。
对咱们来说,巨头打得越凶,算力就越便宜,AI发展就越快。至于最后谁能笑到最后,这场戏才刚开始。
更新时间:2025-12-08
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号