通常英特尔进入一个领域,都不会是单一的硬件或者软件,而是会通过系统性升级带来生态整体变化,早些年的轻薄本设计推广就是很好的例子。随着AI PC概念提出第三年,英特尔除了将酷睿Ultra的AI TOPS提升5倍,也给行业、软件、生态带来了全面升级,这也是2025英特尔技术创新与产业生态大会第二天的主题。

在AI新技术和软件创新论坛上,英特尔没有将太多的重心放在明年CES 2026上即将发布的Panther Lake,而是聚焦当下,ARC Pro B60,酷睿Ultra 200H等已经量产的产品,在现有的资源下,就能让轻薄本、miniPC获得运行120B MoE大模型的性能,即使放在一年前,这样的场景是无法想象的。

英特尔技术部总经理高宇
酷睿Ultra 9 285H很能打
论坛的第一个主题放在了已经发布近一年的酷睿Ultra 9 285H上。酷睿Ultra 9 285H最高可以支持128GB内存,通过统一内存架构驱动,可以给Arc 140T核显分配高达95%的内存空间,相当于一块拥有了120GB的显卡。
大显存显卡几乎决定了AI运算模型的天花板,在现场的展示中,通过一套具备96GB内存的mini PC,就可以在本地流畅运行20B到120B参数的大模型,英特尔甚至在现场与极客湾云飞合作,展示30K tokens的长上下文的红楼梦续写。
得益于酷睿Ultra 9 285H高效能的特性,这套SoC并非限制在轻薄本中,无论是设计师笔记本、mini PC还是嵌入式设备,都可以搭载酷睿Ultra 200H处理器,利用本地大模型实现更多的离线、边缘AI应用。
现场展示的DeepSeek OCR和本地TTS语音合成都是其中之一,OCR在日常中解决了很多文字、表格变成文本的问题,但传统的OCR识别能力堪忧,往往需要人工重新矫正。DeepSeek OCR厉害的地方在于,利用本地大模型的优势,就可以非常准确的识别文字和表格内容,并在PC中重新绘制,节省了海量的时间。

本地TTS语音合成则更有意思,通过简短的音频识别,就可以让原声产出不曾说过的内容,比如让猪王播报重庆的天气预报。
重点在于,多个模型之间是可以通过一套AI工作流串通起来的,这也是英特尔打通生态的目的之一。在现场,通过一台AI PC,就能一口气实现OCR、大纲生成、脚本撰写、声音TTS合成,并最终生成视频,现场快速制作出了一套康熙野史的短视频,全程几乎不需要人工干预,创作者只需要关注调整细节。

如果一台AI PC算力不够,那么就用上两台。两台AI PC通过雷电接口互联的技术在此之前其实已经开始实践,不过最早雷电互联用于数据传输和新旧电脑设置同步。由于雷电接口潜能巨大,特别是雷电5最高传输速率达到120Gbps,正常模式也和雷电4一样拥有80Gbps,两个AI PC进行大模型的分工合作是完全有机会的。

同时,英特尔也在考虑在这样的基础上构建一个AI模型分配的路由PC,又一台AI PC管理一整个PC群实现小工作室、家庭中的大模型运行,对于自媒体等内容创作者而言,无疑是个好消息。
除了雷电互联,英特尔与SSD主控厂商Phison合作推出了aiDAPTIV+技术,即是将大模型推理中的KV Cache存储在专用SSD中,避免重复计算,在RAG、代码生成等场景下可实现7-8倍的加速。特别是加速第一次运算时的Token速度,后续加速都非常有意义。类似这套以存代算,将SSD升级成AI SSD的方式其实也是未来存储厂商升级SSD的方向之一,例如铠侠等头部厂商也已经开始在企业级SSD中开始部署相似的AI加速策略。

同样,大模型并非限制在AI PC上,基于酷睿Ultra的AI Box在智能座舱和智能家居中也同样付诸实践,比如停车场二维码识别、家庭安防与宠物看护,具备低延迟、隐私保护和个性化服务特点。

最后也少不了现场展示刚推出不久的ARC Pro B60显卡,单卡具备24GB显存,支持最高16卡互联,在一台配备双芯B60显卡的紧凑型PC上,同时运行文生图、文生视频、语音交互、多模态问答、OCR、代码生成等8个模型,以及调用AI智能体完成复杂任务。



现成的黑科技
只有AI PC和AI Box对于日常生活而言也是不够的,AI生态其实更为缺乏的是周边硬件、应用,以及一套判定AI PC性能的标准。
在论坛的下半场,赛迪研究院展示了AI PC测试标准的可能性,也指出了AI PC当下面临着功耗、软硬一体结合、离线场景应用的多种挑战。而在未来,异构计算、模型轻量化、端云协同也将成为端侧AI的趋势。

同样基于AI应用的鼠标、会议耳机、摄像头也已经陆续发布,旨在通过硬件延伸探索AI应用更多的可行性。

在软件上,必优科技ChatPPT,百度文心APP电脑版以及QQ音乐也分别展示了利用本地AI大模型带来的体验升级,比如ChatPPT通过端云混合架构,在保护本地文档隐私的同时,利用云端强大渲染能力快速生成PPT。QQ音乐则是可以通过臻品母带超分的方式,在节省流量的前提下提升音质,或者依靠35B模型本地创作AI音乐。

目前为止,英特尔已经与超过250家ISV合作,覆盖创作、文字、学习等生态的AI PC应用场景,确保AI PC不仅只有算力,还能与本土用户习惯相结合,快速扩展AI应用的影响力。

、

AI PC的寒武纪
自从2023年AI PC概念提出以来,端侧AI随着AI TOPS性能提升迎来模型趋势上的变化。从整体而言,端侧AI模型正在向两个方向发展,一个是参数量大但激活稀疏的MoE模型,另一个蒸馏压缩模型,前者参数量大,后者小而精,两者共同的特点是具备思维链和工具调用能力,适合端侧部署。

其中稀疏化MoE模型更侧重于内存带宽和存储容量,一方面由于模型拥有万亿级参数,在使用的时候只会激活对应部分,虽然每次计算量不大,但模型需要频繁地从内存中加载当前要激活的专家参数。这个过程被称为权重交换。因此,内存带宽成为了关键瓶颈。速度足够快的内存可以确保参数被迅速送达计算单元,避免等待。这时候酷睿Ultra 200H的128GB内存容量支持就起到了关键的效果。

对应的,蒸馏压缩模型更侧重于持续算力和能效,即通过知识蒸馏,将一个大模型的能力压缩到一个参数量小得多的稠密模型中,比如8B压缩到2B以内,每次运算的时候都是完整的模型运算,对处理器的AI TOPS算力要求更高,同时也需要英特尔XPU架构高效的分配NPU、GPU、CPU进行矩阵乘法等计算,这也是竞争对手在生态上无法做到的。
但无论哪一个方向,端侧模型对AI TOPS的算力是硬需求。在硬件的加持下,AI从原来的只会动嘴,演变成了装上手脚,具备了听(ASR)、看(VL+OCR)、说(TTS)等多模态能力。这意味着未来的端侧设备,无论是轻薄本、平板,都将由简单的桌面助手升级成AI智能体,在短时间获得更高的工作效率。

从Meteor Lake的34 AI TOPS到Panther Lake的180 AI TOPS,AI算力在三年内提升了5倍。更重要的是,围绕这套硬件搭建起来的AI生态,不仅影响到了桌面办公,也从实际上影响到了商场、交通中的AIoT,原本需要管理工作者付诸体力和精力的工作,在摄像头、传感器没有升级的前提下,转由AI 7x24小时代管,且判断更为准确。
值得注意,现场展示的DEMO均基于已经量产许久的酷睿Ultra 200H展开,120TOPS算力已经能够帮助终端用户完成很多端侧AI应用的实现,这也让笔者更为期待接下来Panther Lake推出后,180TOPS算力可以带来什么样的新变化。可以肯定的是,随着英特尔AI生态布局的展开,AI应用的普适性将最终影响到身边所有人,一台AI PC带来的潜能,也将进一步被放大。
更新时间:2025-11-24
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号