“这是苹果有史以来最大规模的设计革新。”
在 WWDC 2025 上,苹果正式宣布——你手里的 iPhone、iPad、Mac、Apple Watch、甚至 Apple TV、Vision Pro,都将统一采用全新设计语言:「Liquid Glass 液态玻璃」。
这是自 iOS 7 推出扁平化设计以来的又一次视觉革命。苹果称这次的 Liquid Glass 风格,将“定义未来数年的设计语言”。
不仅如此,苹果还做了一个少见的决定:全平台系统版本同步命名为“26”系列
——iOS 26、iPadOS 26、macOS Tahoe 26、watchOS 26、tvOS 26、visionOS 26,让系统命名逻辑更清晰。
先来一睹为快这套全新 UI 风格:
在 X 上,许多网友感叹:“UI 的流行果然是轮回”,一位网友直接甩出了n年前微软的UI界面,暗示了复古风格的返场。
而更令人意外的是,尽管不少媒体预测苹果将回避去年“AI 落地难”的尴尬,不再高调宣传智能能力,但这次库克也是开场就提到了苹果智能!
最重要的是这件事:开放 Apple Intelligence 的核心基础模型,向第三方开发者全面提供调用能力。
这是很聪明的一步棋:与其被人批评“苹果在AI已经落后”,不如和开发者一起建设Apple Intelligence。
你可以想象这意味着什么:
不再只是 Siri 自娱自乐,而是开发者真正可以做“AI 原生 App”了。
除了 UI 和 AI 这两大核心升级,还有这些值得关注的重点更新:
尽管不少人对 WWDC 事先“降低期待”,但发布会当日苹果股价仍下挫超 2%,市场反馈冷淡。
投资者原本期待 Apple Intelligence 能带来真正的“AI 突破”,但 Siri 的重构时间线仍未明确,核心功能也尚未完全落地,成为市场口中的“缺席重磅”。
接下来,我们就来一起梳理这场 WWDC 的重点更新——
你觉得,这一次的苹果更新打动你了吗?
在这次 WWDC 上,苹果正式引入全新设计材质——Liquid Glass(液态玻璃)。
这是一种具备折射和反射特性的透明材质,能够根据内容和环境动态变化。或许是在灵动岛的设计上尝到了甜头,苹果希望这种“液态”的动效,可以为按钮、导航栏、图标、小组件等界面元素注入前所未有的视觉生命力。
苹果表示,玻璃风格灵感来自 Vision Pro 的系统界面,让原本趋于扁平的设计重新获得层次感与空间感:
‘液态玻璃’兼具玻璃的光学质感与 Apple 独有的流动性表现,它会根据内容或环境变化进行转化,甚至能让最日常的交互也变得更有趣、更神奇。”
更进一步,苹果这次还将 UI 全面适配了现代设备的圆角屏幕:从原本为矩形屏幕设计的控件,进化为与硬件造型更协调的新形态。Liquid Glass 材质的控件被作为一层悬浮在内容之上的功能层,随着用户交互进行动态响应。
跟此前媒体盛传的各种APP的icon将转变为圆形不同,苹果干脆直接让界面玻璃化了。
除了浅色、深色和多彩三种模式,居然还新增了一个激进的“全透明模式”!从演示来看,几乎所有元素都在闪光发亮,看起来炫酷,辨识度却可能成问题……
这是多彩模式
这是透明模式
有人回忆起 macOS 10.9 时期的“高透明”争议:
“你说它让我更专注内容,但你让我看得见后面的内容,这不反而更分心吗?”
在Hacker News上也有网友直言不讳地批评了UI设计:
以这次新的设计语言为例,界面现在变得更难阅读、识别和理解了。 这对生产力和易用性来说,是一个巨大的倒退。
这一次的 Liquid Glass,毫无疑问是苹果设计语言的一次跃进。
但它能不能像当年的 iOS 7 那样引发 UI 变革、最终赢得用户口碑,恐怕还得靠实际使用体验来说话。
现在就看上手之后,苹果还能不能让消费者感到“真香”。
苹果 AI 功能更接地气了。
有些是一些跟进型的AI功能,比如:
用户收到语音留言后,系统会自动生成一段摘要,让你不用点开音频也能快速掌握内容。
AI通话筛选功能,会在来电者自报家门后再响铃,同时提供对方的一个信息摘要,帮助用户判断要不要接电话,——对“恐接电话星人”来说,简直是社恐福音。
从讨论热度来看,最受关注的 AI 功能还属这两项——实时翻译和视觉智能。
AI可以说带来了翻译的新时代。苹果现在也上线了系统级实时翻译功能,覆盖 Messages、Phone、FaceTime 三大通讯场景。
在 FaceTime 上聊天时,苹果的翻译功能会提供实时字幕。 而在电话通话中,无论你是否在与苹果用户通话,你说的话将被即时翻译并“说”给对方,对方回应也会翻译回你听得懂的语言。
可惜翻译的语气还比较生硬,缺乏原声中的语调和情绪。如果苹果后续能够集成情感语音合成技术,相信体验会更好,而且在技术上也不难实现。
苹果还推出了一项更“具象”的 AI 功能:Visual Intelligence(视觉智能)。
这是苹果为 iPhone 推出的全新 AI 图像识别能力,用户可以通过截图按钮一键唤起,对屏幕内容进行分析并触发操作,无需依赖特定 App,在任何应用中都可使用。
你在社交软件里刷到一件灰色外套,按下截图按钮,就可以:
对于开发者来说,这些AI功能都将通过 App Intents 开发,实时翻译和视觉能力都可以复用到自家APP中。
WWDC 2025 上,苹果首次将 Foundation Models 框架 纳入开发工具套件,开发者终于可以直接调用设备端 AI 能力,构建智能化、隐私友好、离线可用的新一代 App。
与此同时,Xcode 26 也正式支持集成大语言模型(如 ChatGPT),开发过程中的代码生成、调试、设计、文档编写,全面引入 AI 辅助。
苹果全球开发者关系副总裁 Susan Prescott 表示:
“开发者一直是 Apple 平台体验的缔造者。通过访问设备端 Apple Intelligence 基础模型以及 Xcode 26 的智能功能,我们赋能开发者打造更丰富、更直觉的 App。”
Design让开发者也能打造液态玻璃风格的APP
开发者可以在 Apple Intelligence 基础上,使用 Foundation Models 框架构建智能、离线可用、隐私保护的新体验。框架原生支持 Swift,仅需三行代码即可调用模型,内建引导式生成、工具调用等功能,轻松集成生成式 AI 功能。
日记 App「Day One」开发商 Automattic 已将其接入,提供无联网的 AI 写作建议。负责人 Paul Mayne 称:
“Foundation Models 框架让我们重塑了日记的形态,真正做到了隐私与智能的融合。”
Xcode 26 引入多个智能特性,帮助开发者在创意构思、编码、测试、设计优化等环节全面提效:
Swift 6.2 基于 Swift 6 的并发模型,进一步提升开发效率与可扩展性:
支持与 C++、Java、JavaScript 深度互操作
新增 WebAssembly 支持,开启跨平台部署可能
简化单线程编程,允许模块默认运行于主线程(Main Actor),无需繁琐标注
苹果推出新的容器化框架,开发者可在 Mac 上直接创建、拉取和运行 Linux 容器镜像:
随着整个科技行业都在疯狂追逐AI,苹果的脚步却显得迟缓——即便这次开放了小型设备端AI模型,许多开发者仍不认为这会带来实质性改变。
正如 AI 育儿 App Bobo 的创始人 Grant McDonald 在接受 华尔街日报 采访时所说:
“苹果的做法确实有意思,但还不足以穿透这个喧嚣的AI时代。”
苹果试图通过开放设备端AI小模型(在iPhone等本地运行)来“赋能”开发者,这些模型更小巧、计算资源消耗少,理论上更安全、响应更快。但实际应用中,开发者们普遍反馈了三大问题:
有开发者则形容这次WWDC像“进了糖果店但没什么好拿的”,令人难以兴奋。
相比之下,谷歌、OpenAI等AI巨头虽然时常发布不够完善的演示版本,但凭借快速迭代和开放合作,最终还是兑现了那些“看似魔法”的能力。
而苹果,在经历去年Siri AI功能数次跳票后,似乎变得更加谨慎,不再轻易承诺“AI奇迹”。但如今的苹果,已经没有太多时间留给保守。
无论是寻求外部合作,还还是在系统层面深度嵌入Apple Intelligence,或真正实现LLM驱动的Siri,苹果都需要更快地找到破局之道了。
更新时间:2025-06-12
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号