【CNMO科技消息】12月9日凌晨,在安卓XR特别直播活动中,谷歌正式展示了其在扩展现实(XR)领域雄心勃勃的战略蓝图。通过“安卓操作系统+Gemini AI”的双核驱动,谷歌正致力于打造一个统一的、覆盖从沉浸式头显到全天候AI眼镜的“设备光谱”平台。此次发布会不仅公布了首款安卓XR头显三星Galaxy XR的多项重磅更新,还首次深入披露了与中国创企XREAL合作的有线XR眼镜Project Aura的细节,并全面升级了面向开发者的工具链,标志着安卓XR生态从概念走向规模化部署的关键一步。

谷歌安卓XR主管Shahram Izadi与三星XR负责人Kihwan Kim在开场中共同描绘了安卓XR生态的完整“设备光谱”。该光谱的一端是功能强大的XR头显,用于深度沉浸体验;另一端是轻便的AI眼镜,用于全天候信息获取;中间则是融合两者特性的XR眼镜。谷歌旨在通过统一的安卓XR平台,为所有形态的设备提供一致的核心体验与开发环境,从根本上解决XR市场长期存在的生态碎片化问题。
作为首款安卓XR设备,三星Galaxy XR迎来重要更新。全新的“PC Connect”功能允许用户将电脑窗口直接“拉取”至XR空间,实现跨设备办公与娱乐。“Likeness”功能则能生成高度逼真的用户虚拟形象,显著提升视频会议等社交临场感,其理念与苹果Vision Pro的“Persona”功能相似。此外,明年将上线的“系统自动空间化”功能,可实时将普通2D应用、视频和网页转化为3D沉浸式内容,且完全在设备端运行,极大扩展了内容的沉浸潜力。

谷歌与XREAL合作的Project Aura作为有线XR眼镜的代表,首次披露更多细节。该设备采用光学透视方案,让用户能清晰看见真实环境,同时叠加虚拟信息。其通过一个外接计算模块供电并兼作触控板,保持眼镜本体的轻便。它支持直连PC,并深度集成Gemini AI,用户可随时对屏幕上显示的内容进行视觉问答。该产品预计于2026年正式发布。
谷歌演示了其与眼镜品牌合作开发的两类AI眼镜原型。其中带显示屏的原型机展示了实时翻译、视觉问答等能力。最令人印象深刻的是,谷歌将其轻量级图像编辑模型“Nano Banana”集成其中,演示了仅通过语音指令在实时拍摄画面中添加虚拟物体的功能,展示了未来AI眼镜在增强现实交互上的创意潜力。
此外,为加速应用生态繁荣,谷歌宣布了安卓XR SDK与API的全套升级。
更新时间:2025-12-10
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号