在12月9日凌晨的特别活动中,谷歌隆重推出了XR Edition,首次系统性地展示了其在扩展现实领域的最新突破。
谷歌将Android XR定位为“行业首个为扩展现实设备打造的统一平台”,旨在构建一个连贯的生态系统。
该平台的核心在于其统一的Android基础,能够将智能手机时代的成熟体验无缝延伸至XR领域,为用户带来更丰富的交互。
图示:谷歌计划将Android XR打造为首个统一的XR平台,推动行业标准。
为了将Android体验迁移至XR平台,谷歌联合了三星和高通,其中三星负责技术架构和产品设计,高通则提供芯片支持。
这类似于安卓时代Nexus系列的合作模式,旨在确保软硬件一体化优化。
谷歌定义Android XR的设计哲学是将扩展现实视为一个连续的设备谱系,而非单一产品形态,这意味着产品形态将非常多元。
根据谷歌介绍,Android XR的硬件包括功能强大、提供深度沉浸体验的头戴设备,适合娱乐和游戏等高强度交互;也有轻便时尚、可全天佩戴的AI智能眼镜。
而介于两者之间的,则是如XREAL Project Aura这类融合了双方特点的混合形态设备,为用户提供灵活选择。
为了确保Android XR的体验,谷歌与三星共同主导技术架构,打造标杆产品。
在设计上,作为“亲儿子”系列初代产品,谷歌选择了时尚路线,邀请了眼镜行业领导者Warby Parker和先锋设计品牌Gentle Monster参与产品定义与设计,包含两个型号,计划在2026年正式推出。
一款是注重基础交互的音频版AI智能眼镜,配备先进的微型扬声器阵列、高清摄像头和环境麦克风,用户可以通过自然语音与Gemini进行对话,实现音乐播放、通话沟通、即时拍摄等功能。
另一款则是在此基础上进一步集成了带屏幕的关键技术——一个微型、低功耗的透明显示屏,能够在用户视野的恰当位置以极高的隐私性显示导航箭头、消息通知、实时翻译字幕等信息。
这两款产品被明确为“首先是眼镜”,因此设计合作方的理念是让复杂的传感器和计算模块隐于无形,融入日常穿搭,提升佩戴舒适度。
产品体验完全围绕Gemini AI构建,致力于提供一种“情境感知式”的无感协助,让科技悄然融入生活。
例如,通过视觉搜索,眼镜可以识别用户看到的物体并即时提供相关信息,如在超市中识别商品成分;
实时翻译功能可支持面对面的自然对话,打破语言隔阂;
结合地理位置与视觉识别的情境提醒,能在旅行中主动推荐景点或在复杂交通枢纽引导用户至准确的上车点。
此外,眼镜还融入了谷歌最新的多模态AI能力,用户只需语音指令即可完成拍摄,并利用类似Nano Banana的轻量级图像模型进行实时创意编辑,如在合影中添加有趣的虚拟元素,让智能交互充满趣味与个性。
为了体现产品形态的多元性,谷歌还联合XREAL推出了介于头显与AI眼镜之间的新设备品类——有线XR眼镜。
首款产品Project Aura采用分体式架构——眼镜+计算设备——预计将于2026年正式推出,为用户提供更灵活的体验。
用户佩戴的是一副形态接近普通眼镜、采用光学透视方案的轻便显示终端,它通过一根线缆连接到一个独立的、被称为“Puck”的便携式计算核心上。
这个Puck不仅承载了主要的运算单元和电池,其表面还可作为触控板使用,实现了算力与佩戴舒适度的平衡,让交互更直观。
Project Aura的产品体验可以概括为:真实世界画面与虚拟窗口内容高精度地叠加。交互方式直观,用户可以直接用手在空间中进行操控,提升效率。
按照谷歌演示,Project Aura既可以作为独立XR设备使用,并且拥有谷歌应用生态支持,也可以作为移动设备的外接屏幕,同时整合了Gemini的AI能力,实现多功能融合。
三星和谷歌在Android XR上的合作,不仅包括帮助打造“亲儿子”产品,也推出了头显形态产品Galaxy XR,深化生态绑定。
实际上,10月份三星就已经发布了这款产品,所以这次主要是三个功能的升级,增强用户体验。
首先,基于PC Connect功能彻底打破了头显与个人电脑之间的壁垒。用户现在可以将Windows PC的整个桌面或任意单个应用窗口,以无线、低延迟的方式无缝“拉入”头显的无线虚拟屏幕之中。
用户可以在一个完全沉浸、不受物理边界限制的环境中使用Photoshop、CAD等专业软件进行创作,也开启了全新的娱乐方式——将高性能PC游戏串流至头显,提升沉浸感。
其次,为了解决用户在佩戴头显进行视频通话时“隐身”的社交尴尬,谷歌推出了Likeness功能。这项技术允许用户创建一个高度逼真的个人数字人化身。该化身能够通过头显的传感器实时、精确地镜像用户的所有面部微妙表情、口型动作乃至头部的自然转动。
在Google Meet等视频会议中,与会者看到的将是一个栩栩如生、表情同步的“你”,极大地增强了虚拟社交的真实感与临场感,让远程协作和沟通变得更为自然亲切。
第三,为了拓展头显的使用场景至移动环境,全新的Travel Mode应运而生,利用先进的算法智能补偿外部运动带来的干扰,显著稳定用户视野中的虚拟画面,减少因画面抖动而产生的眩晕感。
除了上述即刻可用的三大功能,谷歌还预告了一项计划于明年推出的核心技术——系统级自动空间化,在系统底层,实时、自动地将任何普通的2D应用界面,动态转化为具有立体深度和空间感的3D沉浸式体验。
此举将无需开发者进行单独适配,从而有望瞬间极大地丰富XR生态的内容库,将整个数字世界“空间化”,预示着沉浸式交互将从特定应用走向普适化体验的未来。
面向开发者社区,谷歌同步发布了Android XR SDK开发者预览版3(DP3),加速生态建设。
本次更新的核心在于首次正式开放了对AI智能眼镜的完整开发支持,标志着Android XR平台从沉浸式头显正式延伸至全天候佩戴的智能可穿戴领域。
为帮助开发者高效构建面向未来的眼镜应用,谷歌推出了两大专属开发库:
Jetpack Glimmer是一个专为透明显示屏设计的现代化UI工具包,基于Compose构建,它提供了经过精心优化、符合眼镜交互逻辑的界面组件(如卡片、列表),让开发者能够轻松创建清晰、优雅且对现实世界干扰最小的视觉体验。
Jetpack Projected则是一个基础API库,它旨在解决生态扩展的初始挑战,允许开发者将现有Android手机应用的核心功能与业务逻辑,通过简洁的接口快速“投射”至眼镜平台,管理音频与摄像头访问,从而实现从移动端到眼镜端的平滑过渡,显著简化了开发流程。
在增强现实能力方面,SDK集成了ARCore for Jetpack XR,并新增了关键的地理空间API。这使得开发者能够利用全球规模的视觉定位服务,构建出基于精确地理位置与现实场景识别的应用,例如提供实时的AR步行导航。
为了构建一个开放且充满活力的生态,Android XR遵循OpenXR这一行业开放标准,促进跨平台兼容性。
在游戏与高沉浸感内容创作领域,Unreal Engine现已能够利用其原生OpenXR支持为Android XR进行开发。谷歌还宣布,其官方提供的专属插件(将集成更深度的手部追踪等平台特性)预计于2026年初发布,以进一步释放引擎的创作潜力。
与此同时,开源的Godot引擎已在其v4.2.2稳定版中,通过官方插件提供了对Android XR的完整支持,为独立开发者和小型团队提供了强大而灵活的选择。
一个生动的开发者案例来自Uber,他们演示了如何利用新工具为带显示屏的AI智能眼镜重塑出行体验。
当乘客抵达机场,眼镜的透明显示屏上会浮现出行程状态与预计到达时间,让信息获取无需低头。通过集成的AR路径引导,虚拟箭头会清晰地叠加在真实的航站楼环境中,引导用户步行至准确的上车点。
最终,车辆信息(如车牌号)会直接显示在视野中,用户甚至可通过眼镜便捷地呼叫司机,整个过程实现了信息与物理世界的无缝融合,让用户始终保持抬头、解放双手,提升出行效率。
本文由主机测评网于2026-02-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260223362.html