在12月9日凌晨,谷歌举办了一场备受瞩目的Android Show: XR活动,首次清晰勾勒出Android XR的设备发展路径,并正式展示了与三星联合开发的AI眼镜原型机。
然而,如果仅关注这些亮点,这场Android Show: XR很容易被低估。
活动没有公布价格、没有堆叠参数,也没有试图以一款“颠覆性设备”作为核心。整场展示更像一份克制而冷静的路线说明,谷歌花费大量时间强调Gemini与Android XR的系统深度整合,详解开发框架、API接口,以及“Android XR将覆盖哪些设备形态”,避免将焦点过度集中在单一终端硬件上。
在官方叙事中,Android XR已经不再仅仅是“支持头显的Android版本”,而是一个以Gemini为核心的全新计算平台。
谷歌强调,Gemini将作为默认的智能层嵌入Android XR,贯穿视觉、语音、环境感知与交互理解;而Android XR的角色,则是为这种多模态AI提供稳定、可扩展、跨设备体验的系统载体。
以此为核心,谷歌也一次性铺开了四条产品路线:
XR头显、AI眼镜、有线XR眼镜以及未来的真无线XR眼镜。
不同形态之间不仅共享同一套系统能力,也共享同一套开发栈——Jetpack、Compose、ARCore、Play Services等开发者熟悉的工具,被重新投射到空间计算与可穿戴设备领域。这正是Android XR最务实、也最易被忽视的一点:
它并不要求开发者“转型做XR”,而是希望XR能自然地成为Android生态的一种新形态延伸。
在策略层面,谷歌展现出一种熟悉的“老派克制”。Android XR没有复制苹果那种自上而下、硬件强力收敛的路线,而是延续了类似Nexus时代的合作模式:
系统由谷歌定义,硬件交给不同厂商探索,产品形态可以并行演进。
Nexus手机最后的绝唱(与华为合作),图片来源:谷歌
无论是与三星合作的Galaxy XR(Project Moohan)、计划明年上市的AI眼镜,还是与XREAL合作的有线XR眼镜(Project Aura),都只是Android XR的“载体”,而非其边界。
这份“保守”之下,谷歌的“野心”反而显得更加清晰。
在Android Show: XR上,谷歌做的第一件事并非展示一款“代表未来”的设备,而是将Android XR能承载的硬件形态一次性摊开。
XR头显、AI眼镜、有线XR眼镜,以及尚未真正登台的无线XR眼镜——这四条路线构成了Android XR的完整设备光谱。
关键并不在于它们是否同时成熟,而在于谷歌首次明确了一个判断:Android XR不服务于某一种设备,而是要覆盖所有头戴计算设备。
在已经落地的产品中,XR头显依然是当前最完整的形态。以三星Galaxy XR(Project Moohan)为代表,它承担更多是“平台锚点”的角色——完整空间显示、多窗口能力、成熟的追踪与交互体系,让Android XR拥有一个相对完整的参照物。
这条路线并不承担探索最终XR形态的任务,更像是谷歌确保Android XR“站得住”XR领域中的基本盘。真正被谷歌另眼相看的,还是AI眼镜。
谷歌正在与三星、Gentle Monster(韩国知名时尚眼镜品牌)、Warby Parker(美国知名线上眼镜品牌)共同开发两款AI眼镜,一款带显示,一款不带显示。但它们共同的特征是极度压低“系统存在感”:
没有复杂界面,没有沉浸式显示,也几乎不谈算力参数,更强调随身佩戴、低干扰、即时理解。
第三条路线则是与XREAL合作的有线XR眼镜Project Aura,预计在明年正式发布。
这类我们已经比较了解的观影型分体式AR眼镜,眼镜本体负责显示与感知,算力与电池外置,在Android Show中被直接定义为“wired XR glasses”(有线XR眼镜)。对Android XR而言,这条路线证明了系统、交互、应用模型可以在非头显形态下成立。
至于无线XR眼镜,目前还没有更多产品和项目信息。这条路线被明确放在未来,而不是通过概念机或演示视频提前消费想象力。某种程度上,这种“留白”本身就是态度:在散热、功耗、重量和成本尚未同时满足之前,谷歌并不急于让Android XR被某一代硬件形态绑定。
而真正把这四条路线连在一起的,并不是显示方案或生态,而是以Gemini为核心的Android XR。
在实际体验中,无论是Galaxy XR、Project Aura,还是AI眼镜的原型机,不少提前体验的媒体更多提到的并不是“Gemini有多聪明”,而是它在系统中的位置发生了变化。Gemini不再只是以“应用”或“助手入口”的形式存在,而是退到更低的系统层级,承担起理解上下文、空间和任务状态的角色。
这种变化最直接的体现是交互方式的转变。在Galaxy XR上用户不需要指定对象或重复操作路径,只要指向、注视配合简单的意图描述,系统就能完成窗口管理、内容筛选或状态切换。这类体验比短促的问答更能体现AI在现实工作流中的实际意义。
Gemini实时游玩建议,素材经过加速,图片来源:谷歌
AI眼镜上,Gemini更是交互核心。没有学习成本,也没有模式切换,只围绕用户“看到了什么”“想知道什么”。比起XR头显或者有线/无线XR眼镜,这里的体验改变,并不来自XR技术,而来自AI被放置在一个足够自然、也足够克制的位置。
把这层体验抽象出来,就不难理解谷歌在Android XR上的整体策略——非常典型的Nexus时代做法:平台由谷歌定义,核心体验由系统保证,具体硬件形态交给合作伙伴并行探索。关键在于,谷歌能够抓住核心的AI与操作系统生态,又不至于分散太多精力投入到硬件上。
这对于刚刚重新夺回“AI王冠”,逼得OpenAI拉响“红色警报”的谷歌来说至关重要。
事实上,AI大模型的核心战场正在快速扩大。《大西洋月刊》CEO Nick Thompson最近在Tiktok上透露,OpenAI CEO山姆·奥特曼在一次午餐会表示,AI的核心竞争不只是模型,还有设备与OS操作系统,包括苹果也是OpenAI的竞争对手。
不只是谷歌、OpenAI这么看,豆包手机助手和“豆包手机”的出现也说明了字节跳动的“英雄所见略同”。
再回看谷歌,目前这种策略虽然有些“保守”,不制造爆款,也不急于统一形态,但好处同样明显,Android XR不会因为某一种失败的硬件选择而被提前否定。在一个交互尚未定型、AI正在重塑入口的阶段,谷歌选择先稳住系统,再慢慢推进硬件。这种节奏,或许不性感,却足够有耐心。
但开发者准备好了吗?
在Android Show: XR上,谷歌几乎把所有关键信号都压在了“开发侧”。Android XR的SDK持续更新,Jetpack、Compose、ARCore、Play Services这些成熟工具被明确纳入XR体系,甚至连Glimmer、Projected这样为透明显示和多形态设备服务的工具链,也并非为了某一款硬件量身定制,而是跑在不同眼镜与头显上。
不只是谷歌有动作,Meta前几天刚刚面向开发者推出可穿戴设备(核心是AI眼镜)接入工具包。
但Meta强调把眼镜能力接入既有的手机应用,开发者不需要为Ray-Ban或Oakley眼镜单独写App,而是在iOS、Android应用中,通过SDK获取眼镜的摄像头、麦克风、传感器能力,让眼镜成为手机应用的感知与交互延伸。
这是一个比较务实的选择,先解决规模和场景,再谈平台化。
国内厂商Rokid在这一点上则看得更加长远。早在智能眼镜成为热点之前,Rokid就已经围绕AR眼镜建立起了初具规模的应用生态。今年Rokid Glasses SDK开放后,开发者可以直接为眼镜本体(基于CXR-S)开发原生独立应用,还可以面向手机(基于CXR-M)构建控制和协同应用,后者在理念上也与Meta基本一致。
区别在于Rokid同时从眼镜端和手机端双向推进,这是一种把眼镜当作独立计算终端来经营的模式,生态更“厚”,但也更考验其构建生态的能力。
而Android XR的位置,正好卡在两者之间,也高于两者之上。Android XR并不要求开发者在“原生眼镜应用”与“手机扩展能力”之间二选一,而是试图用操作系统层的抽象,把这两条路径统一起来。
简单来说,应用可以是一段延伸到眼镜的Android能力,也可以是完整运行在XR空间中的体验,设备可以是AI眼镜、有线XR眼镜,甚至未来的无线XR,只要它们都跑在Android XR之上。
更重要的是,Gemini被放在了这套生态的默认位置上。对开发者而言,AI不再只是一个可选能力,而是一个始终在场、可被调用的系统级智能层。开发不必以“做一个XR应用”为起点,而可以从更现实的问题出发,思考如何让应用理解用户所处的环境、正在做的事,以及下一步真正需要什么。
从这个角度看,谷歌想表达的并不复杂。Android XR不要求开发者进入一个全新的、割裂的XR世界,而是希望XR成为Android体系里的一种新运行环境。也是在XR尚未形成统一范式之前,先把开发者的心智和工具链锁进Android体系。
这或许正是Android XR最危险、也最有耐心的地方。
可能更重要的是,Android XR并不是一次单纯的XR押注,而是一次以Gemini为轴心,对Android本身的重新定义。这种定义很可能不会局限于XR和眼镜设备,就像Meta、OpenAI也不只满足于将AI融入头戴设备,而是所有可能存在“计算与理解”的设备,让AI主导的“环境计算”(Ambient Computing)成为现实。
本文由主机测评网于2026-02-07发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260223426.html