戴上这款眼镜的那一刻,科幻感扑面而来!
这是我佩戴 Meta Ray-Ban Display 的初体验。坦白说,基于去年 Meta Orion 原型机的表现,我原本期待不高,但真正戴上 Display 后,我瞬间相信这个行业前景无限。
在 Meta Connect 2025 发布会上,这款售价 799 美元的「带屏智能眼镜」终于亮相。作为 Meta 首款支持显示功能的智能眼镜,它通过右眼的彩色光波导 HUD 和配套的 Neural Band 腕带,将「脸上的 AI」从概念带进现实。
与 Orion 原型机类似,Display 采用的显示技术是彩色光波导,这种依靠光线在载体内反复折射、将画面投射到镜片中央的技术,是目前 AI 眼镜的主流显示方案。但 Meta 实现了一个关键突破:漏光率低至 2% 左右。
这意味着 HUD 亮起时,对面的人完全看不到光波导的反射或漏光,不像今年早些时候谷歌推出的 XR 眼镜原型那样有明显的反射区:
@梦雅Myra 佩戴的 Display,在类似角度下没有明显的屏幕漏光
即使朋友站在对面,屏幕全亮时也毫无察觉。只有从侧面观察,才能瞥见几排光波导屏幕导线的反光。
不过,根据外媒 TheVerge 的实测,Meta 这块高透明度的屏幕也有缺点:由于对话方完全看不到你在注视什么,可能觉得你心不在焉、视线没有聚焦。
至于实际显示效果,Display 的光波导屏幕亮度高达 5000 尼特,搭配默认的光致变色镜片,在强光户外镜片会自动变深,可读性依然出色。
之前我担心单眼显示会不自然,但实际体验彻底消除了疑虑。我已连续使用一个多小时,最深的印象是它能与现实世界完美融合。
尽管 Display 只有右侧一块屏幕,但单眼显示与环境结合得很好,因为屏幕位置和视场角(FOV)设计得较低,直视时显示区会落在对方胸口处,几乎与电影字幕位置一致。
由于扎克伯格身高较矮,需要低头对话
这块 600×600 像素的屏幕虽不大,但功能类似手机,界面设计和逻辑完成度极高,几乎不会让人感到困惑。
例如,我用它查看 WhatsApp 和 Messenger 消息,整个对话流能完整显示。通过手指上下滑动翻页,再用语音转文字回复,过程非常流畅。我甚至觉得,可以长时间不用掏出手机了。
而作为 Display 的核心操控方式,配套的 Neural Band 腕带彻底改变了游戏规则。
虽然和苹果 Vision Pro 一样支持手势操控,但 Display 不依赖摄像头,而是通过腕带读取手腕肌电信号(EMG)来识别,这意味着你的手可以放在身体两侧、背后甚至口袋里,手势仍能被精准捕捉。
Neural Band 的主要操作包括双击中指点亮屏幕、单击中指退出、单击食指确认、旋转手腕放大,以及用拇指在食指上滑动翻页等。虽需短暂学习,但掌握容易,灵敏度也很高。
Display 的处理输入方式更有趣。除了通过耳机上的 6 麦克风阵列进行语音输入,你还可以戴着 Neural Band 在平面上写字,腕带会结合肌电信号和陀螺仪识别手写字母,正如扎克伯格在发布会演示的那样:
扎克伯格在采访中透露了一个有趣细节:他已能用这个系统达到每分钟30个单词的输入速度,几乎整天都用眼镜收发消息。他的高管们甚至能分辨哪些消息来自眼镜——比如那些更简短、秒回的信息。
更重要的是,扎克伯格认为 Neural Band 的潜力远超想象:
(虽然)我们发明 Neural Band 是为了配合眼镜使用,但我认为它最终可能成为一个独立平台。未来,它不仅能通过思维实现个性化自动补全,还可能成为控制其他设备乃至智能家居的方式。
如果说戴着 Neural Band 虚空写字像化身钢铁侠,那眼镜的实时字幕功能让我感觉自己拥有了超能力。
唤醒方式很简单,说一句「Hey Meta, turn on live captions」,对方说的英语就会实时显示在屏幕上。在嘈杂环境中,Display 甚至能准确识别你正注视的那个人的声音,多人同时说话也不会混淆。
得益于前面提到的屏幕位置,戴着 Display 看实时字幕的方式,简直就像把现实变成了电影观看体验。
虽然核心软件仍依赖手机连接,但这远不止是通知镜像。你可以发送文字、接听音视频电话、显示正在播放的音乐、获取逐向导航指引、查看相机取景,还能运行 Meta AI 识别眼前物体。
发布会上演示的 LiveAI 实时视觉识别场景
Meta 的 CTO Bosworth 强调:清晰的文字渲染是让 AI 变得实用的关键——如果 AI 只能语音回复,信息获取就有限。而当你提问后它能直接显示答案,不仅更直观,也更私密。
这种基于「你能看到结果」的确定感,是纯语音交互的普通版 Meta Ray-Ban 智能眼镜无法提供的。在实际生活中,语音唤醒 AI 助手在许多场合并不方便,Display 的语音/手势/视觉混合交互则无此困扰。
体验 Display 时,我尝试用 Meta 的 AI 功能识别一幅画。Display 不只是语音回答,还在屏幕上显示了相关信息卡片,信息密度相比纯语音交互(等待 AI 慢慢念完)更高。
这块小屏幕甚至能用来预览相机画面和观看视频——虽然 FOV 较小,但画面尺寸恰到好处,细节清晰可见。如果朋友发来视频链接,你可以直接在眼镜上打开查看并快速回复,全程无需掏手机。
总之,体验 Meta Ray-Ban Display 后,我认为这副眼镜的核心价值有三点:
增大信息密度:哪怕只显示一两行文字,获取的信息也远比纯音频丰富
给予确定感:能看到具体界面、动画和菜单选项,让眼镜操作更有把握
成为 AI 的通路:AI 能看见你所见,你也能看到它的反馈,让 AI 更无缝融入日常生活
扎克伯格在访谈中的判断非常明确:
眼镜将是下一个计算平台。这是唯一能让 AI 看见你所见、听到你所听、全天候与你对话的设备。
全球有 10-20 亿人日常佩戴眼镜。五到七年后,这些眼镜中的大部分会不会都变成某种形式的 AI 眼镜?扎克伯格说:我觉得这就像 iPhone 出现时,大家还在用翻盖手机,但转向智能手机只是时间问题。
Meta 瞄准的是「优化主义者」和「追求生产力的人」。虽然初期产量仅几十万副,但 Bosworth 预测「我们生产多少就能卖多少」。扎克伯格也暗示,真正的利润不会来自硬件本身,而是「来自人们长期使用 AI 和其他服务」。
体验结束后,我最大的感受是:Display 不再是概念产品或开发者玩具,而是真正可日常使用的工具。
虽然 799 美元不算便宜(一台 iPhone 17 也是这个价),20 度的 FOV 和 600×600 的屏幕也不算大,但这些都不妨碍它成为我用过最接近理想的智能眼镜。
我认为 Meta Ray-Ban Display 的目标很明确——减少掏出手机的频率,将所有快速查看和回复的操作都通过眼镜完成。从这个角度看,它确实做到了。
或许正如扎克伯格所说,这就像智能手机替代功能机的时刻。智能眼镜的技术拐点已经到来,只是尚未完全普及。而 Meta Ray-Ban Display,可能就是这场变革的起点,可能就是下一个 iPhone 时刻。
本文由主机测评网于2026-01-01发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260114086.html