在智能穿戴设备市场竞争日趋激烈的背景下,苹果公司旗下首款智能眼镜Apple Glasses近日被曝出多项关键信息。
根据9to5Mac等多家国外媒体引用知情人士的报道,这款内部代号为“Project Atlas”的产品,计划在2026年的WWDC大会上正式亮相,并于2027年开始量产上市。此外,部分供应链消息指出,官方可能会在2025年底提前发布预告。
值得关注的是,为了全力推进这一项目,苹果已经暂停了Vision Pro轻量版Vision Air的研发工作,这显示出苹果内部对智能眼镜赛道的战略重视程度正在加强。
与之前定位高端空间计算的Vision Pro相比,Apple Glasses采取了更务实的产品策略。它完全放弃了内置显示屏的设计,不侧重于增强现实体验,而是定位为一款依赖iPhone的AI和音频核心的可穿戴配件。这一方向与Meta推出的Ray-Ban智能眼镜的成功模式相吻合,也更符合当前大众消费市场的需求。
在核心功能方面,Apple Glasses将以“AI、Siri和摄像头”为核心交互组合,可以被视为“具备视觉能力的AirPods”。硬件配置上,该设备将配备多个摄像头,其主要用途不仅仅是拍摄照片和视频,而是实现“视觉智能”功能,例如实时识别物体、阅读文本、识别地标等环境信息,并与苹果大力推进的Apple Intelligence深度集成。
例如,当用户看到餐厅招牌时,眼镜可以通过内置扬声器或连接的AirPods提供评分信息;当面对外文菜单时,它能提供实时翻译服务。这种情境化服务有效解决了当前AI硬件在情境感知方面的不足。
在性能和续航方面,考虑到眼镜的轻量化需求,苹果将为其定制基于Apple Watch S系列芯片的新型处理器,设计核心专注于极致能效比。它主要负责驱动摄像头、处理传感器数据以及运行基础机器学习模型,而更复杂的计算任务则通过无线传输到iPhone或云端处理,从而平衡功耗和续航,确保用户可以全天佩戴。
既然被称为“长了眼睛的AirPods”,Apple Glasses在设计上也具备一些特色。
该设备预计会采用定向扬声器系统,借鉴AirPods Pro 2的自适应音频技术,并利用HomePod的波束成形技术来解决漏音问题,从而在嘈杂环境中保障交互效果和隐私。
此外,报道提到苹果正在为其开发健康跟踪功能,同时将提供多种款式选择,并与光学巨头合作开发可更换镜片,以满足近视用户的需求。
除了外观,交互体验的更新主要体现在Siri的进化上。
据悉,新一代Siri将作为主要输入方式,需要具备更强大的上下文理解能力,能够无缝整合视觉智能提供的环境信息,给出精准简洁的反馈。AI的加入将使Apple Glasses更具实用性,成为一个真正有用的工具。
在价格方面,业界存在两种主要预测。一种认为它将参考Apple Watch Ultra 2的定价,在799-999美元(约5600-7000元人民币)之间,延续苹果新品类的高端切入策略;另一种观点则认为,鉴于其无屏幕的轻量化定位,成本相对可控,定价可能对标Meta Ray-Ban的299美元价位,或定在499美元(约3500元人民币)左右。
然而,无论最终定价如何,苹果在AI眼镜的进展上再次落后一步。
目前,Meta Ray-Ban智能眼镜占据市场主导地位。此外,阿里巴巴已经推出了Quark AI眼镜,谷歌则与Warby Parker等合作开发智能眼镜,预计2026年亮相,将与Apple Glasses形成直接竞争。
相比之下,苹果的核心优势在于生态整合和隐私保护。其“隐私至上”的品牌形象可以降低用户对眼镜摄像头的担忧,而与iPhone、Mac、AirPods等设备的无缝协同体验,也是其他硬件厂商难以复制的竞争壁垒。
值得一提的是,多个消息来源显示苹果已经在规划配备显示屏的后续高端型号。当前无屏版本的推出,实际上是在技术和市场成熟之前,以低成本切入市场、培养用户习惯的过渡策略。
随着2026年的临近,新系统的迭代和Siri的AI进化将成为关注焦点。此前Vision Pro的失败已经表明,XR设备的推广难度远大于智能手机。至于智能眼镜能否融入用户生活,重新定义智能穿戴品类,只能等待苹果正式发布新品后才能揭晓答案。
本文由主机测评网于2026-02-09发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260224028.html