当前位置:首页 > 科技资讯 > 正文

三星S26本地大模型即将登场,端侧AI能否打破联网桎梏?

近一年来,手机厂商在AI领域的布局愈发密集。荣耀YOYO整合了更多第三方智能体,完成了系统层与应用层AI能力的打通;华为小艺仅凭一句指令即可穿梭于不同应用之间,协助用户完成多项任务。

虽然这些AI功能日趋强大,但细究之下不难发现一个现实问题:这些AI本质上仍依赖联网才能运行。换言之,手机AI至今仍停留在端云协同阶段,未能实现真正的突破。

近期,X平台用户Semi-retired-ing爆料,三星计划为即将发布的Galaxy S26系列配备一套可本地运行的大模型,用以承载绝大部分AI功能。该模型甚至具备高级系统权限,可在必要时主动释放内存,预留更多运存空间,从而保证对用户指令的即时响应。

三星S26本地大模型即将登场,端侧AI能否打破联网桎梏? 端侧AI 端云协同 三星Galaxy S26 本地大模型 第1张

(图源:Oneleaks)

事实上,早在2023年三星便展示过一款名为“高斯”的本地大模型,并有消息称该模型已在Galaxy S25系列中预装。然而不知何故,三星此后一直主推Google的Gemini,“高斯”几乎被淡忘。直至近日,三星本地大模型才再次进入公众视野。

在大多数厂商仍以云端方案为主的当下,三星为何试图将大模型真正塞进手机?是想借此实现“弯道超车”,还是移动硬件已具备本地部署大模型的能力?无论答案如何,手机AI的新阶段已悄然拉开序幕。

端云协同仍是厂商的长期选择

倘若三星真的将大模型部署至本地,是否意味着手机AI即将彻底放弃端云协同,全面转向纯本地运算?事实上,短期内这一设想难以落地。

端云协同在当下的手机AI体系中堪称近乎完美的方案。云端负责承载大规模模型、执行复杂推理以及快速迭代,其背后依托的是云服务器充沛的算力资源,也更便于模型统一更新、集中管控与安全审查。而端侧则负责接收用户的第一道指令,如唤醒、语音识别、初级意图判断,再将复杂请求转交云端处理。

这种分工逻辑对于偶尔使用AI的用户而言并无明显短板:查询一条信息即便多等一两秒,也不致大幅影响体验;对厂商来说,该模式几乎不占用手机额外资源,性能稍弱的机型亦可流畅使用。而三星Galaxy S26系列的内置大模型策略,大概率不会下放至旧机型,这便是两者本质差异。

三星S26本地大模型即将登场,端侧AI能否打破联网桎梏? 端侧AI 端云协同 三星Galaxy S26 本地大模型 第2张

(图源:三星)

但问题在于,这套逻辑成立的前提是AI的使用频率维持在一个较低的水平。随着手机AI演进方向逐渐清晰,厂商的目标已从“帮你找答案”升级为“替你完成任务”。AI不再仅仅是一个对话窗口,它开始尝试理解屏幕内容、拆解任务目标、规划执行路径,最终构成完整的AI Agent闭环。

一旦AI进入如此高频、连续且系统级的交互场景,端云协同的短板便会迅速暴露。例如在弱网环境下,云端响应延迟会制造明显的操作断点;连续指令执行时,网络中断可能导致整个流程停滞不前。对用户而言,效率受损显然难以接受。

正因如此,近期厂商频频谈及“端侧大模型”,并不意味着它们要彻底舍弃云端,而是希望将更多即时判断与关键决策保留在设备本地。端云协同依然是当前阶段的最优解。

端侧大模型,落地难在何处?

既然端云协同存在短板,那么为何本地大模型在手机端迟迟难以普及?其实并非厂商不愿尝试,而是制约条件过于明显。

首先是硬件约束。内存、算力与功耗是端侧AI必须跨越的三道门槛。即便模型规模并不夸张,只要需要常驻后台,就会持续占用系统资源。单是内存这一项,已迫使苹果提升了iPhone的运行内存规格。

其次是稳定性与维护成本。云端模型可快速迭代、即时修复漏洞,而本地模型一旦部署,优化节奏便只能跟随系统更新。对于系统级AI而言,这意味着更高的风险及更昂贵的测试成本。

三星S26本地大模型即将登场,端侧AI能否打破联网桎梏? 端侧AI 端云协同 三星Galaxy S26 本地大模型 第3张

(图源:Oneleaks)

但进入2025年,情况发生显著变化——芯片性能的跃升使手机纯端侧大模型几乎成为可能

以第五代骁龙8至尊版为例,高通披露其Hexagon NPU在本地生成式任务中已能达到约200 token/s的输出速度。这一指标意味着,端侧模型已具备连续、自然语言生成的能力,而这种连续性正是AI执行复杂交互指令的必要前提。

无独有偶,联发科天玑9500在NPU 990上引入了更为激进的能效设计。官方数据显示,在3B规模的端侧模型上,其生成效率提升的同时,整体功耗反而明显下降。这表明端侧模型不再只是“勉强跑通”,而是开始具备切实的常驻可行性。

搭载最新一代旗舰芯片的新机们,或多或少都已利用芯片算力红利,推出了各类AI交互功能。例如荣耀YOYO智能体在Magic8 Pro上已可支持超过3000个场景的自动任务执行。

即便如此,纯端侧AI要实现复杂任务依然困难重重。

就连被爆料将内置本地大模型的Galaxy S26,也需要通过定期清理系统资源来保障模型常驻运行。这本身已说明,完全依靠端侧模型承载复杂AI任务,短期内仍不现实

端侧AI不会“掀桌”,却将成为旗舰机分水岭

从当前主流厂商的技术路线来看,端云协同依然是最稳妥的选择。

以华为为例,小艺仍是国内系统级AI助手中完成度最高的一套方案,覆盖语音交互、系统控制、跨设备协同等多个维度。然而其核心架构依然是典型的端云协同——端侧负责感知与基础理解,云端承担复杂推理。

这并非厂商“做不到端侧”,而是基于现实的取舍。当AI开始深度介入系统和服务层,稳定性、效率与资源控制,永远比激进部署更为重要。

与此同时,今年最引人瞩目的变化,是AI开始尝试接管“操作权”。豆包手机助手率先将大模型能力前移至手机交互层,让AI不再停留于问答,而是直接理解屏幕内容、规划操作路径,甚至模拟用户完成跨应用行为。这一模式瞬间点燃行业热情。

三星S26本地大模型即将登场,端侧AI能否打破联网桎梏? 端侧AI 端云协同 三星Galaxy S26 本地大模型 第4张

(图源:豆包手机助手)

豆包手机助手、华为小艺、荣耀YOYO、小米超级小爱等开启“自动驾驶”模式的手机AI,本质上都指向同一个方向——正如前文所述,这是下一代AI手机必备的核心能力。

无论如何,端侧大模型不会在短时间内彻底颠覆手机AI的整体格局。无论是三星、华为,还是国内各大厂商,当前阶段仍不约而同地选择端云协同方案。

毕竟,手机并非为大模型而生的设备,它必须在性能、功耗、稳定性与安全之间寻找平衡。一旦AI开始深度介入系统操作,就绝不能以牺牲用户体验为代价,这也是厂商不会贸然跟进的根源。

从这个角度来看,端侧大模型或许不会成为手机发布会上的“高光时刻”,但它将悄然抬高旗舰机型的技术门槛,令具备端侧能力与仅依赖云端的AI手机在功能体验上拉开差距。而这道分水岭,也许在不久的将来便会清晰显现。