
12月1日,一款名为豆包的AI手机助手正式登场。
豆包助手展现出惊人的自动化能力:它成功窃取了蚂蚁森林能量;在B站,它自动完成答题并领取会员;有用户指令它从相册中找出昨日照片并通过微信发送给母亲,任务顺利完成。
然而,好景不长,上线不到两天,豆包助手便遭到微信的屏蔽。随后,支付宝、淘宝、美团等平台也相继拒绝豆包助手打开它们的应用程序。
风波未平,AI创业公司智谱又于12月9日深夜开源了AutoGLM,并喊出响亮口号:“让每台手机都成为AI手机,AI手机不该掌握在少数厂商手中”,此举迅速拉升了AI手机概念股。
在《OpenAI和豆包栽在了同一个问题》一文中我曾预言:接下来会有更多“手机助手”试图闯入你的微信、抖音和支付宝。没想到这一天来得如此之快。
豆包手机助手的震撼效应甚至传到了大洋彼岸,有开发者在X上感叹:“这是我见过第一个真正能用的AI手机助手,绝非Siri那种‘帮你设个闹钟’的玩具级功能,而是能跨应用执行复杂任务链的利器。”
它充分展示了GUI Agent的巨大潜力——
无需App开放API,Agent直接“观察”屏幕理解界面;无需人工训练每个App的操作路径,Agent自主学习,跨应用无缝切换,完成完整任务链。
难怪X上也有评论称:“这是iPhone问世以来,手机交互方式最大的一次革命”。
豆包手机助手的实践证明:GUI Agent作为一种产品形态是可行的,用户需求真实存在。搭载豆包助手的Nubia M153工程机在闲鱼上热销,热度远超99%天天上播客和demo day的AI创业项目。
而智谱AutoGLM的开源,则巧妙地在豆包完成市场教育、踩过所有雷点之后,以“开源英雄”姿态收割了关注度与认知。
它采用了更“高明”的技术路径:ADB+视觉识别方案,在“云手机”虚拟环境中操作,模拟人类手指点击屏幕的行为,使平台风控难以区分真人与AI,且无需获取高级系统权限。
AutoGLM借此享受开源声誉红利,却无需承担产品法律风险——用户如何部署是用户的事。但问题在于:配置ADB、开发者模式、部署9B推理模型,普通人难以完成。闲鱼上已出现“100元代部署AutoGLM服务”。
坦白说,我认为智谱AutoGLM开源对推动智能手机AI化的实际意义相当有限。
相较于豆包试图让部分用户先体验“AI原生”手机的诚意,AutoGLM更多是秀肌肉、博眼球,并提供了一种看似能绕开微信、支付宝等平台“封禁”的技术漏洞,但终究会被堵上。已有开发者反馈:自己部署的AutoGLM已被微信封禁。
该解决的根本问题依然悬而未决,Super Agent与Super App之间的关系仍是一片混沌。
一句话,AI手机的发展需要产业广泛共识,需要Super Agent与Super App之间的深度协商。
中国移动生态极度发达,互联网巨头围绕App建立的流量、护城河、生态和利益太过庞大,这已成为推动手机AI化的历史包袱——任何打破现状的举动都会让巨头们如坐针毡。
但变革的浪潮终将到来。
豆包助手暴露的核心矛盾在于:努比亚授予了AI系统级权限,但App厂商并不认可。
中间缺失的环节是:谁有权授权AI操作第三方App?
模拟用户点击、滑动、输入,是豆包从努比亚获得的合法能力,属于手机操作系统赋予的权限。但微信用户协议明确禁止“外挂软件”,任何模拟行为均属违规。
此时,为何不能引入“AI代理操作认证体系”?如同网站通过SSL证书证明身份与安全性,AI Agent为何不能拥有“可信代理”认证?
该体系至少能解决三大问题:第一,证明AI身份——归属哪家公司、技术架构如何;第二,证明AI授权——用户指令与授权范围是否匹配;第三,证明AI安全性——具备安全措施、操作日志和责任保险。
当年支付宝诞生时,银行也曾抵触:你凭什么代替我与用户交互?这是我的客户,你凭什么中间插一手?后来,第三方支付牌照的推出解决了争议。规则确立:满足条件即可从事第三方支付,不满足则禁止。银行可自主选择对接与否,但必须遵循统一标准。
同理,AI Agent也需要类似的“代理操作认证”体系,它未必是牌照,而是一套通用技术标准。任何模拟用户操作的行为都不能随意进行,但只要符合标准、通过认证,平台就无权无理由拒绝。
各位别再争执了。美国人最擅长制定这类技术共识标准,我们若达不成共识,最终只能被动接受OpenAI和Anthropic制定的规则。
聊天记录、支付记录、打车订单的所有权、使用权、授权权究竟归谁?
App方认为:用户数据产生于我的平台,属于我的资产。我投入服务器、带宽、运维成本,提供免费服务,数据自然包含我的权益。何况用户协议中已授权我使用数据优化产品、推送广告。
用户则认为:这是个人隐私、我的聊天内容、与朋友的对话,为何不能授权自己的AI查看?我授权AI整理聊天记录、提取重要信息、提醒未读消息,这是我的正当权利。
AI模型与Agent提供者认为:在用户授权下,我可以读取、分析、使用这些数据提供服务,不会泄露给第三方,不会用于模型训练(除非用户同意),我只是代表用户行使权利。
此时,确立“数据所有权归用户”的至高原则至关重要,它是一切用户授权、AI代理与App安全机制的基础。
具体包括以下几点:
用户在平台产生的内容与行为数据,最终所有权属于用户本人;平台提供服务,但不拥有数据。
数据使用权可被授权:平台有权按用户协议使用数据(如推荐算法、个性化广告),用户同样有权授权第三方AI使用数据,这两者不应冲突。
平台拥有安全审查权,但不能无理由拒绝——只要AI通过认证、证明安全性,就不应轻易被屏蔽。
Super Agent必然触动Super Apps的利益蛋糕。
因为人的浏览行为被Agent取代,推荐算法构建的注意力机制将面临颠覆,进而影响广告收入、流量分发收益乃至会员收入。
但Super Agent自身呢?如果它仅削弱平台收入,而自身GPU算力、模型研发与优化成本居高不下,最终无人受益,游戏将陷入双输或多输局面。
在此背景下,重新想象和创造商业模式势在必行。
OpenAI与亚马逊关系紧张,但与沃尔玛的合作却提供了范例。目前沃尔玛36%的线上流量来自OpenAI,尽管尚未听闻分成协议,但这难道不值得想象?类似于搜索引擎的CPC模式:每有一个用户通过ChatGPT跳转至沃尔玛,沃尔玛便向OpenAI支付费用。
再如Agent订阅费——若AI购物每年能为用户节省2000元,月付20元订阅费并不过分。这笔收入,Super Agent理应分给Super Apps一部分。正如爱奇艺会员可付费跳广告,YouTube从订阅费中分成给创作者。
此外,增值服务分层设计是否可行?基础功能免费但限次数,仅用于常规任务。若用户有强烈需求,如让Super Agent自动回复微信、管理支付宝账单、操作滴滴会员卡等高级功能,则需付费——即执行复杂任务链、跨平台操作、处理敏感信息,甚至企业定制化,所收费用应与Super App分成。
此问题不解决,平台抵制将持续,这完全可以理解。
把“我爱你”错发给男老板而非女友,欲转100元却转了10000元,Agent误删重要联系人,清理垃圾时删掉关键工作文档……这些事故责任谁担?
许多人忽略了,AI犯错的成本往往高于人类——因为AI操作速度极快,一秒可完成人类一分钟的任务,出错也是大规模出错,人类想挽回都来不及,标准的手慢无。
AI被黑客攻击怎么办?钓鱼邮件和诈骗电话能骗人,就骗不了AI?AI的反诈意识一定强于老人?AI在社交平台发布不当内容,被封号谁负责?AI若发现刷单能赚钱、用假账号领红包,它会学会作弊吗?AI通过学习优化,若目标是省钱,作弊或许是最有效方式,它真的不会作弊?
为规避这些风险,“沙盒”模式至关重要。目前豆包助手采用预览操作步骤、用户确认后执行,并实时显示过程,这已蕴含沙盒思维,本质是确认机制。
另一种方式是:AI先在虚拟环境“练习”,熟练后再上真机。敏感操作必须在沙盒预演,系统模拟执行生成预览,用户看到“如果执行将发生什么”,确认无误后,才在真实环境执行。无需用户手动操作,但至少需一次确认。
在此基础上,建立分级确认机制同样可行。无需所有操作都确认,那样体验太差。根据风险等级设计流程:读取信息无需确认;发消息、社交媒体等常规操作,弹窗简单确认;支付、转账、修改密码、保存与删除数据,需多重验证。
此外,用户应有随时喊停AI的权力,一键中断所有操作,如同电梯的紧急停止按钮。AI发现异常也应自动停止——银行和自动驾驶企业已有先例,AI Agent服务提供者理应效仿。
一句话,让用户承担全部风险是不公平的。
豆包手机助手掀起的波澜,若说真正有意义之处,恐怕有两点:
第一,它向世人证明:GUI Agent可以成为真正的Super Agent,它创造了手机交互的变革,引发兴奋、争议、喧哗与骚动,让人们看到AI可以与你并肩操作手机。
第二,相较于许多手机厂商的Agent尝试,它首次直捣黄龙,代理一群追求技术进步的尝鲜用户,“操作”了他们的Super App,如微信、支付宝、美团和京东,使如何建立AI Agent产业标准、如何思考近20岁的App物种在AI时代的变革等问题,变得无可回避。
接下来,需要的是共识,以及为达成共识而持续进行的博弈。
本文由主机测评网于2026-03-05发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260328835.html