当前位置:首页 > 科技资讯 > 正文

AI革命:人机融合共生的五大法则

AI革命:人机融合共生的五大法则 人机融合 AI交互 算法偏见 AI惰化 第1张

2015年,IBM将其最先进的超级计算机系统Watson引入医疗领域,担任“AI医生”的角色。

这台机器掌握了13种癌症(包括乳腺癌、肺癌、直肠癌等)的海量诊疗知识,能够在几秒钟内读取一名患者的全部病历,并进行多轮推理判断,最终输出详尽且高质量的治疗方案。这听起来非常理想。然而,几年后,众多医疗合作伙伴纷纷放弃该项目,Watson Health也被IBM出售。

问题究竟出在哪里?并非算法不够强大,而是项目从一开始就忽略了一个关键事实:医生不是来执行命令的,而是需要协作的伙伴。

类似的故事每天都在发生。某便利店的创始人坚信“每一个涉及人的环节都会降低效率”,于是投入一整年时间,用AI中央大脑接管了便利店从选址、订货、商品陈列到日常运营的全部决策。例如,在学校旁边的一家店,下午3点学生即将放学,系统判定应将零食摆放在最显眼的位置。于是店员收到指令:3点05分前必须将零食移至门口,否则扣款。结果呢?许多员工感到缺乏成就感,觉得自己只是工具人,而这种负面情绪也传递给消费者,使他们感受不到服务的温度。不久后,这家便利店流失了大量顾客。

技术的指数级增长与人类认知的线性演进之间,存在一条巨大的鸿沟。

这正是复旦大学管理学院卢向华教授在新书《AI革命:人机融合共生的五大法则》中试图解决的核心问题:当AI日益强大,人类该如何应对?企业又该如何管理?为此,她提出了人机融合共生的五大法则。

法则一:AI技术交互能力优化

人类天生不信任黑箱。

学术界有一个著名的“门卫问题”:夜店门卫可以用任何理由拒绝你,比如“你不该穿帆布鞋来”,但真实原因可能是肤色。你无法验证,因为在门外你看不到店内是否有人穿着帆布鞋。

算法也是如此。它可以轻易隐藏真实的决策依据,导致用户本能地产生抗拒。

如何破解?三个关键词:拟人化、透明性、可靠性。

拟人化不难理解。当AI客服能识别你的情绪并以恰当的语调回应时,你会觉得它不是冷冰冰的机器。研究显示,拟人化的AI更容易获得信任,甚至在服务失败时,用户也更愿意原谅它。

但这里存在一个陷阱:恐怖谷效应。当AI过于接近真人,用户反而会感到恐惧和不安。更麻烦的是,高度拟人化的AI会让用户产生不切实际的期望——既然你像人,就应该像人一样聪明。一旦期望落空,失望便会加倍。

因此,正确的做法是:根据场景调整拟人化程度。处理简单查询的客服,低拟人化就足够了;涉及复杂决策的金融顾问,需要高智能配合高拟人化;而涉及敏感信息的健康咨询,反而应该“智能但不拟人”——用户更愿意向明显是机器的对象袒露隐私,因为它不会嘲笑你。

透明性同样重要,但并非越透明越好。有研究发现,当企业向员工披露AI绩效评分的使用方式后,被AI打低分的员工反而更不愿意努力——他们将低分当成了无法改变的锚点。

可靠性则是底线。所有的拟人化和透明性都是锦上添花,只有可靠性才能决定用户是否会长期使用。谷歌的AI搜索功能上线后,有用户询问如何将芝士粘在披萨上,AI建议“加点胶水”——因为它从Reddit上学到了一个11年前的玩笑。结果这个功能的使用意愿暴跌至7%。

法则二:用户协作行为主动管理

用户对AI的态度,往往在两个极端之间摇摆。

一端是抗拒。有一个有趣的实验:研究者设计了两组客服场景,服务人员完全相同,但一组被告知“这是真人”,另一组被告知“这是数字人”。结果呢?被标注为数字人的那组,满意度低了10—15个百分点。明明背后也是真人在服务,用户就是不喜欢。

这种现象被称为“物种歧视”。人类对AI天然存在偏见,即使它表现得更加客观、公平。

另一端是过度依赖。2018年3月,美国亚利桑那州一辆配备安全员的Uber自动驾驶汽车撞死了一名骑自行车的人。警方事后分析发现,如果安全员一直专注道路,本可以在受害者前方12.8米处停下。但他没有,因为他认为有AI在,不会出大问题,自己可以完全放松。

这种现象叫“AI惰化”。当机器越来越能干,人就越来越想偷懒。GPS让人丧失方向感,计算器让人忘记心算,ChatGPT正在让创意变得同质化。有研究发现,使用GPT的用户在前五天创意能力显著提升,但到第七天关闭GPT后,创意水平直接回落到原点——而且同质化的倾向仍然保留。

企业需要主动管理这两种极端。对于抗拒,可以增强技术的社交属性,让AI不只是工具,而是“伙伴”;对于惰化,可以通过延迟展示AI建议、要求用户先提交自己的判断等方式,强制用户动脑。

有一个医学影像诊断的实验很有意思:当医生被要求在看到AI建议之前先提交自己的初步判断时,他们与AI的盲从率显著下降,决策质量反而提高。

法则三:人机互补,1+1>2的秘密在于分工

回到开头那个便利店的故事。它的对立面是什么?

一家大型药房。他们也使用AI,但用法不同。药师输入病症后,AI推荐主药、辅药和关联用药,药师可以采纳,也可以自行搜索。最终统计发现:完全依赖AI的订单、完全靠药师自主搜索的订单、人机协作的订单,比例大约为20%、37%、43%。

哪一组效果最好?人机协作组。推荐的药品数量最多,消费者的接受度也最高。

这说明了什么?AI的价值不会自动实现,它需要人来激活。

关键在于分工。任务可计算性高的,让AI主导;任务主观性强、需要同理心的,让人主导;复杂任务则需要人机协同。例如电话营销,AI负责拨打电话、收集信息、筛选意向客户,人类销售则负责深度沟通、促成交易。研究发现,这种分工能显著提升人类销售的创造力。

更进一步,人和AI还需要互相学习。AI通过机器学习不断进步,人通过与AI协作不断成长,形成螺旋上升的循环。清华大学的研究者提出了“AI力”的概念——个体在AI时代所需的能力框架。好消息是,这种能力是可以培训的。

法则四:组织AI管理策略适配

AI不仅改变个人,也在重塑组织。

世界经济论坛预测,五年内AI将使工作岗位净减少1400万个,但长期来看,会创造约12%的新增岗位。关键是:被取代的人,并不能轻易获得新岗位。

这意味着企业需要重新设计岗位、重新培训员工、重新分配责任。

尤其是责任。当AI参与决策,出了问题谁负责?目前法律不承认AI是责任主体,但企业不能因此逃避管理责任。有些平台直接在界面上标注“该结果由AI自动生成,仅供参考”,这种做法短期规避了风险,长期却在摧毁用户对AI的信任。

更好的做法是:让AI展现“愿意负责”的姿态。卢老师自己的研究发现,当AI医生主动指出用户的医疗常识错误时,用户反而觉得它更负责任、更愿意使用。这种“主人翁精神”的行为设计,比免责声明有效得多。

法则五:AI社会公平性保障

算法偏见无处不在。亚马逊的招聘算法会自动降低包含“女子”字样简历的权重;ImageNet数据库里,“失败者”“犯罪分子”这样的标签,反映了标注者的偏见;大数据杀熟,则是算法在“合法”地歧视老用户。

问题出在哪里?训练数据有偏差,算法设计有漏洞,优化目标有缺陷。

解决方案需要多管齐下。例如,在技术上,改进数据采集、增强算法透明性、引入公平性约束;在企业层面,建立AI伦理准则、设立审查委员会;在社会层面,完善法律法规、加强行业自律。

这不仅是技术问题,更是价值观问题。

尾声

正如刘易斯·芒福德在《技术与文明》中所言:“所有伟大的物质发明背后,不仅是技术的演进,更有思想的转变。”

每一次技术革命,都伴随着人与技术的博弈。蒸汽机时代如此,互联网时代如此,AI时代也不例外。但博弈的终点,从来不是谁取代谁,而是如何实现共生。

这本书提出的五大法则——交互能力优化、用户行为管理、人机互补增强、组织策略适配、社会公平保障——并非让你对抗AI,而是让你学会如何与AI共舞。毕竟,AI的价值,最终要靠人来体现。