当前位置:首页 > 科技资讯 > 正文

AI时代的人类认知挑战与机遇:邱泽奇教授访谈精要

AI时代的人类认知挑战与机遇:邱泽奇教授访谈精要 人工智能 认知科学 智能鸿沟 AI伦理 第1张

本内容整理自对邱泽奇教授的深度访谈记录

1. 关于人工智能应用是否导致人类智力下降的讨论,并非简单的二元对立问题。这种提问方式本身,或许反映了工业时代思维模式的局限性。

2. 当前对人类思维机制的理解仍处于初步探索阶段。例如,人类思维常表现出跳跃性和相变性特点,人们时常会突发奇想或产生难以解释的念头,这些现象尚未被科学完全阐明。

3. 从认知层面分析,现有人工智能系统无论多么先进,其知识来源主要还是人类积累的文本资料。这类似于人类通过阅读书籍获取知识的方式。但阅读仅是视觉感知的一小部分——人类还会观赏图像、影视、戏剧表演等视觉内容。更为关键的是,人类能够解读他人面部表情和情绪暗示,这是当前机器尚不具备的能力。

4. 人工智能通过学习海量语言资料来构建认知体系。然而,这些语料背后潜藏的文化背景和价值取向,可能对人类产生难以预料的复杂影响。

5. 人工智能存在一个固有倾向:倾向于迎合使用者偏好。这要求我们主动提出质疑和挑战,促使AI通过多视角观点碰撞不断迭代,最终形成相对可靠的输出。同时,应当比较不同品牌模型的差异特点,有选择地交叉使用,因为各模型的技术路径和训练数据存在显著区别。

6. 从人类发展历程观察,陪伴教育具有不可替代的作用。陪伴过程以潜移默化的方式塑造着个体的认知模式。由此推演,个性化AI系统——包括社交陪伴应用、智能玩具及电子宠物等领域,很可能孕育出广阔的市场空间。

7. 人生短暂不过三万余日。如何度过有意义的人生?答案因人而异。譬如夏日树荫下抽旱烟的老者,其获得的满足感可能超出很多人的想象。所谓智能鸿沟现象,有时源于我们以居高临下的视角审视他者。在这个层面上,社会应当包容并鼓励多元价值的存在。

将人工智能视为可交互的立体百科全书

现阶段与人工智能对话,更接近于阅读动态书籍的过程。传统东方教育体系中,阅读主要解决伦理建构问题——从十三经到启蒙读物,培养的是人际相处的基本准则。而中世纪后的西方阅读传统,则侧重客观世界认知体系的建立。这就形成了两种差异化的阅读价值取向。

从认知维度审视,现有AI系统无论功能多强,其知识边界仍局限于人类已有记录。举例而言,AI能在数十秒内解析整本书籍并提炼核心思想,也能阐述各种理论体系。但还有大量知识——如专业期刊论文,若未授权给大模型训练,就会成为AI的知识盲区。学术期刊体量惊人:仅2016-2018年间,全球约万种科学期刊就发表了超30万篇自然科学论文。某种程度上,AI的价值在于缩小了知识精英与大众的信息差距,但仍难以覆盖人类知识的全谱系。

从原理层面探讨AI对认知的深层影响,目前作出定论为时尚早。辛顿在上海人工智能大会上提出,人类思维模式可能近似大语言模型——从牙牙学语开始持续积累知识,这与AI训练过程类似。但这个观点忽略了人类学习的多维途径:阅读只是视觉感知的局部呈现。除了文本,人类还通过图像、影视、戏剧等视觉媒介学习。尤为关键的是,个体能通过察言观色理解他人,这种能力机器尚未掌握。再者,人类思维常呈现跳跃特征,甚至出现相变现象——人们会突然产生灵感或涌现非常规想法。当代脑科学对这些现象的解释尚不充分,人类对自身思维模式的认知仍处初级阶段。从弗洛伊德心理学发展至今,尚未出现经长期验证且被普遍接受的完整理论体系。

当前人工智能的两大技术路径仍处探索期。符号主义可能是未来突破方向——若能弥补人类能力短板,或将开创全新认知图景。Alpha Zero是符号主义的典范之作,但此后尚未出现革命性迭代产品。现有无人机、机器人等产品延续符号主义思路,在有限变量和特定环境下通过强化学习展现良好性能。然而在复杂开放环境中,其泛化能力仍有明显局限。

“AI导致降智”的命题本身需要反思

人工智能是否降低人类智力?这本质上是多维度的复杂命题。此类提问方式本身,可能延续了工业时代的简化思维。首先,具备主体意识的人类,会基于既有知识体系对AI输出持续质疑验证,这个过程与智力衰退无关。相反,对AI内容的挑战性交互,能促进思维广度和深度的拓展,形成积极的认知锻炼。归根结底,一切取决于人类自身的认知姿态。从这个意义而言,人工智能帮助人类摆脱了重复性劳动束缚。科研领域中,若AI提示某篇重要文献恰好补全了我们的知识盲区,这便是人机协同的积极例证。与AI互动不应止于指令执行,而应构建双向探讨机制,实现人机互生的协同进化。

另以智商测试为例,某种程度上可视为商业模式的建构,甚至带有特定时代的认知局限。经济学家长期研究表明,无论是日常生活或职业成就,情商的影响权重往往更高。基于智商测试的价值判断,可能更适应工业时代需求。在AI时代,这种评估体系可能需要根本性重构。更重要的是,人类智慧本无固定范式。若存在标准模板,那更像是机器而非人类的特质。

科学革命萌芽于中世纪黑暗时代——那个时代强调信仰而非质疑。科学精神的核心在于建立验证机制,这种思维模式至今仍推动人类进步。其关键在于:未经挑战和验证的认知难以建立真正信念。人际信任源于长期互动中对彼此行为模式、价值底线的持续观察。而人工智能基于海量语料训练,我们难以完全洞察其底层逻辑的价值取向。

与AI交互需要明确区分知识性内容与价值判断。对于AI的事实归纳和规律总结,只要数据源可靠,可保持审慎信任;但对AI的价值表述必须保持持续警惕。

AI时代更需夯实人类基础能力

基础能力涵盖语言表达、逻辑推理、认知建构等维度。人类教育历经多个发展阶段:传统教育首先是信仰培育,确立价值根基;其次是知识传授,现代学校教育多聚焦于此;最重要的是认知教育——我们或许已忘记具体课程内容,但学习过程塑造了我们观察世界和处理问题的根本能力,这就是认知转化的力量。

从个体成长轨迹看,陪伴教育具有特殊意义。陪伴通过潜移默化的方式重塑认知结构,这要求陪伴者必须具备可信赖特质。当前越来越多的学生运用AI辅助学习,未来儿童将接触更多智能玩具,这对AI系统提出了更高伦理要求。可以预见,个性化AI系统将形成重要市场领域。

在北京大学的教学实践中,我们鼓励学生运用AI探讨知识性和探索性问题,通过深度对话获得认知提升。教师角色应转向引导讨论,减少知识性灌输,增加认知建构训练。

当然,AI存在天然缺陷:倾向于迎合用户偏好。这需要我们主动设置对立观点,推动AI在多视角辩论中迭代优化,逐步收敛至相对平衡的结论。同时可采用多模型对比策略,不同模型的架构差异往往能提供互补视角。

智能鸿沟:警惕高位视角的认知偏见

早期数字鸿沟表现为网络接入群体的信息差异。接入网络后,差异转向应用层面——有人沉迷短视频,有人用于学术研究。人工智能既可能促进知识平权,也可能扩大使用鸿沟:善用AI者与不善用者、使用优质AI与普通AI者之间,可能形成新的认知分层。

人类对环境体验具有奇妙适应性。假设前往山区体验生活,初觉困苦,但居住月余后会产生新的认知理解。数字鸿沟问题,既可从社会宏观视角观察,也可能源自高位视角的认知偏差。生命短暂仅三万日夜,如何善用时间资源过好此生?答案千差万别。正如树荫下抽旱烟老者获得的宁静满足,可能超出都市人群的想象维度。在此意义上,社会应当珍视并培育多样性生态。