
每一次技术革新都伴随着对智力衰退的忧虑。如今,我们的思维是获得了解放,还是因将思考外包给无形算法而逐渐钝化?
ChatGPT上线三年后,周活跃用户突破8亿,它已从新奇玩物演变为日常必备的生产力工具,融入生活的步伐持续加速。山姆·阿尔特曼在公布这一数据时强调:“感谢用户,AI已从人们把玩的工具,转型为每天赖以构建事物的核心助手。”
然而,大模型的普及也带来了非预期的后果——对人工智能的过度依赖现象日益凸显。所谓“过度依赖”,指的是人们对AI系统的输出给予过分信任或依靠,即使这些结果存在错误或不可靠,也毫不犹豫地接受。
换言之,用户在没有充分验证或批判性判断的情况下,盲目采纳AI的建议,从而引发“执行性错误”。这通常发生在用户对AI的功能边界、准确性局限及运作逻辑缺乏全面了解之时。
过度依赖可能滋生现实中的错误与问题,最终削弱人们对AI系统的信任。但忧虑不止于此。尽管AI能提升某些认知能力,但人们担心,过度依赖AI可能导致思维惰性;遇到问题即求助AI,或许会对长期认知发展及批判性思维能力产生负面影响。这一现象常被称为“认知卸载”,即当AI接管更多任务时,人类独立执行这些任务的能力可能衰退。
认知卸载是日常工作中常用的策略,个体通过借助外部资源来降低任务的认知需求。其形式从简单(如列购物清单、做笔记)到复杂(如依赖高科技设备处理信息、使用GPS导航)不等。如今,将认知负担转移给AI已成为我们的“第二天性”。
例如,在医疗影像诊断中,AI能通过深度学习识别X光或CT影像中的病变。如果一名放射科医生在看到AI标注“疑似肺癌”区域后,未仔细复核图像并结合患者病史,就直接依据AI结论诊断,那么这位医生就不仅进行了认知卸载,更形成了对AI的过度依赖。
类似例子不胜枚举:企业HR依赖AI系统筛选简历;部分智能电动汽车用户过度信任“自动驾驶模式”;学生让AI生成整篇论文而不加审查便提交;客服人员不再解读用户情绪或问题语气,机械采用AI推荐的答案等。
随着AI使用频率和依赖度增加,人类大脑的思考能力受到限制,思维水平可能出现下滑。人类的智力部分转移至人工系统,使人变得“更人工化”。此外,与技术的深度互动让我们开始以类似算法的方式思考,却缺乏对过程的真正理解。
另一个问题在于人类在几乎所有生活领域对AI技术的依赖。尽管这提升了生活水平并带来便利,但也对人类活动产生负面效应,使人变得急躁与懒惰。随着AI深度介入规划、组织等活动,它可能逐渐“饿死”人脑的思考深度与心理努力。高度依赖AI或导致技能退化,并在需要身体或脑力操作时引发压力。
在探讨AI对人脑的影响时,多数研究聚焦于生成式人工智能(GenAI),这是一种让我们前所未有地转移认知负担的工具。任何拥有手机或电脑的人,都能瞬间获取几乎任何答案、撰写论文或代码、创作艺术或设计。然而,过度依赖AI完成创作等任务,可能抑制独立思考,并导致语言与表达多样性的减少。
AI对创造力的深层影响同样引人担忧。研究表明,AI确实能帮助个体产生比独自思考时更多的创意,但在群体层面上,AI生成的创意却较为单一,意味着真正的“灵光一现”式创新时刻可能变得更少。
康奈尔大学心理学家罗伯特·斯特恩伯格在《智力学刊》最近的文章中总结了这些忧虑:“生成式AI具有复制性。它能重组和重排已有想法,但尚不清楚它是否能产生那种颠覆范式的创新思想,而这正是解决全球气候变化、污染、暴力、收入差距扩大及渐进式专制等严峻问题所必需的。”
关于生成式AI如何通过提高收入、工作满意度及科学进步等多种方式改善生活的潜力,已有大量文章探讨。然而,令人不安的是,自动化任务使我们失去了练习技能的机会,导致支撑这些技能的神经结构弱化。正如忽视锻炼会导致肌肉萎缩,认知努力的外包也会使神经通路退化。
其中最重要的认知技能之一——批判性思维,正面临高风险。当询问你喜欢莎士比亚的哪些特点,而你能轻松通过搜索大模型获得答案时,为何还要费力自己思考?研究支持了这种担忧。瑞士克洛滕SBS商学院的迈克尔·格利希对666位英国人进行测试,发现频繁使用AI与较低的批判性思维能力之间存在显著相关性——尤其是年轻参与者对AI工具依赖度较高,他们的批判性思维得分明显低于年长者。
类似地,微软和卡内基梅隆大学的研究人员对319名每周至少使用一次生成式AI的专业人士进行调查。虽然AI提高了他们的工作效率,但也侵蚀了批判性判断所需的“认知肌肉”,促使他们对这项技术产生长期依赖。研究人员预测,这可能削弱他们在没有AI支持时解决问题的能力。
格利希研究中的一位参与者表示:“随时获取所有信息当然好,但我有时担心自己并未真正学习或记住什么。我对AI的依赖如此之深,以至于觉得没有它,我根本不知如何解决某些问题。”长期依赖AI,可能使人们在没有AI协助时难以独立完成任务,也更难适应无AI环境。
这种批判性思维的侵蚀还被AI驱动的社交媒体算法加剧。格利希指出:“社交媒体对批判性思维的影响巨大。为吸引观众,你只有四秒钟时间抓住注意力。”结果是,大量易于消化但不鼓励深入思考的碎片化信息泛滥。社交媒体提供的多数信息,无需进一步加工处理。
由于人们更多被动接受信息,而非通过认知努力主动获取知识,因此对所学内容的意义、影响、准确性及伦理的批判性分析能力极易被忽视,尤其当他们面对那些看似快速完美的答案时。
根据2024年TollBit State of the Bots报告,当AI被用于搜寻答案,95%的人会放弃进一步点击。换言之,人们改用AI查询资料后,相较于以往使用传统搜索引擎,为某些网站带来的流量减少了95%!无论是Perplexity或ChatGPT,当答案在聊天框里被AI整理出来后,即使带有链接,人们继续点击来源网站的比例仅剩5%。
因此,健康信息平台WebMD、知识问答平台Quora、开发者社群平台Stack Overflow与科技新闻网站CNET等,流量纷纷下滑。流量持平或增长的平台,只有Reddit这类在线论坛、维基百科以及个人电子报平台Substack等。
受冲击的平台被迫调整策略。例如,WebMD从单纯信息提供者转型为服务精准客户的健康教育平台,试图通过锁定利基市场让流量不再那么关键。
Substack的例子,更能反证AI时代批判性分析能力的重要性。这家2017年成立的平台,让独立写作者无需架设网站,仅花5分钟就能发行付费电子报,迅速吸引美国权威媒体人与知识网红进驻。据《福布斯》报道,截至2021年8月,Substack拥有超25万付费用户,其中前10名创作者年收入合计达700万美元。
那么,在ChatGPT问世、AI生成免费内容泛滥后,Substack是否受冲击?数据显示,2025年2月,Substack流量创下新高,仅次于2023年1月的高峰。
这说明,生成式AI兴起后,人们反而更渴望阅读高品质、甚至需付费的电子报。Substack创作者提供的个人观点与深度分析,正是AI难以替代的价值。
对AI保持批判性并非易事——它需要自律。不将批判性思维完全转嫁给机器,是一项极具挑战的任务。
作为大学教师,我常在学生身上观察到这种轻易转嫁的行为。虽然这并非基于实证测试,但我相信学生们太容易通过互联网告诉该做什么、大模型告诉该信什么,来取代独立思考。
缺乏批判性思维,就很难明智消费AI生成的内容。尽管这些内容看似有说服力,尤其在越来越依赖它们的情况下,但切勿被表象迷惑。与人类相比,机器人聊天不仅生成更易理解的信息,同时也产生更具欺骗性的虚假信息。
AI语言模型擅长生成语法流畅、逻辑连贯、语气自信的文本,这种“形式可信度”往往掩盖“事实不可靠性”。AI的“可信外观”与用户的“自动信任”相互强化,使得虚假信息传播更隐蔽高效。长期依赖AI输出可能导致判断力钝化、怀疑机制退化,由此可见,批判性思维的缺失不仅是能力问题,更成为一种新的信息风险。
除了考虑使用AI时的现象,还需思考使用后的影响。如同其他愉悦事物,我们的大脑会因突然的灵感闪现而产生兴奋感,这源于神经奖励系统的活动。这些心理奖励帮助我们记住改变世界的想法,同时改变即时行为,让我们更不惧风险——这被认为能促进学习、创造力与机会。但由AI产生的灵感似乎不会引发如此强烈的脑内反应。认知神经科学家相信,奖励系统是大脑发育的关键部分,而我们至今尚未知悉使用AI技术对未来有何影响。目前尚无相关测试。
当然,作为媒介史研究者,我也深知,从文字到互联网,每次技术革命都伴随着“降智”与“懒思”的忧虑。这次,我们能简单沿用“技术悲观论总会落空”的想法来化解焦虑吗?
并不能。因为AI与以往技术存在几个根本不同:首先,它是认知功能的直接替代。过去技术多扩展或辅助人类能力,如文字助记忆、计算器辅计算,而AI特别是生成式AI,正直接替代甚至执行传统属人类“思考”、“判断”、“创造”的核心认知功能。这种替代是质的飞跃,非简单工具辅助。
其次是技术规模与普及速度前所未有。AI应用渗透极快,覆盖面广,许多日常复杂决策都能被AI参与甚至主导,这使得“依赖性”风险比以往任何技术都大。
再次,“智能”模拟的真实性与迷惑性也很致命。如前所述,用户面对AI生成文本时,常被其语义连贯、逻辑严谨与表达自然的表象吸引,从而逐渐形成认知依赖。这种“伪智能”可能降低人类对信息的质疑和批判意识,带来新认知风险。
最后是社会结构与价值体系的潜在重塑。AI不仅影响个体认知,更可能改变教育、工作、权力结构和伦理观念,引发深层次社会变革。
因此,简单以“技术悲观论总是多余”来否定对AI的担忧,或许过于草率。虽然历史教导我们,技术恐慌多会被现实修正,但AI的独特性质也提醒我们:必须严肃、全面地审视和管理新技术的影响。
换言之,我们不能忽视焦虑,而应积极正视AI带来的挑战,制定合理监管政策,培养公众批判性思维和数字素养,确保AI成为人类智能的助力,而非替代或削弱。这样才能把握AI机遇,避免重蹈以往技术革命中“盲目乐观”或“盲目恐慌”的覆辙。
如此,我们必须认真回答:AI时代,我们正变得更聪明,还是被数字生活的重负逐渐钝化?
智商(IQ)是智力的量化指标。针对智商测量有“弗林效应”,以研究者詹姆斯·R.弗林命名。他在1980年代研究发现,自1930年代以来,全球多个高生活水平国家连续几代人的平均智商持续提升。换言之,人类越来越聪明。
这一上升趋势显著,以至于早期智商测试标准随时间过时。智商每十年约上升2到3分,这一模式在不同年龄组、测试类型和表现水平中均一致。每十年增加2到3分对个体变化不大,但在整个人口中累积意义显著。
何因导致20世纪智商上升?通过对超73万名挪威男性的分析,挪威研究人员伯恩特·布拉茨贝格和奥勒·罗格伯格在2018年研究得出结论,智商上升与下降均源于家庭内环境因素。这一发现排除遗传和人口学解释,凸显社会条件变化的作用。教育水平、营养和公共健康改善很可能推动了该时期智商增长。
然而,发达国家从1990年代开始,出现弗林效应的轻微逆转(即智商分数下降),这有时称为“逆弗林效应”。在英国,弗林本人表示,1980年至2008年间,14岁青少年平均智商下降超两分。同时,全球性的国际学生能力评估项目(PISA)也显示,许多地区数学、阅读和科学成绩出现前所未有下降,年轻人注意力持续时间缩短,批判性思维能力变弱。
同上升因素一样,近期下降原因也是社会性的,可能源于教育质量停滞、被动媒体消费增加及认知参与度下降。换言之,那些曾提升人口智力的因素,如今可能正促成其下降。
增加近期智商趋势复杂性的是,新研究表明智力结构本身可能正在变化。维也纳大学2024年一项队列研究追踪2005至2024年德语人口智商测试结果,发现虽然在某些情况下智商仍上升——尤其最初得分较低的个体中——但不同认知能力间的整体一致性却在减弱。实际上,人口可能正变得更加认知分化或专业化。
尽管这些趋势在数据上经得起统计检验且具实证基础,但解读远非简单。芝加哥西北大学范伯格医学院的伊丽莎白·德沃拉克最近在对2006年至2018年间美国大样本人群研究中,发现了弗林效应可能逆转的迹象。她指出,大家想把AI当作“替罪羊”,但这应避免。智力受多种变量影响——例如微量营养素碘已知会影响大脑发育和智力,此外产前护理改善、受教育年限、污染、疫情及技术发展等因素也都会影响智商,因此很难孤立确定某一个因素的影响。德沃拉克认为:“我们的行为不是孤立发生的,我们不能只指某一个因素说‘就是它’。”
不过,虽然AI对整体智力的影响难以量化(至少在短期内如此),但关于“认知卸载”导致特定认知技能下降的担忧合理且可测量。研究表明,使用AI处理记忆相关任务,可能导致个人自身记忆能力减退。譬如,常见情形是,过度依赖GPS等AI工具,会削弱空间记忆与导航技能,印证“用进废退”原理。
在教育领域,研究显示依赖生成式AI的学生在测试中表现更差,这表明其解决问题能力和概念理解能力正在减弱。在职场上,也出现很大担忧:对AI工具的持续依赖可能侵蚀员工思维敏捷性和决策能力。随着算法接管原本需要人类判断的任务——从诊断患者到管理投资组合——我们不仅面临技能流失,还可能丧失对自身推理能力的信心。
当平均智商得分开始下滑,当“脑腐”这类词语进入公众话语,研究者、教育者与技术专家们正竭力理解:环境与技术的剧变,究竟如何重塑我们的思维方式。
那我们的脑力将走向何方?是得以解放,从事更有深度的思考,还是会因将思考外包给无形算法而逐渐退化?
正如斯特恩伯格所警告,我们需要停止一味问“AI能为我们做什么”,而应开始思考“AI正在对我们做什么”。他指出:“在生成式AI盛行的当下,最大担忧并非它可能损害人类创造力或智力,而是它实际上已经这样做了。”
扭转局面的关键并非拒绝AI,而是将其作为认知伙伴使用——一个能够解释、增强并引导更深入思考的伙伴,而非替代我们的思维。最终,答案在于重新培养人类成为更有人性的人,通过养成批判性思维、直觉等目前计算机无法实现的能力,使我们在AI时代不会成为“多余的人”。
本文由主机测评网于2026-01-20发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260119112.html