【导读】学术评审机制正迎来一场颠覆性革新!面对论文数量的爆炸式增长,顶级会议ICML 2026推出了复杂的「双轨制」新规,允许有限度地借助AI进行审稿,并引入「对等原则」杜绝双重标准;而新兴平台aiXiv则激进地拥抱「全自动科研」,由AI撰写、AI评审。一条是AI融合之路,另一条是AI原生之路,两者皆旨在应对AI领域论文激增的挑战。
学术界正处于一个关键的十字路口。
左侧是拥挤不堪的传统顶会,无数人类审稿人在论文海洋中不堪重负,他们试图在维护「人类评判标准」的同时,审慎地引入AI作为辅助工具;
右侧则是一片全新的疆域,在那里,机器生成论文,机器审核论文,科学发现的进程正突破人类生理极限,加速运转。
这两条路径,分别由机器学习顶级会议ICML 2026和预印本平台aiXiv作为代表。
它们看似都在解决同行评审体系崩溃的问题,但指向的却是两种迥异的科学未来。
作为机器学习领域的巅峰会议,ICML(国际机器学习会议)的决策常被视为行业风向标。
在即将到来的ICML 2026中,组委会不再对AI采取简单「禁止」或「放任」策略,而是设计了一套精细复杂的「双轨制」政策。
根据ICML发布的新规,审稿流程分为两条平行轨道:Policy A(保守派)与 Policy B(温和派)。
在Policy A中,AI被严格限制使用。
除了基础拼写检查和传统文献检索工具外,审稿人必须完全依赖人类智力进行阅读、理解和批判。
这是一片为「纯粹主义者」保留的领地。
而在Policy B中,规则则更为灵活:审稿人可有限度使用AI,但存在明确边界。
你可以利用大模型辅助理解复杂数学公式,或优化评审意见表达,但绝不能将审稿决策权移交机器。
询问AI「这篇论文的优缺点是什么?」或「请帮我撰写评审总结」,仍然被绝对禁止。
这套看似分裂的方案,实则是学术界现状的无奈反映。
ICML在政策制定前的调研显示,社区意见已彻底分化:
约40%的审稿人强烈支持严禁AI的保守路线,但也有30%的人希望积极采用AI;
作为作者时,双方立场更是旗鼓相当,各占一半。
更现实的数字是,已有70%的受访者习惯用AI优化文字,若全面禁止,四成审稿人坦言工作将难以持续。
正是这种难以调和的「最大公约数」困境,迫使组委会最终放弃了统一规则。
此外,ICML设计的「匹配机制」尤为引人注目。
这是一次关于学术诚信的巧妙博弈。
作者投稿时,需声明自己属于「必需A」或「允许B」阵营。
审稿人也需选择站队。系统会尽力匹配意愿一致的双方。
但ICML引入了一条「对等原则」:若作者强硬要求论文必须由纯人类审稿(选择Policy A),则其作为审稿人时也必须承诺不使用AI。
这一条款精妙地遏制了潜在的「双重标准」行为:那些期望他人全力评审自己论文、自己却用AI敷衍的投机者,在此将无所遁形。
组委会还调研了若强制偏好政策B的审稿人按政策A审稿,是否存在违规风险。
从上图调查结果可知,若ICML强行「一刀切」禁止LLM,虽多数人会遵守(深蓝),但会给部分人增加负担(浅蓝),甚至迫使极少数人走向「学术不端」(橙色)。
这些数据也支撑了ICML的判断:「统一禁止LLM可能并非正确之道」。
此外,ICML对Policy B中使用的AI工具设定了高标准:必须是「隐私合规」的。
这意味着你不能随意将论文投入免费版ChatGPT或Claude,因这些数据可能被用于训练模型,导致未发表成果泄露。
审稿人须使用企业级API、本地部署模型,或明确带有「不训练数据」条款的付费服务。
这个看似技术性的细节,实则在学术界划出一道隐形鸿沟。
拥有充足经费、可订阅企业级AI服务的顶尖实验室成员,将能合法利用AI提升效率;
而资源有限的独立研究者,可能被迫停留在Policy A的慢车道上。
为监控这场实验效果,ICML甚至计划引入随机对照试验。
他们会对比两个「轨道」中审稿分数的分布差异。
若发现使用AI的审稿人系统性地给出更高或更低分数,程序主席将介入调整。
这清楚表明,ICML的野心不止于维持秩序,他们试图量化AI对人类判断力的具体影响。
值得关注的是,在即将到来的ICML 2026中,组委会迎来了多位华人学者担任要职。
其中,现任UIUC计算机系教授张潼将出任大会主席(General Chair)。
张潼教授持有斯坦福大学博士学位,学术与工业界经验均十分突出。
他曾任教于香港科技大学和罗格斯大学,并在IBM、百度、腾讯等多家科技公司担任重要职位。
他的研究领域广泛,涵盖机器学习理论、优化算法及强化学习等多个方向。
另一位担任关键职务的华人学者,是现任宾夕法尼亚大学沃顿商学院及计算机系副教授苏炜杰。
他将担任学术诚信主席(Integrity Chair),负责统筹和监督明年ICML的评审流程。
作为北京大学数院07级校友及斯坦福大学博士,苏炜杰的研究主要聚焦于大模型的数学理论、优化算法及数据隐私保护。
特别值得一提的是,他提出的保序机制(Isotonic Mechanism)为提升AI会议审稿质量提供了重要方案,该机制自2023年起已在ICML连续三年进行测试。
如果说ICML是在旧体系基础上进行修补,试图在保持人类核心地位的前提下提升效率,那么aiXiv则彻底打破了这堵墙。
在这个由清华大学、牛津大学、多伦多大学、曼彻斯特大学等多家机构研究者联合发起的平台上,人类不再是科学发现的唯一主导者。
aiXiv的口号令人震撼:我们欢迎由AI撰写的论文,也欢迎由AI评审的论文。
aiXiv的发起人之一Guowei Huang直言:「AI生成的知识不应受到歧视,我们只关注质量,而非生产者是谁。」
在aiXiv的后台,一组AI审稿智能体持续不间断地工作。
它们会从创新性、技术稳健性和潜在影响力等维度对论文评分,只要达到特定阈值,就能在极短时间内发布到平台。
而传统期刊的同行评审往往需耗时数月甚至数年。
更激进的是,这是一个闭环系统。
作者可根据AI智能体的反馈修改论文,然后再次提交,循环往复。
早期测试数据声称,这种「人机迭代」或「机机迭代」能显著提升论文质量。
aiXiv的出现,是对现有学术出版体系的一次无声挑战。
arXiv前不久宣布不再接收纯AI撰写的综述文章,除非已在期刊或会议通过同行评审;Science等顶刊依然对AI署名严加防范。
主流学界仍在努力区分「人写与机写」,而aiXiv则淡然表示:这重要吗?
当然,质疑声从未停止。
俄勒冈州立大学的Thomas Dietterich教授警告说,大模型正越来越像科学家,但这不意味着它们具备了科学家的判断力。
它们擅长模仿科学论文的结构和语气,却未必能保证内容的真实性。
一个充满「幻觉」的科学界是可怕的。
若AI开始大量生成看似完美但逻辑虚假的论文,并由另一群AI审稿人通过,人类科学大厦可能会被「学术垃圾」的流沙吞噬。
ICML的谨慎与aiXiv的激进,看似方向相反,实则源于同一种焦虑:人类处理信息的能力,已远远跟不上信息指数级增长的速度。
过去几年,AI领域论文数量呈现近乎病态的增长。人类审稿人不仅要面对数量压力,还要应对质量参差。
bioRxiv和medRxiv等预印本平台已引入AI工具筛选涉嫌造假的论文。
在此背景下,ICML选择了一条改良主义道路。
它承认AI的工具属性,但试图通过制度设计(如对等原则、隐私合规)将AI约束在助手角色,而非替代者。
它努力保留科学评价中那种微妙、难以量化的「人类直觉」。
而aiXiv选择了一条加速主义道路。
它默认人类已无法独自处理现代科学的数据量,因此必须将部分(甚至全部)认知工作外包给硅基智能。
它在赌,赌AI最终能涌现出鉴别真理的能力,正如它们涌现出语言能力一样。
这两场实验的结果,将塑造我们未来的科学面貌。
是继续维持那个由少数精英人类把关、运转缓慢但相对可信的象牙塔?还是拥抱一个由算法驱动、泥沙俱下却能即刻触达未来的数据海洋?
ICML 2026的政策将在未来几年面临巨大执行挑战。
如何界定「辅助」与「代笔」的边界?
如何确保富裕机构与资源有限机构的公平?
当多数人习惯了Policy B的便利,Policy A是否会沦为一种高尚却无人问津的「怀旧情怀」?
与此同时,aiXiv中的智能体正以远超传统期刊的速度吞吐论文。
它们不关心人类的伦理纠结。
在这个技术与智力极速变革的时代,我们需警惕的或许不是AI取代科学家,而是科学本身的定义被悄然改写。
真正的科学探索,往往诞生于困惑、停顿和长期的无解之中。
而AI追求的是流畅、概率和最优解。
当我们将审稿权力全部或部分让渡给追求「大概率正确」的模型时,我们是否也在无意中过滤掉了那些看似离经叛道、实则颠覆认知的「小概率真理」?
或许,这才是ICML坚持保留Policy A的深层意义。
参考资料:
https://icml.cc/public/LLM-Policy
https://icml.cc/public/Intro-LLM-Policy
https://www.science.org/content/article/new-preprint-server-welcomes-papers-written-and-reviewed-ai
本文由主机测评网于2026-02-08发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260223706.html