当前位置:首页 > 科技资讯 > 正文

ICLR 2026出台大语言模型使用新规:强制披露与责任追究并举

近期,人工智能国际顶会ICLR宣布为2026年会议实施全新的大语言模型使用政策,旨在为学术界日益普及的AI工具套上“规范枷锁”。

回顾ICLR 2025,该会议于今年四月圆满结束,共收到11565份投稿,最终录用率为32.08%,竞争异常激烈。

如今,ICLR 2026正式发布大语言模型使用指南,明确约束论文作者与审稿人在研究和审稿环节中运用LLM的行为准则。

此次会议定于明年4月23日至27日在巴西里约热内卢举行,预计将吸引全球众多AI研究者参与。

ICLR 2026出台大语言模型使用新规:强制披露与责任追究并举 大语言模型 2026 学术诚信 审稿政策 第1张

新政策基于ICLR的《道德准则》,核心目标是维护学术诚信,并防范LLM可能引发的风险,例如事实性幻觉、内容剽窃或数据失真等问题。

ICLR 2026出台大语言模型使用新规:强制披露与责任追究并举 大语言模型 2026 学术诚信 审稿政策 第2张

政策主要包含两大核心原则:

政策一:所有LLM使用行为必须透明披露。这呼应了《道德准则》中“所有研究贡献均应获承认”以及“贡献者理应获得相应认可”的精神。

政策二:论文作者与审稿人须对自身贡献负全责。这遵循了《道德准则》禁止故意发表虚假声明、捏造数据或歪曲结果的规定。

若违反上述政策,投稿论文将面临处罚,最严重者可导致直接拒稿

具体应用场景详解

  • 辅助论文写作

作者若利用LLM进行语法润色、措辞调整或章节草拟,必须明确披露使用情况。作者需对论文全部内容负责,包括LLM可能产生的错误或不妥之处。

  • 辅助研究过程

当LLM用于生成研究思路、实验代码或结果分析时,同样需予以披露。人类作者必须验证LLM贡献的有效性与准确性。ICLR强调,即便LLM承担大量研究工作,也必须有人类作者承担最终责任。

  • 辅助撰写审稿意见

审稿人或领域主席使用LLM撰写审稿或元审稿意见时,必须进行披露。审稿人不仅需确保意见质量与准确性,还必须防止LLM使用过程中泄露投稿论文的机密信息。违反保密规定可能导致该审稿人所有投稿被直接拒稿。

  • 严禁“提示词注入”

严格禁止作者在论文中嵌入隐藏的“提示词注入”以操纵审稿流程(例如使用白色字体诱导LLM给出正面评价)。此类行为被视为串通,属严重学术不端,作者与审稿人均需负责。

ICLR并非个例,其他顶会同样制定规范

随着大语言模型能力不断提升,其应用已深入论文写作与审稿环节,显著提升效率的同时,也引发了对过度依赖及不当使用的担忧。

虚假引用、抄袭拼接与责任模糊等学术不端现象随之浮现,对科研诚信与学术评价公正性构成挑战。

作为AI领域核心交流平台,各大顶会投稿量逐年攀升,面临LLM带来的压力日益增大。

为保障研究成果公平评判与审稿过程有效监督,NeurIPS、ICML等顶会早已出台LLM使用细则,规范作者与审稿人行为。

例如,NeurIPS 2025规定:

“允许将LLM作为工具使用,但若作者将其作为核心方法则需详尽描述;审稿人严禁向LLM输入任何机密稿件内容,仅可在保密前提下辅助理解或检查语法。”

ICLR 2026出台大语言模型使用新规:强制披露与责任追究并举 大语言模型 2026 学术诚信 审稿政策 第3张

网站地址: https://neurips.cc/Conferences/2025/LLM?utm_source=chatgpt.com

ICML 2023则要求:

“禁止提交完全由LLM生成的论文文本,但允许使用其编辑润色作者自撰内容,以防剽窃风险。”

ICLR 2026出台大语言模型使用新规:强制披露与责任追究并举 大语言模型 2026 学术诚信 审稿政策 第4张

网站地址: https://icml.cc/Conferences/2023/llm-policy?utm_source=chatgpt.com

IEEE相关会议也明确:

“需负责任地将生成式AI用作研究辅助工具,但人类作者与审稿人必须对科学诚信与保密性负全责。作者须在致谢中声明AI工具及用途,并对内容准确性、原创性负责,禁止AI伪造数据;审稿人出于保密原则,严禁向AI系统输入稿件信息。”

ICLR 2026出台大语言模型使用新规:强制披露与责任追究并举 大语言模型 2026 学术诚信 审稿政策 第5张

网站地址: https://www.ieee-ras.org/publications/guidelines-for-generative-ai-usage?utm_source=chatgpt.com

ACM相关会议亦有类似规定:

“若使用LLM生成文本、表格、代码等,必须在致谢或正文中披露工具与使用方式;仅用于语言润色的小幅修改可免于披露。”

ICLR 2026出台大语言模型使用新规:强制披露与责任追究并举 大语言模型 2026 学术诚信 审稿政策 第6张

网站地址: https://www.acm.org/publications/policies/frequently-asked-questions?utm_source=chatgpt.com

可以预见,随着LLM使用细则日益清晰,AI工具将更透明、合理地服务于学术研究,推动形成系统化的学术规范体系。