
从算法驱动到模型自主进化,人工智能正经历一场深刻变革——从依赖预设规则的智能形态,迈向具备自我学习与迭代能力的新阶段。与此同时,一个全新的治理挑战随之浮现:如何在激励技术创新的同时,有效保障模型的安全性与可控性?近期,围绕通用人工智能模型及前沿大模型的治理议题,欧盟、美国加州与中国分别给出了风格迥异的政策答卷。2025年7月,欧盟委员会推出了自愿性指导文件《通用人工智能实践准则》,旨在协助模型提供方履行《人工智能法案》中针对通用AI模型设定的法定义务。同年9月,美国加州州长正式签署《前沿人工智能透明法案》,该法案聚焦于所谓“前沿模型”的透明度责任。同一时期,中国发布了《人工智能安全治理框架2.0》,这份纲领性文件虽未专门针对模型设计,但明确识别了模型层面的潜在风险,并提供了相应的治理指引。
中美欧三方在模型治理领域呈现出三种截然不同的规制路径:欧盟构建了层级分明、义务密集的风险分类体系;美国加州则采取范围收窄、监管轻量的模式,突出企业自律;中国则以实际应用场景为切入点,通过自下而上的方式将治理要求延伸至模型底层。剖析这些路径的异同,有助于厘清模型治理在整体人工智能治理架构中的核心枢纽地位。
在《人工智能法案》的起草进程中,欧盟原本确立了一套以AI系统为中心的四级风险治理框架,即禁止类、高风险、有限风险与最小风险分类。然而,随着ChatGPT 3.5的涌现冲击立法节奏,欧盟在2023年匆忙将通用人工智能模型条款增补入法。由此,欧盟在既有的AI系统治理框架之外,平行建立了一套针对模型的治理机制,并将通用模型进一步划分为具有“系统性风险”与无系统性风险两类。所有通用模型提供者均需履行技术文档披露、训练摘要提供、版权政策制定等基础义务;若模型被认定具有系统性风险,则额外增加模型评估、风险缓解措施实施及重大事件报告等要求。在界定“系统性风险”这一复杂问题上,欧盟结合《AI法案》与《实践准则》,既采纳了“高影响能力”等理念性标准,也引入了训练计算量超过10^25 FLOPs等技术性量化指标,同时还将模型的分发策略、用户规模、潜在误用等应用端因素纳入风险考量,最终形成一个多层交织、颇为复杂的风险判定架构。
在模型义务设定方面,欧盟的许多要求实际上超出了模型提供者对模型本身的控制边界。尤其对于被认定为具有系统性风险的通用模型提供者,《实践准则》中的“安全保障”义务已实质延伸至应用场景,例如要求“构建未来风险情景”和“收集最终用户反馈”。此外,尽管模型提供者通常仅扮演“能力模块供应者”角色,并不直接决定模型的具体用途,但其所需承担的风险管理、技术可靠性等义务类型,却与面向特定用途的高风险AI系统提供者高度相似。
整体审视,欧盟的治理框架显现出两大特征:其一,模型治理与应用治理两套标准相互交叉重叠,体系设计理论上精密,却在实操中显得格外繁重;其二,模型风险与应用风险存在混同倾向,将对模型部署者的期望部分转移至模型提供者身上,可能导致后者承担其难以预见或控制的风险责任,从而增加合规负担,可能对创新活力形成拖累。正因如此,欧盟委员会正推动名为“数字Omnibus”的一揽子立法简化计划,旨在对包括《AI法案》在内的数字法规进行精简修订,以减轻企业面临的监管压力。
尽管美国联邦层面的人工智能立法仍处于研讨阶段,但科技产业聚集地加利福尼亚州已在模型治理领域率先行动。2024年,加州议会曾提出《安全与创新前沿人工智能模型法案》,但因监管范围过宽且可能抑制创新而遭否决。经大幅调整后,新版本《前沿人工智能透明度法案》最终获得通过。相较于前序法案,SB 53以产业自律为核心导向,删除了强制安全协议等争议条款,并大幅简化了透明度报告所需涵盖的信息内容。
调整后的SB 53呈现两大鲜明特点:一是监管对象门槛更高、范围更聚焦。与欧盟覆盖所有通用模型提供者不同,SB 53将规制起点设定为“前沿开发者”,即训练或启动训练所用计算量超过10^26 FLOPs的基础模型研发主体;而对于“大型前沿开发者”,其范围进一步收窄,需同时满足上一日历年度总收入超过5亿美元的门槛,当前仅涉及全球少数顶尖模型。二是义务设定极为限缩、轻量化。透明度报告仅要求提供网站、沟通机制、预期用途等基础信息;相比之下,欧盟的“技术文档”义务则延伸至模型设计规范、训练测试数据细节等深层内容,对信息披露的全面性与精细度要求显著更高。而大型前沿开发者需额外履行的发布“前沿AI框架”、开展灾难性风险评估并向州应急服务办公室提交摘要等义务,实质上并未超出当前头部AI公司在安全治理方面的常规实践。
总体而言,SB 53所体现的“小切口、轻义务”治理逻辑,与加州一贯的人工智能立法思路一脉相承。尽管过去三年加州已出台多项AI相关法规,但大多针对诸如伴侣聊天机器人、AI冒用医疗资质等具体细分场景与特定问题,其义务多属轻量化的透明度要求。由此可见,加州的立法主线依然是在促进产业发展与维持全球竞争力之间寻求平衡,避免对创新生态造成过度约束。
中国的治理路径并非直接规制模型本身,而是以实际落地的应用服务作为切入点,通过对应用服务的深度规范,自下而上地实现对模型层的延伸治理。
在立法层面,中国立足现实问题,以算法治理为起点,逐步构建起对模型的制度性约束。早在“通用模型”成为焦点之前,中国便以“算法治理”为抓手,为后续的模型治理奠定了基石。2021年实施的《互联网信息服务算法推荐管理规定》将生成合成类算法推荐服务提供者纳入规制,要求建立算法机制审核、备案与安全评估等制度。2022年出台的《互联网信息服务深度合成管理规定》将规制视野从“算法推荐”拓展至“深度合成技术”,实质上提前触及了模型核心的生成合成能力。2023年施行的《生成式人工智能服务管理暂行办法》虽以AI服务提供者为规制对象,但其治理要求已从应用层延伸至模型训练阶段的数据治理、内容生成等环节,通过安全评估、模型备案等具体机制,实现了对模型层的间接约束。2025年推出的《人工智能生成合成内容标识办法》则针对AI生成内容的可识别性问题,同样以服务为切口,要求进行显式或隐式标识。
在软法层面,中国的治理深度进一步推进,明确提出了模型层的风险识别与应对措施。从《网络安全技术 生成式人工智能服务安全基本要求》到《人工智能安全治理框架》1.0及2.0版本,中国在风险识别上提供了区别于欧美的务实路径:采用“内生风险—应用风险—衍生风险”的三层结构,清晰勾勒了人工智能的安全风险谱系。其中,“模型算法风险”被归入“内生风险”范畴,主要包括可解释性不足、鲁棒性不强等技术性问题。通过明晰风险边界,《框架》避免了将本属于应用环节的风险错误归因于模型本身,使得风险归责更贴合技术与应用的实际情况——对模型而言,其最具危害传导性且能够有效控制的,正是模型自身的内生风险。
总体观之,中国的模型治理始终以解决现实问题为导向,从应用服务入手逐步向上游模型层延伸,通过一系列实用且有效的治理工具,形成了系统且不断完善的治理机制。
尽管中美欧在模型治理的背景、对象与义务设定等方面存在显著差异,但仍展现出若干重要的共性特征。
一是在总体思路层面,均体现出“柔性治理、产业先行”的制度倾向。欧盟的《实践准则》属于自愿性承诺,立法过程中也删去了“关键绩效指标”等硬性约束,为企业保留了较大的自主合规空间。美国加州的SB 53则更为宽松,仅以透明度为切入点,强调企业自律主导。中国同样坚持以产业发展中的实际问题为导向,从应用端切入模型治理,注重实践驱动与问题响应,依托指导性文件、技术标准与评估机制稳步推进治理,并在产业演进过程中持续优化制度规则。
二是在风险评估层面,面对当前模型能力的不确定性及制度基线难以统一的现实,各方均将“构建评估生态”视为更可行的路径。欧盟《实践准则》建议建立社区驱动的模型评估榜单;美国SB 53要求在“前沿AI框架”中纳入委托第三方开展灾难性风险评估的安排;中国《人工智能安全治理框架2.0》也在内生风险的“综合治理措施”中提出了“建立人工智能安全测评体系”的目标。三方都在探索通过开放、多元的社会化评估机制,弥合制度能力与技术快速演进之间的鸿沟。正如开源社区所倡导的理念:“足够多的眼睛可以让所有问题浮现”。
三是在模型治理工具的选择上,透明度因其技术中立、操作性强的特性,已成为各方采用的核心手段。在模型风险机理尚未完全明晰的阶段,透明度要求能以最小约束实现最大程度的可控性,同时为技术创新预留空间。欧盟依据披露对象采取横向分级路径,分别面向AI办公室、国家主管机关及下游主体设置差异化的信息层级;加州则按开发者规模采取纵向分级路径,区分前沿模型与大型前沿模型开发者,设定强度有别的义务,并统一向公众披露。中国在透明度建设方面已走在前面。从算法推荐到深度合成,再到大模型备案,信息公示与算法备案机制日益完善,模型功能与安全评估环节已实现较高程度的可见性。
在上述三方共性之外,中美在模型治理路径上还呈现出一个共通特点:即从具体应用场景出发。相较于欧盟自上而下的“预设式”治理,这种从应用入手的路径有助于清晰界定模型风险与应用风险的边界,避免将应用风险误归于模型本身,从而使模型提供者能够更聚焦于其可控的内生风险,开展更具针对性的治理。这种审慎务实的做法,其优势在于将治理建立在对风险的真实、具体认知之上——“只有通过技术扩散,才能真正识别其效用或缺陷;有了这些具体的经验,才能针对具体薄弱环节制定规则。”
本期文章由腾讯研究院大模型小分队:钟雨霏,谢舒赫,王融完成
参考文献来源:
[1] “The General-Purpose AI Code of Practice.” Shaping Europe’s Digital Future, European Commission, 10 July 2025, digital-strategy.ec.europa.eu/en/policies/contents-code-gpai. Accessed 10 Nov. 2025.
[2] “Governor Newsom Signs SB 53, Advancing California’s World-Leading Artificial Intelligence Industry.” Office of the Governor of California, 29 Sept. 2025,
www.gov.ca.gov/2025/09/29/governor-newsom-signs-sb-53-advancing-californias-world-leading-artificial-intelligence-industry/.
[3] 中央网络安全和信息化委员会办公室. 《人工智能安全治理框架》2.0版发布[EB/OL]. (2025-09-15).
[4] Helberger, Natali, and Nicholas Diakopoulos. “ChatGPT and the AI Act.” Internet Policy Review, vol. 12, no. 1, 2023, https://doi.org/10.14763/2023.1.1682.
[5] Ebers, Martin. Truly Risk-Based Regulation of Artificial Intelligence – How to Implement the EU’s AI Act. SSRN, 2024, https://ssrn.com/abstract=4870387.
[6] The Association for Computing Machinery (ACM) Europe Technology Policy Committee. Comments in response to European Commission Call for Evidence on “General Purpose AI Code of Practice for Providers of Models with Systemic Risks”. 27 Nov 2024. ACM Europe TPC.
[7] Besliu, Raluca. “What’s Driving the EU’s AI Act Shake-Up?” Tech Policy Press, 13 Nov. 2025, https://techpolicy.press/whats-driving-the-eus-ai-act-shakeup/.
[8] Associated Press. “California Governor Newsom Vetoes Bill to Create First‑in‑Nation AI Safety Measures.” AP News, 29 Sept. 2024,
https://apnews.com/article/california-ai-safety-measures-veto-newsom-92a715a5765d1738851bb26b247bf493.
[9] Gluck, Justine. “California’s SB 53: The First Frontier AI Law, Explained.” Future of Privacy Forum Blog, 3 Oct. 2025, https://fpf.org/blog/californias-sb-53-the-first-frontier-ai-law-explained/.
[10] Singer, Scott, and Alasdair Phillips-Robins. “California Just Passed the United States’ First Frontier AI Law. What Exactly Does It Do?” Carnegie Endowment for International Peace – Emissary, 16 Oct. 2025, https://carnegieendowment.org/emissary/2025/10/california-sb-53-frontier-ai-law-what-it-does.
[11] Ball, Dean W. "These Challenges Are Primarily Technical and Scientific, but They Imply Others, Too." National Affairs, 2025, www.nationalaffairs.com/publications/detail/these-challenges-are-primarily-technical-and-scientific-but-they-imply-others-too.
本文由主机测评网于2026-01-24发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260120094.html