大型语言模型(LLM)智能体近年来在复杂问题求解中展现出惊人潜力,但其成功多停留在经验主义层面,缺乏宏观理论解释。近日,北京大学物理学院、高能物理研究中心及北京计算科学研究中心联合提出一种跨界理论框架,借用物理学中的最小作用量原理,成功揭示了LLM智能体生成动力学中隐藏的宏观物理定律,为AI研究从“炼丹术”迈向可量化的科学提供了关键突破。
该团队通过实验测量LLM生成状态间的转移概率,首次在统计上发现LLM生成转移满足细致平衡现象。这表明,LLM的生成并非简单学习规则集,而是隐式内化了一类超越模型架构和提示词模板的潜在势函数,驱动智能体像水往低处流一样,自然而然地趋向更优状态。这一发现将AI行为从“死记硬背”提升至遵循“物理本能”的高度。
论文标题:Detailed balance in large language model-driven agents论文地址:https://arxiv.org/pdf/2512.10047
简而言之,研究团队通过测量LLM生成状态间的转移概率,在统计上验证了细致平衡现象的存在,证明LLM生成动力学背后存在类似热力学平衡系统的严格数学比例。这意味着,智能体的每一次推理都像在无形的地形图上滑动,错误答案对应高地,正确答案对应谷底,生成过程自然趋向势能最低点。
该团队表示,这是首次在不依赖模型细节的情况下,发现LLM生成动力学中的宏观物理定律。这一理论框架让研究者能够用物理指标为不同大模型画像。例如,Claude-4像急于交卷的优等生,快速收敛到答案但易固执;GPT-5 Nano则像探险家,探索更广但收敛较慢。这种量化方法使AI行为预测和控制成为可能,不再依赖盲目试错。
为严谨表述,研究团队将智能体定义为由LLM驱动的马尔可夫转移过程,状态空间为𝒞,转移核P(g|f)表示从状态f到g的概率。假设存在潜在势函数V_𝒯:𝒞→ℝ,反映状态质量。通过定义作用量𝒮为全局平均违背,并最小化作用量,可估计最优势函数。当系统满足细致平衡条件时,势函数V_𝒯能明确表达转移概率比,证明最小作用量原理的有效性。这一发现表明,LLM生成动力学中存在不依赖具体模型的普适规律,势函数V_𝒯为解释LLM内部动力学提供了新视角。
研究通过多模型、多任务实验验证,LLM智能体状态转移显著满足细致平衡,表现出类似平衡系统的特征。最小作用量原理成功估计了底层势函数,揭示了生成动力学的内在方向性。未来,该框架可扩展用于理解模型过拟合(偏离平衡程度)和优化生成质量,例如根据安全需求调整作用量幅值,为LLM安全性和多样性提供新思路。
本文由主机测评网于2026-03-06发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://www.vpshk.cn/20260329044.html