阿拉善盟网站建设_网站建设公司_Windows Server_seo优化
2025/12/30 20:00:41 网站建设 项目流程

中科院团队发现大模型内部包含多个可采样的内部策略,不同模型家族呈现不同推理熵模式。基于此提出BuPO算法,通过早期优化底层内部策略重构模型基础推理能力。在MATH、AMC23等复杂数学推理基准上,BuPO性能全面超越传统GRPO和PPO算法,如Qwen3-4B在AIME24上得分提高4.69%,为大模型强化学习提供了新视角。


当前,大模型+强化学习成为AI领域极为热门的研究。现有的强化学习(RL)方法通常将大语言模型(LLM)视为一个单一的整体策略进行优化,主要的算法优化集中在表层的奖励设计等方面,却忽略了模型内部复杂的层级演化机制。

大模型的黑盒特征通常阻碍了我们进一步了解其内部工作机理,然而理解其如何执行内部推理能为研究人员从算法层面设计提供更多的启发和依据。

来自中国科学院自动化研究所、腾讯AI Lab的研究团队从可解释性分析出发,发现 LLM 内部“秘密”地包含了多个可采样的内部策略,并揭示了不同模型家族(如Llama 与 Qwen-3)在推理过程中截然不同的推理熵模式

基于这些发现,研究团队提出了一项从可解释性出发的新颖强化学习算法:Bottom-up Policy Optimization (BuPO)——自底向上的策略优化,和大模型内部自底向上的推理完全耦合。BuPO通过在训练早期直接优化底层内部策略,重构了模型的基础推理能力,在复杂推理任务上取得了显著优于传统 GRPO 和 PPO 的性能。

论文标题: Bottom-up Policy Optimization: Your Language Model Policy Secretly Contains Internal Policies

论文链接:https://arxiv.org/abs/2512.19673

代码地址:https://github.com/Trae1ounG/BuPO

什么是内部策略?

研究团队提出了一个核心洞察:语言模型的策略实际上是由一系列“内部策略”组成的。

你们是否想过在大模型强化学习的场景下,什么是策略(Policy)?

实际上,这个和环境交互的大模型策略(Language Model Policy)每次都会产生一个新的token,这个采样的过程本质上是对一个词表上的概率分布进行采样,即,而这个概率分布正好来自于最后一层的隐状态(Hidden States)加解嵌入矩阵(Unembedding Matrix)的组合。

受到logit lens的启发,利用 Transformer 残差流的加性分解特性,事实上可以将任意中间层的隐藏状态或者中间模块的隐藏状态(self-attention)和(feed-forward network)与 unembedding 矩阵结合,构建出可采样的概率分布——即内部层策略(Internal Layer Policy)和内部模块策略(Internal Modular Policy)。从这一研究角度,研究人员剖析:推理是如何在层与层之间涌现的?我们能否通过优化这些内部过程来提升整体性能?

图1:(a)Transformer内部的残差流可以分解为来自底层的累加,使得底层的隐状态可以被轻松剥离;(b) 语言模型策略的本质以及内部策略的组成

内部策略研究发现

研究团队通过将内部隐状态作为策略,从策略视角提出内部策略熵(Internal Policy Entropy):,对 Qwen 和 Llama 系列模型进行了深入的“核磁共振”扫描,揭示了两种截然不同的内部推理模式:

通用的熵流向:所有模型都表现出一种普遍结构,底层保持高熵以探索解空间,顶层熵值迅速降至接近零以进行最终预测。这符合底层捕捉语义、高层决策的直觉。

图2:不同架构模型内部策略熵的连续走向。所有模型在早期保留较高的熵而在最后收敛。

研究团队为了隔离具体模块的作用,提出了内部策略熵变化(Internal Policy Entropy Change),通过计算模块输出熵相较于输入熵的变化判断该模块究竟是引入了不确定性还是尝试收敛推理空间。

Llama vs. Qwen:架构决定的思维差异,在细粒度的模块层面,不同模型差异显著:Llama 系列模型的预测空间仅在最后几层突然收敛。其中间层的 FFN 模块熵变化持续为微弱的正,表明其在大部分层级中都在进行发散但浅显的探索,缺乏中间阶段的信息整合。而Qwen 系列展示了一种更类似人类思考的渐进式推理结构。其 FFN 模块呈现出清晰的“探索— 整合— 收敛” 三阶段模式。底层:熵增加,扩大搜索空间;中层:熵变化趋近于零,利用参数化知识进行信息整合;高层:熵减少,逐步收敛至最终答案。这种结构化的推理模式可能解释了为何 Qwen3 在后训练阶段展现出更高效的知识吸收能力。

图3:Llmma和Qwen系列不同模块的推理特征差异;其中Qwen3系列表现出了良好的结构化特征,一种渐进式的推理结构

研究团队形象的提供了Qwen3系列结构化推理的形象描述:

  • 底层探索阶段:Qwen模型就像是在不断增加自己的不确定性,尽可能收集用于推理的信息;
  • 中部整合阶段:整合中间部分FFN的参数知识,类似用计算器在尝试计算但不改变不确定性;
  • 高层收敛阶段:Qwen收集到整体的推理信息,FFN尝试收敛内部推理空间,得出最终答案。

图4:Qwen系列的渐进式结构化推理漫画示例

可采样内部策略优化

研究团队通过将内部层策略视为可优化的策略进行强化学习优化,优化方式为:

直接优化内部策略发现了很多有趣的现象:

  1. 内部策略捕捉到更多上层推理的信息,从而实现特征的早期对齐与精炼。这为后续层级的推理奠定了更坚实的基础
  2. 内部策略对内部推理不确定性压缩更强
  3. 过多的训练内部策略会导致性能坍塌

图5:直接优化内部策略的实验现象

自底向上的策略优化

基于以上发现,研究团队认为既然推理是自底向上逐层涌现的,那么优化也应该顺应这一过程。受此启发,Bottom-up Policy Optimization (BuPO) 应运而生。这是一种新颖的训练范式,其核心策略是:

  1. 早期阶段(Bottom Alignment):优先优化细粒度的内部层策略(选取具有正向探索信号的 FFN 层),引导底层特征对齐推理目标。
  2. 后期阶段(Global Optimization):切换至标准的语言模型策略优化,完成整体输出的对齐。

算法1:Bottom-up Policy Optimization算法流程

实验结果

研究团队在 MATH、AMC23、AIME24/25 等复杂数学推理基准上的广泛实验证明了 BuPO 的有效性:

  • 全面超越基线:在 Qwen3-4B/8B 和 Llama-OctoThinker 系列模型上,BuPO 的表现一致优于 GRPO、PPO、Reinforce++ 和 RLOO 等主流算法。
  • 显著的性能提升:例如,在 Qwen3-4B 上,BuPO 在 AIME24 上的 Avg@32 得分比 GRPO 提高了 4.69%;在 Llama-OctoThinker-8B 上,MATH500 的得分提升了 5.16%。
  • 更优的 Pass@K 权衡:在 到 的不同采样设置下,BuPO 均保持了最佳或次佳的性能,证明了其生成的鲁棒性。

表1: Avg@K实验结果

图6:Pass@K实验结果图

同时,BuPO的熵变化曲线也证明,对齐内部策略能有效扩展模型初期训练的探索空间,为后续的强化学习优化提供好的基础。

图7:BuPO训练熵动态图

总结

Bottom-up Policy Optimization不仅是一项算法创新,更提供了一种理解大模型的新视角。

它告诉我们,大模型的策略并非只是一个黑箱策略模型,而是由无数内部策略交织而成的精密系统。

通过自底向上地优化这些内部组件,我们能够重构模型的基础推理能力,而非仅仅调整表层的输出概率。

这项工作通过解构大模型的内部策略,为未来的可解释性研究与强化学习算法设计架起了一座新的桥梁。

​最后

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。


智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

​​

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询