国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

AEPO:智能體熵平衡策略優(yōu)化,讓探索更穩(wěn),推理更深!

0
分享至



在智能體強化學習的快速發(fā)展中,如何在探索與穩(wěn)定之間取得平衡已成為多輪智能體訓練的關鍵。主流的熵驅動式智能體強化學習(Agentic RL)雖鼓勵模型在高不確定性處分支探索,但過度依賴熵信號常導致訓練不穩(wěn)、甚至策略熵坍塌問題。

為此,中國人民大學高瓴人工智能學院與快手 Klear 語言大模型團隊聯(lián)合提出 Agentic Entropy-Balanced Policy Optimization(AEPO),一種面向多輪智能體的熵平衡強化學習優(yōu)化算法。

AEPO 系統(tǒng)性揭示了「高熵 Rollout 采樣坍縮」和「高熵梯度裁剪」問題,并設計了「動態(tài)熵平衡 Rollout 采樣」與「熵平衡策略優(yōu)化」兩項核心機制。前者通過熵預監(jiān)控與連續(xù)分支懲罰實現(xiàn)全局與局部探索預算的自適應分配,后者在策略更新階段引入梯度停止與熵感知優(yōu)勢估計以保留高熵 token 的探索梯度。



圖 1:AEPO 性能概覽:左圖對比深度搜索任務性能,右圖對比通用推理任務性能

實驗結果表明,AEPO 在 14 個跨領域基準上顯著優(yōu)于七種主流強化學習算法。特別是深度搜索任務的 Pass@5 指標:GAIA (65.0%), Humanity’s Last Exam (26.0%), WebWalkerQA (70.0%)。在保持訓練穩(wěn)定性的同時進一步提升了采樣多樣性與推理效率,為通用智能體的可擴展強化訓練提供了新的優(yōu)化范式。



  • 論文標題:Agentic Entropy-Balanced Policy Optimization
  • 論文鏈接:https://arxiv.org/abs/2510.14545
  • 代碼倉庫:https://github.com/dongguanting/ARPO
  • 開源數(shù)據(jù) & 模型:https://huggingface.co/collections/dongguanting/aepo-68ef6832c99697ee03d5e1c7

目前AEPO 在 X 上收獲極高關注度,Github 倉庫已獲星標 700 余枚,同時榮登 Huggingface Paper 日榜第二名!





研究動機:在高熵中尋求平衡

隨著 Agentic RL 的發(fā)展,如何在持續(xù)探索與訓練穩(wěn)定之間取得平衡已成制約智能體性能的關鍵?,F(xiàn)有方法(如 ARPO)通常依賴熵信號作為依據(jù),并在高熵時刻觸發(fā)分支采樣探索潛在推理路徑。我們的研究發(fā)現(xiàn)熵驅動的探索雖能提升多樣性,卻也帶來了顯著的訓練不穩(wěn)定:模型在連續(xù)高熵的工具調用階段容易出現(xiàn)單一鏈條過度分支,導致探索受限(如下圖左側);同時在策略更新階段,高熵 token 的梯度常被無差別裁剪,使模型難以學習的探索行為(如下圖右側)。這種熵失衡也使智能體在強化學習中容易陷入局部最優(yōu)解。



圖 2:智能體中的高熵 Rollout 坍縮與高熵梯度裁剪現(xiàn)象

因此,如何在高熵驅動下同時實現(xiàn)高效探索與穩(wěn)定優(yōu)化,成為智能體強化學習亟待突破的核心瓶頸。為此,我們提出 AEPO,一種面向多輪智能體的熵平衡強化學習優(yōu)化算法。我們的貢獻如下:

  • 我們系統(tǒng)性分析并揭示了現(xiàn)有熵驅動的 Agentic RL 在高熵階段易出現(xiàn)的「rollout 坍縮」和「梯度裁剪」問題,為后續(xù)算法設計提供了經(jīng)驗與理論依據(jù)。
  • 我們提出了 AEPO 算法,旨在通過「動態(tài)熵平衡 Rollout 采樣」與「熵感知策略優(yōu)化」兩個階段實現(xiàn)強化學習探索與穩(wěn)定的協(xié)同優(yōu)化。
  • 在 14 個挑戰(zhàn)性基準上的實驗結果表明,AEPO 在采樣多樣性、訓練穩(wěn)定性及工具調用效率方面均優(yōu)于 7 種主流強化學習算法,為智能體在復雜開放環(huán)境下的可擴展訓練提供了新的啟發(fā)。

工具調用的熵變現(xiàn)象:高熵集聚與梯度困境

通過分析智能體在多輪工具調用強化學習中的 token 熵變與訓練過程,我們發(fā)現(xiàn)以下核心現(xiàn)象:

  1. 高熵工具調用步驟存在連續(xù)性:連續(xù)的高熵工具調用輪次占比達 56.5%,部分軌跡甚至出現(xiàn) 6 次連續(xù)高熵調用,這種連續(xù)性導致 rollout 階段的分支預算分配嚴重傾斜(如下圖左側);
  2. 高熵 Token 梯度裁剪:傳統(tǒng) Agentic RL 算法在策略更新階段存在「無差別梯度裁剪」問題,未區(qū)分其是否包含有價值的探索行為,這些 token 大多是在推理中激發(fā)工具調用,反思等行為的提示(如下圖右側)。



圖 3:智能體強化學習訓練中兩種熵相關問題的量化統(tǒng)計

上述現(xiàn)象本質是高熵信號的雙重矛盾:高熵是智能體探索工具使用潛力的必要條件,但無約束的高熵連續(xù)性會破壞 rollout 資源分配,激進的梯度裁剪又會扼殺高熵的探索價值。

AEPO 算法:熵驅動的精準探索與梯度保護



圖 4:AEPO 概述

動態(tài)熵平衡 Rollout 采樣:

1.熵預監(jiān)測:按信息增益分配采樣預算

傳統(tǒng) RL 算法(如 ARPO)憑經(jīng)驗分配全局采樣與分支采樣的坍縮資源,AEPO 則基于信息增益理論,根據(jù)問題與工具的信息增益動態(tài)調整采樣預算,具體來說,在總 rollout 采樣的預算為 k(包含 m 次全局采樣與 k-m 次高熵分支采樣)的條件下,將 Rollout 階段的信息增益簡單地建模為:



在語言模型的自回歸解碼過程中,輸入問題的信息增益通常由模型解碼的 token 熵值來衡量,因此我們可以得到如下正相關關系:



因此,我們的目標是盡可能增大 Rollout 階段的信息增益,基于上述公式,AEPO 按信息增益分配采樣預算:





2.連續(xù)高熵分支懲罰:避免單一軌跡過度分支

即使預算分配合理,連續(xù)高熵調用仍可能導致單一軌跡過度分支。因此 AEPO 通過動態(tài)分支概率施加懲罰:



實驗驗證:如下圖所示,相比于 ARPO 通常僅分支 2-3 條軌跡,而AEPO 可覆蓋全部 8 條預算軌跡(右圖),采樣聚類數(shù)從 54 提升至 62(左 2 圖),大幅提升 Rollout 采樣的多樣性。



圖 5:采樣多樣性 ARPO vs AEPO(左)與 Rollout 的分支采樣分布(右)

熵平衡策略優(yōu)化:

1.熵裁剪平衡機制:保留高熵 Token 梯度

收到 GPPO 啟發(fā),AEPO 將「梯度停止」操作融入到策略更新的高熵裁剪項中,保證了前向傳播不受影響,同時保護了高熵 token 的梯度在反向傳播時不被裁剪。AEPO 在策略更新時使用如下公式:











這一設計讓高熵探索性 Token 的梯度得以保留,避免訓練初期探索能力流失。

2.熵感知優(yōu)勢估計:優(yōu)先學習高價值探索行為





實驗結果:14 個基準驗證 AEPO 的高效與穩(wěn)定

為了充分評估 AEPO 的泛化性和高效性,我們考慮以下三種測試集:

  • 計算型推理任務:評估模型的計算推理能力,包括 AIME24、AIME25、MATH500、GSM8K、MATH。
  • 知識密集型推理任務:評估模型結合外部知識推理的能力,包括 WebWalker、HotpotQA、2WIKI、MisiQue、Bamboogle。
  • 深度搜索任務:評估模型的深度搜索能力,包括 HLE、GAIA、SimpleQA、XBench、Frames。

深度信息檢索任務:小樣本實現(xiàn)大突破





如上表所示,僅用 1K RL 訓練樣本,Qwen3-14B+AEPO 在關鍵任務上表現(xiàn)優(yōu)異:

  • AEPO 在 Pass@1 上較 ARPO 平均提升 3.9%;在 Pass@5 上較 ARPO 平均提升 5.8%;
  • 對比梯度裁剪優(yōu)化 RL 算法(DAPO、CISPO、GPPO):AEPO 在 GAIA 任務上領先 7%-10%,在 Qwen3-14B 基座上取得了 47.6% 的 Pass@1 與 65% 的 Pass@5,這證明熵平衡機制優(yōu)于單純的梯度裁剪優(yōu)化 RL 算法;
  • 對比傳統(tǒng) RL(GRPO、Reinforce++):AEPO 在 HLE 任務上領先 2.6%-3.4%,在 Qwen3-14B 基座上取得了 11.2% 的 Pass@1 與 26% 的 Pass@5,凸顯 Agentic RL 中熵平衡的必要性。



我們比較了 7 種強化學習算法在 10 個推理任務中的表現(xiàn),發(fā)現(xiàn):

  • 梯度裁剪優(yōu)化算法的穩(wěn)定性差:在 Qwen 2.5-7B-instruct 上,梯度裁剪優(yōu)化算法表現(xiàn)良好,但在 Llama3-8B 上未顯著優(yōu)于 GRPO,且易導致熵崩潰。
  • Agentic RL 算法具備泛化能力:ARPO,GIGPO,AEPO 等算法在不同模型上表現(xiàn)穩(wěn)定,證明在高熵環(huán)境下的分支探索有效。
  • AEPO 優(yōu)勢顯著:AEPO 在所有測試中表現(xiàn)突出,一致性高于 7 種主流 RL 算法。并且平均準確率比 GRPO 高 5%,更適合訓練多輪次 Web 智能體。

實驗:熵穩(wěn)定與準確率分析

在 Agentic RL 訓練中,熵動態(tài)穩(wěn)定性與訓練準確率收斂性是衡量算法有效性的核心指標:熵過高易導致探索失控,熵過低則會引發(fā)探索不足;而準確率的持續(xù)提升則直接反映模型對有效工具使用行為的學習能力。

我們對比 AEPO 與主流 RL 算法(含 ARPO、GRPO、DAPO 等)在 10 個推理任務中的訓練動態(tài),清晰揭示了 AEPO 在「熵穩(wěn)定」與「準確率提升」雙維度的優(yōu)勢。實驗發(fā)現(xiàn)訓練的熵損失驟增與下降都不會對性能帶來增益;相比之下,AEPO 的熵損失全程維持高且穩(wěn)定,對應穩(wěn)定的性能增益。其表現(xiàn)遠超其他 RL 算法,且解決了 ARPO 在訓練后期熵波動的問題。



圖 5:訓練指標可視化,包括各訓練步驟的熵損失(左)和準確率(右)

總結與未來展望

未來可從三個方向進一步拓展:

  • 多模態(tài) Agent:當前 AEPO 與 ARPO 均聚焦文本任務,未來可擴展至圖像、視頻等多模態(tài)輸入,探索多模態(tài)工具的熵平衡優(yōu)化,解決多模態(tài)反饋帶來的熵波動問題。
  • 工具生態(tài)擴展:引入更復雜工具(如 MCP 服務、外部訂機票酒店服務調用、代碼調試器),基于 AEPO 的熵感知機制優(yōu)化多工具協(xié)作策略,提升復雜任務表現(xiàn),超越現(xiàn)有工具協(xié)作能力。
  • 多智能體強化學習:探索在更多智能體的協(xié)作學習,互相任務交互與博弈中找到平衡,實現(xiàn)收斂。

作者介紹

董冠霆目前就讀于中國人民大學高瓴人工智能學院,博士二年級,導師為竇志成教授和文繼榮教授。他的研究方向主要包括智能體強化學習、深度搜索智能體,大模型對齊等。在國際頂級會議如 ICLR、ACL、AAAI 等發(fā)表了多篇論文,并在快手快意大模型組、阿里通義千問組等大模型團隊進行實習。其代表性工作包括 ARPO、AUTOIF、Tool-Star、RFT、Search-o1、WebThinker、Qwen2 和 Qwen2.5 等。

  • 個人主頁:dongguanting.github.io

本文的通信作者為中國人民大學的竇志成教授與快手科技的周國睿。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
所有發(fā)達國家都有一個共性:人工很貴,勞動很值錢。

所有發(fā)達國家都有一個共性:人工很貴,勞動很值錢。

流蘇晚晴
2026-01-27 18:18:22
2萬余名旅客滯留 阿聯(lián)酋政府將承擔因此產(chǎn)生費用

2萬余名旅客滯留 阿聯(lián)酋政府將承擔因此產(chǎn)生費用

看看新聞Knews
2026-03-01 18:15:18
美國警方承認谷愛凌曾遭毆打,手臂抓傷嚴重,未來人身安全存隱患

美國警方承認谷愛凌曾遭毆打,手臂抓傷嚴重,未來人身安全存隱患

削桐作琴
2026-03-01 14:27:41
詹皇轟24+5迎里程碑!湖人24分勝國王,威少14+5遭東契奇小里嘲笑

詹皇轟24+5迎里程碑!湖人24分勝國王,威少14+5遭東契奇小里嘲笑

你的籃球頻道
2026-03-02 12:53:02
航母無損成焦點!特朗普改口,伊朗擊中法塔赫-2了嗎?

航母無損成焦點!特朗普改口,伊朗擊中法塔赫-2了嗎?

起喜電影
2026-03-02 12:09:40
凌晨5點半火光沖天!昆明一老舊小區(qū)柴房突發(fā)火情,多輛消防車緊急出動

凌晨5點半火光沖天!昆明一老舊小區(qū)柴房突發(fā)火情,多輛消防車緊急出動

8099999街頭巷尾
2026-03-01 13:27:21
偉大的9-5!名將打破3年冠軍荒,鎖定2站紅包賽,追平趙心童成就

偉大的9-5!名將打破3年冠軍荒,鎖定2站紅包賽,追平趙心童成就

劉姚堯的文字城堡
2026-03-02 06:40:19
為了巴結英日,撕毀中國百億投資項目,被耍后還想和中國再續(xù)前緣

為了巴結英日,撕毀中國百億投資項目,被耍后還想和中國再續(xù)前緣

流史歲月
2026-02-26 16:45:04
洗草莓時,有人放食鹽,有人放面粉,果農:都不對,教你正確做法

洗草莓時,有人放食鹽,有人放面粉,果農:都不對,教你正確做法

阿龍美食記
2026-02-28 10:49:43
電影院抓小三后續(xù)!為求刺激上演燈下黑?孩子也不是丈夫親生的

電影院抓小三后續(xù)!為求刺激上演燈下黑?孩子也不是丈夫親生的

社會醬
2026-03-01 20:43:29
“吸血”親爹、寵妾滅妻,侄女再曝大瓜,楊議徹底活成全網(wǎng)笑話!

“吸血”親爹、寵妾滅妻,侄女再曝大瓜,楊議徹底活成全網(wǎng)笑話!

手工制作阿殲
2026-03-02 00:53:35
3月2日A股猛料:美伊沖突烈度超預期!美國林肯號航母被襲!

3月2日A股猛料:美伊沖突烈度超預期!美國林肯號航母被襲!

有范又有料
2026-03-02 10:28:29
什么調料最易致癌?是蠔油嗎?提醒:這3種調料做飯時盡量少放

什么調料最易致癌?是蠔油嗎?提醒:這3種調料做飯時盡量少放

冷眼看世界728
2026-03-02 10:00:13
伊朗用血淚換來的教訓:一旦中美開戰(zhàn),中國必須首先鎖定這一點

伊朗用血淚換來的教訓:一旦中美開戰(zhàn),中國必須首先鎖定這一點

冷峻視角下的世界
2026-02-20 07:45:35
江西女子用公驢器官泡酒,三個月后給丈夫喝,不料發(fā)生意外

江西女子用公驢器官泡酒,三個月后給丈夫喝,不料發(fā)生意外

古怪奇談錄
2025-06-28 13:49:02
第九波打擊!伊朗襲擊美軍航母,美英油輪被炸,特朗普急了

第九波打擊!伊朗襲擊美軍航母,美英油輪被炸,特朗普急了

全球熱點大揭秘
2026-03-02 13:38:50
男子因鉀過低不幸離世!醫(yī)生提醒:平時寧愿少吃點肉,要多吃幾物

男子因鉀過低不幸離世!醫(yī)生提醒:平時寧愿少吃點肉,要多吃幾物

神奇故事
2025-11-27 22:13:57
大量食用油被檢測出致癌物!自查廚房是否有這3種油,可別再吃了

大量食用油被檢測出致癌物!自查廚房是否有這3種油,可別再吃了

讀懂世界歷史
2026-03-01 18:09:06
成都無縫鋼管廠的那些事兒

成都無縫鋼管廠的那些事兒

寶哥精彩賽事
2026-03-02 00:58:40
賀希寧曬合影慶祝男籃勝利,胡明軒評論:樂邦詹士先生

賀希寧曬合影慶祝男籃勝利,胡明軒評論:樂邦詹士先生

懂球帝
2026-03-02 10:09:20
2026-03-02 15:16:49
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12388文章數(shù) 142574關注度
往期回顧 全部

科技要聞

榮耀發(fā)布機器人手機、折疊屏、人形機器人

頭條要聞

牛彈琴:伊朗之戰(zhàn)比俄烏之戰(zhàn)更生猛 給世界5個深刻教訓

頭條要聞

牛彈琴:伊朗之戰(zhàn)比俄烏之戰(zhàn)更生猛 給世界5個深刻教訓

體育要聞

卡里克主場5連勝!隊史第2人通過最大考驗

娛樂要聞

美伊以沖突爆發(fā),多位明星被困中東

財經(jīng)要聞

中東局勢影響如何?十大券商策略來了

汽車要聞

預售11.28萬起 狐全新阿爾法S5標配寧德時代

態(tài)度原創(chuàng)

健康
教育
手機
數(shù)碼
公開課

轉頭就暈的耳石癥,能開車上班嗎?

教育要聞

【張捷雜談】對涉考舞弊處罰過輕與幕后潛規(guī)則

手機要聞

最高暴漲3000元!史上最猛安卓漲價潮來了 2026年手機出貨量將創(chuàng)13年來新低

數(shù)碼要聞

聯(lián)想公布ThinkBook Modular AI PC Concept模塊化雙屏概念機

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版