国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網易首頁 > 網易號 > 正文 申請入駐

DeepSeek-V3.2|技術報告解讀

0
分享至

這是一篇報告解讀,原文是《DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models》


DS-V3.2獲得這份報告

先說結論

DeepSeek-V3.2
在推理能力上追平 GPT-5-High,在部分指標上超越

DeepSeek-V3.2-Speciale(高算力版)
在 2025 年 IMO 和 IOI 拿了金牌,推理能力接近 Gemini-3.0-Pro


圖1|核心基準對比。DeepSeek-V3.2-Speciale 在數(shù)學和編程上已經和 Gemini-3.0-Pro 打平 怎么做到的?三件事

DSA(DeepSeek Sparse Attention)
一種稀疏注意力機制,大幅降低長上下文的計算成本

后訓練加碼
把后訓練的計算預算提到預訓練的 10% 以上

大規(guī)模合成數(shù)據(jù)
生成了 1,800 個環(huán)境、85,000 個任務,全是合成的

下面一個一個說

DSA:把注意力從 O(L2) 降到 O(Lk)

傳統(tǒng)的 Transformer 注意力機制是 O(L2) 復雜度,L 指的是序列長度

簡單說一下 計算機領域,通常用 O(x) 來說明復雜度:比如 O(L) 的含義是隨著 L 增加,則復雜度線性增加;而 O(L2) 的意思是按長度的平方倍增加。 文本長度翻 2 倍,計算量翻 4 倍;長度翻 10 倍,計算量翻 100 倍

這長上下文場景中,這個復雜度就成了大問題,推理慢,后訓練也很難做
所以你很少會見到超過 128k 的上下文( GPT-3.5 最早默認 4k 上下文)

DeepSeek 的解決方案是 DSA,核心思路是:
并非每個 token 都看全部上下文,只看最相關的 k 個 token

這樣計算量就變成 O(Lk),k 是個固定值(2048),不再隨文本長度爆炸式增長


圖2|DSA 架構。Lightning Indexer 快速篩選,Top-k Selector 精選 2048 個 token 做注意力計算

具體實現(xiàn)分兩步:

第一步:Lightning Indexer

一個輕量級的打分器,給每個歷史 token 打分,決定哪些值得關注

這個打分器用 ReLU 激活函數(shù),可以跑在 FP8 精度,算力開銷很小

第二步:Fine-grained Token Selection

根據(jù) Lightning Indexer 的打分,只選 top-k 個 token 做真正的注意力計算

在 DeepSeek-V3.2 里,k =2048

雖然 Lightning Indexer 本身還是 O(L2),但它比主注意力輕很多,整體效率大幅提升

DSA 訓練的兩個階段 階段一:Dense Warm-up

先凍住主模型,只訓練 Lightning Indexer

訓練目標是讓 Indexer 的輸出分布對齊主注意力的分布

用 KL 散度做 loss

只訓練了 1000 步,共 2.1B tokens

階段二:Sparse Training

放開所有參數(shù),讓模型適應稀疏注意力模式

繼續(xù)用 KL 散度對齊 Indexer 和主注意力

訓練了 15000 步,共 943.7B tokens


圖3|推理成本對比。V3.2 在長序列場景下成本幾乎是平的,V3.1 是線性增長 效果怎么樣?

在 128K 長度的 prefilling 階段,V3.2 的成本基本不隨位置增長,V3.1-Terminus 是線性增長

并且:性能沒降

在 ChatbotArena 的 Elo 評分上,V3.2-Exp 和 V3.1-Terminus 基本持平

在獨立的長上下文評測(AA-LCR、Fiction.liveBench)上,V3.2-Exp 甚至更好

后訓練加碼:預算超過預訓練的 10%

過去,開源模型的后訓練投入普遍不足,這限制了它們在難任務上的表現(xiàn)

DeepSeek 的做法是:大力出奇跡

具體數(shù)字是:后訓練的計算預算超過預訓練成本的 10%

這是很激進的配置

后訓練流程分兩步 第一步:專家蒸餾(Specialist Distillation)

為每個任務領域訓練一個專門的「專家模型」
六個領域:數(shù)學、編程、通用邏輯推理、通用智能體、代碼智能體、搜索智能體

每個領域都支持 thinking 和 non-thinking 兩種模式
每個專家都用大規(guī)模 RL 訓練

訓練好之后,用專家模型生成領域數(shù)據(jù),給最終模型用

第二步:混合 RL 訓練(Mixed RL Training)

把推理、智能體、人類對齊三類任務合并成一個 RL 階段

用 GRPO(Group Relative Policy Optimization)算法

這樣做的好處是:避免多階段訓練的災難性遺忘

GRPO 的幾個關鍵改進

論文詳細說了四個穩(wěn)定化技巧:

1. Unbiased KL Estimate

原來的 K3 estimator 在某些情況下會給低概率 token 分配過大的梯度權重,導致訓練不穩(wěn)定

DeepSeek 用重要性采樣修正了這個問題

Off-Policy Sequence Masking

把偏離當前策略太遠的負樣本 mask 掉

直覺是:從自己的錯誤里學比從不相關的錯誤里學更有效

Keep Routing

MoE 模型的專家路由在推理和訓練時可能不一致

DeepSeek 保存推理時的路由路徑,訓練時強制復用

Keep Sampling Mask

Top-p 采樣時的截斷 mask 也保存下來,訓練時復用

保證采樣策略和訓練策略一致

大規(guī)模智能體數(shù)據(jù)合成

泛化能力,是大模型在智能體場景的另一個短板

原因很簡單:沒有足夠多樣的訓練環(huán)境

DeepSeek 的解決方案是:自己合成


表1|智能體任務分布。50275 個搜索任務、24667 個代碼任務、4417 個通用任務、5908 個代碼解釋任務

具體數(shù)據(jù) 代碼智能體 24,667 個任務(真實環(huán)境,提取的提示) 搜索智能體 50,275 個任務(真實環(huán)境,合成的提示) 通用智能體 4,417 個任務(合成環(huán)境,合成提示) 代碼解釋器 5,908 個任務(真實環(huán)境,提取的提示)
合成流程,很有意思

  1. 1. 給定一個任務類型(比如旅行規(guī)劃),agent 先用 bash 和搜索工具從網上拉數(shù)據(jù),存到沙箱數(shù)據(jù)庫

  2. 2. Agent 合成一套任務相關的工具函數(shù)

  3. 3. Agent 先提出一個簡單任務,寫好解決方案和驗證函數(shù)

  4. 4. 迭代增加任務難度,同時更新解決方案和驗證函數(shù)

  5. 5. 如果現(xiàn)有工具不夠用,agent 會自動擴展工具集

最終得到了1,827個環(huán)境,4,417個任務


合成任務示例:三天旅行規(guī)劃。約束條件復雜,驗證容易,搜索空間大——典型的「難解易驗」問題

有個 Trip Planning 的例子 從杭州出發(fā)的三天旅行,要求不重復城市/酒店/餐廳/景點,第二天的預算有復雜的條件約束...

任務很難解,但驗證很簡單——只要檢查所有約束是否滿足

這類「難解易驗」的任務特別適合 RL

合成數(shù)據(jù)真的有用嗎?

論文做了消融實驗
用 V3.2-SFT 只在合成的通用智能體數(shù)據(jù)上做 RL,測試在Tau2Bench、MCP-MarkMCP-Universe上的效果

結果是:顯著提升

作為對照,只在代碼和搜索環(huán)境上做 RL,這三個 benchmark 上沒有提升

簡而言之,這么做,確實帶來了泛化能力


圖5|合成數(shù)據(jù) RL 效果,藍線是 RL-Synthetic-Data Thinking in Tool-Use

讓推理和工具調用融合,是 v3.2 在工程上的關鍵設計

DeepSeek-R1 證明了「thinking」對解決復雜問題很有幫助

但 R1 的策略是:第二輪消息到來時,丟棄之前的推理內容

這在工具調用場景下很浪費——每次工具返回結果,模型都要重新推理一遍


圖4|Thinking 保留機制。只有新用戶消息到來時才丟棄推理內容,工具結果不觸發(fā)丟棄

DeepSeek-V3.2 的設計是:

  • ? 只有新的用戶消息到來時才丟棄推理內容

  • ? 如果只是工具返回結果,保留推理內容

  • ? 丟棄推理內容時,工具調用歷史保留

注意 Roo Code、Terminus 這類用「用戶消息」模擬工具交互的框架,無法享受這個優(yōu)化;論文建議這類框架用 non-thinking 模式
Cold-Start

怎么讓模型學會「邊推理邊調工具」,這個能力需要教

DeepSeek 的做法是設計專門的 system prompt:

  • ? 告訴模型可以在 標簽內多次調用工具

  • ? 最多 20 次

  • ? 最終答案不能包含工具調用

雖然這樣訓練出來的模式一開始不太穩(wěn)定,但偶爾能產生正確的軌跡

有了這些種子數(shù)據(jù),后續(xù)的 RL 就能持續(xù)優(yōu)化

結果對比

到這里,我們看一下模型的性能,自己看圖,不贅述了

這個是DeepSeek-V3.2


表2|完整基準對比。DeepSeek-V3.2-Thinking 與 GPT-5-High 基本持平,Speciale 版本在數(shù)學上超越

這個是DeepSeek-V3.2-Speciale的競賽成績


表4|競賽成績。IOI 2025 第10名,ICPC WF 2025 第2名。這是通用模型,不是專門為競賽訓練的

需要說明的是:Token 效率,是 DeepSeek-V3.2 的一個短板

舉個例子,在 Codeforces 中,Gemini-3.0-Pro 用 22k tokens 拿 2708 分,DeepSeek-V3.2 用 42k tokens 才拿 2386 分,Speciale 版本用 77k tokens 拿 2701 分

Speciale 版本為了達到更高性能,輸出 token 數(shù)明顯更多

具體的看這張圖


表3|各個模型的 token 效率 其他:上下文管理策略

搜索智能體場景有個問題:經常撞到 128K 的上下文限制

DeepSeek 試了幾種策略:

  1. 1.Summary:超限后總結軌跡,重新開始

  2. 2.Discard-75%:丟棄前 75% 的工具調用歷史

  3. 3.Discard-all:丟棄所有工具調用歷史(類似 Anthropic 的 new context tool)

  4. 4.Parallel-fewest-step:并行采樣多個軌跡,選步數(shù)最少的

圖6|上下文管理效果。Discard-all 簡單但效果最好,67.6% vs 基線 53.4%

結果有點反直覺:
最簡單的 Discard-all 效果最好,BrowseComp 從 53.4% 提升到 67.6%
Summary 效率最低,雖然也能提升性能

還差什么

DeepSeek 團隊坦誠說了三個局限:

1. 世界知識不夠豐富
訓練算力有限,知識廣度不如 Gemini-3.0-Pro
計劃未來擴大預訓練規(guī)模

2. Token 效率低
達到同樣輸出質量,需要生成更多 token
需要優(yōu)化推理鏈的「智能密度」
這個上文提了

3. 最難的任務還有差距
在最頂尖的復雜任務上,和 Gemini-3.0-Pro 還有差距

我覺得吧,這三個局限其實指向同一個問題:算力
預訓練算力不夠,知識就不夠廣
后訓練算力不夠,token 效率就上不去
基礎模型能力不夠,最難的任務就做不好

但反過來說,DeepSeek 在有限算力下能做到這個程度,也或許說明...技術路線是對的?

總結

這篇論文,大致說了這三件事兒

  • ?DSA 解決了效率問題,讓大規(guī)模后訓練成為可能

  • ?大規(guī)模后訓練,帶來了更高的訓練回報

  • ?大規(guī)模合成數(shù)據(jù),讓智能體能力的泛化成為可能

三件事串起來,讓 DeepSeek v3.2,在推理能力上追平了 GPT-5

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
江宏杰曬和孩子們一起過圣誕節(jié)照片 按撫養(yǎng)協(xié)議他們還是有媽媽的

江宏杰曬和孩子們一起過圣誕節(jié)照片 按撫養(yǎng)協(xié)議他們還是有媽媽的

勁爆體壇
2025-12-25 07:22:04
嚴防死守36年,利智還是輸了,李連杰終是沒放下一直虧欠的“她”

嚴防死守36年,利智還是輸了,李連杰終是沒放下一直虧欠的“她”

法老不說教
2025-12-24 18:25:17
風水輪流轉! 掃地出門、人財兩空 張嘉倪官宣喜訊,打臉買超

風水輪流轉! 掃地出門、人財兩空 張嘉倪官宣喜訊,打臉買超

銀河史記
2025-12-24 12:15:44
南博前副院長別墅“劇終”謎底揭曉!《江南春》送拍有人浮出水面

南博前副院長別墅“劇終”謎底揭曉!《江南春》送拍有人浮出水面

火山詩話
2025-12-24 12:13:36
期待!邵佳一國足有望召入4名歸化:羅慕洛2個月后即可入籍!

期待!邵佳一國足有望召入4名歸化:羅慕洛2個月后即可入籍!

邱澤云
2025-12-24 22:36:57
馬科斯夫人邀中方進餐,不到72小時通告全球:中菲聯(lián)手干了件大事

馬科斯夫人邀中方進餐,不到72小時通告全球:中菲聯(lián)手干了件大事

博覽歷史
2025-12-24 09:57:59
保護心臟,朝左睡還是朝右睡好?醫(yī)生:若想心臟健康,做好...

保護心臟,朝左睡還是朝右睡好?醫(yī)生:若想心臟健康,做好...

袁醫(yī)生課堂
2025-12-25 07:34:23
歐陽娜娜好肥嫩

歐陽娜娜好肥嫩

情感大頭說說
2025-12-25 07:42:11
海南“零關稅”豪車真相:寶馬X5、保時捷卡宴鮮有符合要求車型,免稅進口車僅限企業(yè)營運

海南“零關稅”豪車真相:寶馬X5、保時捷卡宴鮮有符合要求車型,免稅進口車僅限企業(yè)營運

每日經濟新聞
2025-12-23 16:32:04
烤雞少年承認用“肉寶王”來調味,廠家人員:是已生產25年的合法調味料,不是添加劑

烤雞少年承認用“肉寶王”來調味,廠家人員:是已生產25年的合法調味料,不是添加劑

極目新聞
2025-12-22 19:57:51
今年上海發(fā)生居住場所火災4928起,消防部門專項推進冬季火災防控

今年上海發(fā)生居住場所火災4928起,消防部門專項推進冬季火災防控

澎湃新聞
2025-12-24 17:44:27
澎湃新聞記者的調查補齊了徐湖平犯罪證據(jù)鏈,江南春已經實際成交5000萬元,拍賣行的畫作就是龐家的

澎湃新聞記者的調查補齊了徐湖平犯罪證據(jù)鏈,江南春已經實際成交5000萬元,拍賣行的畫作就是龐家的

互聯(lián)網大觀
2025-12-24 17:03:44
英超球員2025年身價漲幅榜:沃爾特馬德暴漲6250萬歐第1

英超球員2025年身價漲幅榜:沃爾特馬德暴漲6250萬歐第1

懂球帝
2025-12-25 03:33:08
攤牌!美國搶中國180萬桶原油,要絞殺人民幣?中方反殺已就位

攤牌!美國搶中國180萬桶原油,要絞殺人民幣?中方反殺已就位

現(xiàn)代小青青慕慕
2025-12-24 22:12:19
深扒南京博物院和龐家的恩怨,真比電視劇還狗血

深扒南京博物院和龐家的恩怨,真比電視劇還狗血

結古歡
2025-12-25 10:31:58
太諷刺!龐家無償捐4700平米祖宅,院長雙謊被戳穿,省多部門介入

太諷刺!龐家無償捐4700平米祖宅,院長雙謊被戳穿,省多部門介入

好賢觀史記
2025-12-23 18:14:27
冬至后,這4種激素水果一定要少買!果販子透露:不要錢都不吃

冬至后,這4種激素水果一定要少買!果販子透露:不要錢都不吃

阿龍美食記
2025-12-24 10:52:39
長城魏建軍回應魏牌“九年八換CEO”:并不是我們辭退人家,是他們自己感覺壓力特別大

長城魏建軍回應魏牌“九年八換CEO”:并不是我們辭退人家,是他們自己感覺壓力特別大

紅星資本局
2025-12-24 11:41:09
男子發(fā)現(xiàn)13個月大女兒非親生,提出離婚并要追回養(yǎng)育費,多部門介入調解化解家庭糾紛

男子發(fā)現(xiàn)13個月大女兒非親生,提出離婚并要追回養(yǎng)育費,多部門介入調解化解家庭糾紛

極目新聞
2025-12-24 17:34:44
中央編辦批復同意組建新機構后,省委書記調研

中央編辦批復同意組建新機構后,省委書記調研

新京報政事兒
2025-12-25 09:11:12
2025-12-25 11:20:49
賽博禪心
賽博禪心
拜AI古佛,修賽博禪心
224文章數(shù) 12關注度
往期回顧 全部

科技要聞

屠龍少年被"招安"!英偉達平安夜豪擲200億

頭條要聞

媒體:靖國神社強塞韓軍人牌位 韓國如何清算是個看點

頭條要聞

媒體:靖國神社強塞韓軍人牌位 韓國如何清算是個看點

體育要聞

26歲廣西球王,在質疑聲中成為本土得分王

娛樂要聞

金莎被小19歲男友求婚,成功后擁抱親吻

財經要聞

美國未來18個月不對中國芯片加額外關稅

汽車要聞

預售31.3萬元起 全新奧迪Q5L將于1月內上市

態(tài)度原創(chuàng)

藝術
親子
時尚
本地
健康

藝術要聞

何鏡堂院士新巨作!砸5億,江西“頭號工程”藏著什么硬核科技?

親子要聞

江西幼兒園園長駕車落水,致8人遇難后續(xù),家長:園長也是好心

對不起周柯宇,是陳靖可先來的

本地新聞

云游安徽|一川江水潤安慶,一塔一戲一城史

這些新療法,讓化療不再那么痛苦

無障礙瀏覽 進入關懷版