国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

Nature子刊:大模型進(jìn)入“密度時代”

0
分享至


導(dǎo)語

大語言模型已成為人工智能發(fā)展的重要里程碑。既有的規(guī)模法則表明,隨著模型規(guī)模的擴大,LLM的性能會持續(xù)提升,但這也對訓(xùn)練與部署帶來顯著挑戰(zhàn)。盡管業(yè)界不斷嘗試提升模型效率,卻仍缺乏關(guān)于不同規(guī)模LLM的效率發(fā)展趨勢與評價體系的統(tǒng)一共識。為解決性能與效率之間的張力,本文提出“能力密度”這一概念,用以衡量模型在單位參數(shù)上所體現(xiàn)的有效能力,從而在性能與效率兩個維度上提供統(tǒng)一的評價框架。我們進(jìn)一步給出一項經(jīng)驗性發(fā)現(xiàn),即“密度定律”:LLM的能力密度隨時間呈指數(shù)增長?;诙鄠€主流基準(zhǔn)的評估結(jié)果顯示,開源LLM的最大能力密度大約每3.5個月翻倍。這意味著,實現(xiàn)同等性能所需的參數(shù)規(guī)模與推理成本均在指數(shù)下降,為高效LLM的開發(fā)策略提供了新的啟示。

關(guān)鍵詞:大語言模型(LLMs)、規(guī)模法則(Scaling Law)、能力密度(Capability Density)、密度定律(Densing Law)、效率評估(Efficiency Evaluation)

鄭鴻盛丨作者

趙思怡丨審校


論文題目:Densing law of LLMs 論文鏈接:https://www.nature.com/articles/s42256-025-01137-0 發(fā)表時間:2025年11月6日 論文來源:Nature Machine Intelligence

能力密度的指數(shù)躍遷,

正在悄悄改變 AI 的未來

近兩年,大模型的突飛猛進(jìn)讓人切身感受到“技術(shù)狂飆”,然而一個更耐人尋味的現(xiàn)象也隨之浮現(xiàn):模型能力不斷提高,推理成本卻在飛速下降;小模型越來越頻繁地逼近甚至超越大模型;而“繼續(xù)堆參數(shù)”似乎不再是性能提升的唯一途徑。2025年11月6日發(fā)表于Nature Machine Intelligence 的論文《Densing Law of LLMs》給出了一種顛覆性的解釋——大模型正在從拼“規(guī)模”轉(zhuǎn)向拼“密度”。研究發(fā)現(xiàn),LLM的“能力密度”(capability density)正以指數(shù)速度增長,約每3.5個月翻一倍,這意味著達(dá)到同等性能所需的參數(shù)量大幅減少,推理成本呈指數(shù)級下降,端側(cè)智能(在手機、PC等本地設(shè)備運行大模型)將比預(yù)期更早成熟。這不是簡單的性能提升,而是一場關(guān)于效率的革命。讓我們從這篇可能深刻影響未來五年的論文開始,重新理解大模型的進(jìn)化方向。

過去衡量模型能力,業(yè)界普遍遵循“參數(shù)越大,性能越強”的直覺,但隨著大量開源模型的涌現(xiàn),這一直覺邏輯開始失靈,出現(xiàn)7B模型逼近甚至匹敵70B模型,4B模型在部分任務(wù)上超過13B模型,手機端模型也逐漸具備ChatGPT3.5的水平,而訓(xùn)練數(shù)據(jù)質(zhì)量與訓(xùn)練策略的重要性日益凸顯。這些現(xiàn)象共同指向一個事實——參數(shù)量已無法充分解釋模型能力的差異,規(guī)模不再等同于質(zhì)量。因此,真正需要關(guān)注的已不再是“模型有多大”,而是“模型的效率有多高”。

什么是“能力密度”?簡單來說,它衡量的是模型“每個參數(shù)的含金量”。其定義為:能力密度 = 模型的有效能力 ÷ 實際參數(shù)量。這里的“有效能力”并非模型自身的參數(shù)規(guī)模,而是一個反推值:如果某模型達(dá)到特定性能,那么一套參考模型需要多少參數(shù)才能取得相同表現(xiàn),這個等效參數(shù)量記為 N?(此處的參考模型為研究者自建的一系列不同參數(shù)規(guī)模、結(jié)構(gòu)一致、訓(xùn)練流程一致的小參數(shù)規(guī)模模型)。于是能力密度可寫為 ρ = N? / N,用來刻畫模型訓(xùn)練得是否“緊實”。例如,一個3B模型若達(dá)到參考模型6B的能力,則密度 ρ = 6 / 3 = 2,代表其單位參數(shù)效率極高;反之,若一個7B模型只能達(dá)到參考模型3B的水平,則 ρ < 1,說明其參數(shù)利用率偏低。本質(zhì)上,能力密度回答的就是那一句:模型的每個參數(shù)到底“值不值錢”?

密度定律:能力密度正以指數(shù)方式增長

本研究中最重要的發(fā)現(xiàn)之一,是大模型的能力密度隨時間呈現(xiàn)穩(wěn)定的指數(shù)增長趨勢。研究者選取五十余個近年來發(fā)布的開源基礎(chǔ)模型,覆蓋多個系列(如 Llama、Mistral、Gemma、Phi、DeepSeek、MiniCPM 等),并在多個主流基準(zhǔn)(MMLU、BBH、MATH、HumanEval、MBPP)上進(jìn)行統(tǒng)一評估。結(jié)果顯示,模型的最大能力密度大約每 3.5 個月翻一倍,這一趨勢在不同任務(wù)和不同模型之間都十分一致。


圖 1|近年來開源大模型的能力密度趨勢。每個點代表一個模型,圓點越大參數(shù)量越大。從圖中可以看到,隨著時間推移,能力密度的上界呈現(xiàn)清晰的指數(shù)增長。

這一指數(shù)增長趨勢意味著:未來達(dá)到相同性能所需的參數(shù)量將持續(xù)減少。換言之,人們慣常認(rèn)為的“大模型能力強、但成本高”的認(rèn)知,將在未來不斷被弱化。更令人興奮的是,這種指數(shù)增長在新模型中體現(xiàn)得更為突出,特別是數(shù)據(jù)質(zhì)量、訓(xùn)練策略更為精細(xì)的小模型,往往展現(xiàn)出遠(yuǎn)超其規(guī)模的能力密度。

能力密度提升的一個自然結(jié)果,是實現(xiàn)相同性能所需的實際參數(shù)量不斷減少。與此同時,推理成本也正在以類似的指數(shù)速度下降。文章對多個高性能模型的API調(diào)用價格進(jìn)行了整理,并展示了一個同樣令人驚訝的趨勢:模型的推理價格大約每2.6個月減半。2022 年 GPT-3.5 的價格約為每百萬token需要20美元,而到了 2024 年,Gemini Flash的推理價格僅為0.075美元,相當(dāng)于下降了超過260倍。


圖 2|近年來幾個主流語言模型的推理價格變化。性能優(yōu)于 GPT-3.5 的大語言模型(LLMs)的應(yīng)用程序接口(API)定價。線條連接各時間點定價最低的模型,最便宜模型的API定價呈指數(shù)下降。

推理成本的下降不僅來自模型能力密度的提升,也來自底層推理技術(shù)的優(yōu)化,例如 FlashAttention、PagedAttention、量化推理格式、稀疏激活架構(gòu)等。隨著模型本身越來越“緊實”,推理成本的下降幅度也將持續(xù)擴大。

當(dāng)密度定律遇上 Moore 定律:

端側(cè)智能將提前爆發(fā)

當(dāng)能力密度的指數(shù)增長與硬件性能的指數(shù)增長疊加時,一個更加激進(jìn)的趨勢會出現(xiàn)。過去數(shù)十年里,硬件晶體管密度大約每兩年翻一倍;如今,大模型的能力密度每3.5個月翻一倍。兩者的乘積效果意味著:在固定價格的硬件上,能夠運行的“有效模型規(guī)模”約每88天翻一倍。

這預(yù)示著什么?預(yù)示著過去需要云端大模型才能實現(xiàn)的能力,未來將能在手機、電腦、平板等設(shè)備上高效運行。端側(cè) AI 的普及速度可能遠(yuǎn)超過我們目前的想象,隱私計算、低成本部署、離線大模型應(yīng)用將因此迎來爆發(fā)式發(fā)展。


圖 3|大模型的高性能正向小規(guī)模模型遷移,同時端側(cè)可運行模型的能力快速提升(圖片源于網(wǎng)絡(luò))。紅色虛線區(qū)域代表接近GPT-4V水平的模型帶寬,隨著時間推移,越來越小的模型逐漸逼近這一性能區(qū)間;下方藍(lán)色虛線趨勢線展示了能夠在端側(cè)設(shè)備運行的模型能力不斷上升。

高密度模型不是“壓”出來的,而是“練”出來的

在參數(shù)規(guī)??焖俦恢匦略u估的背景下,一個看似合理的猜想是:既然參數(shù)越少越高效,那么剪枝、蒸餾、量化等模型壓縮技術(shù)應(yīng)該更容易得到高能力密度的小模型。但論文的實驗結(jié)果卻指向相反方向——壓縮后的模型能力密度整體上并不比原模型高,甚至往往更低。其根本原因在于,壓縮過程雖然減少了模型的實際參數(shù)量,卻沒有讓模型獲得足夠的再訓(xùn)練,從而無法讓這些“更輕”的參數(shù)真正承擔(dān)起更高的能力負(fù)載。尤其是量化,雖然降低了內(nèi)存和推理成本,但不可避免地帶來一定的性能損失。因此,真正高密度的小模型,并不是“從大模型壓縮而來”,而是“從一開始就為高密度而訓(xùn)練”的結(jié)果。

能力密度之所以能夠持續(xù)提升,主要源于三方面的共同推動。首先,訓(xùn)練數(shù)據(jù)的規(guī)模與質(zhì)量顯著提高。以Llama系列為例,Llama-3 所使用的15萬億token數(shù)據(jù)不僅規(guī)模遠(yuǎn)超Llama-1的1.4萬億token,且在清洗與篩選流程上更加精細(xì),這使模型能夠在同樣結(jié)構(gòu)下學(xué)習(xí)到更豐富、更可靠的知識。其次,模型結(jié)構(gòu)日益高效。以稀疏專家模型(MoE)為代表的新架構(gòu),使模型在推理時僅激活部分專家,從而以更低的計算量獲得更強的表達(dá)能力,大幅提高“參數(shù)的利用率”。最后,訓(xùn)練算法不斷演進(jìn)。無論是將強化學(xué)習(xí)前移到預(yù)訓(xùn)練階段,還是利用高質(zhì)量的合成數(shù)據(jù)和“弱到強”(weak-to-strong)訓(xùn)練策略,這些方法都讓模型能夠在固定參數(shù)量下挖掘出更高的能力上限。這些因素共同作用,使得模型在“單位參數(shù)上可以學(xué)習(xí)到更多能力”,從而推動能力密度不斷攀升。

當(dāng)然,謹(jǐn)慎來說能力密度的增長不可能無限持續(xù)。信息論告訴我們,每個參數(shù)能夠存儲的信息量是有限的,模型參數(shù)的表達(dá)能力也有理論上界。隨著模型的訓(xùn)練方式、數(shù)據(jù)質(zhì)量和結(jié)構(gòu)不斷提升,能力密度的增長最終將遇到瓶頸。屆時,如果要繼續(xù)突破當(dāng)前框架的限制,可能需要依賴全新的技術(shù)范式,例如量子計算、類腦計算或其他尚未成熟的計算架構(gòu)。盡管如此,在可預(yù)見的未來幾年中,能力密度仍會保持高速增長,模型變“密”的趨勢不會減弱。

密度定律不僅是一個科學(xué)觀察,更是一個具有產(chǎn)業(yè)指導(dǎo)意義的趨勢。對于模型研發(fā)而言,它提示我們,未來的競爭不再是單純擴大參數(shù)規(guī)模,而是追求“更高密度”的訓(xùn)練方法與更高質(zhì)量的數(shù)據(jù);對于企業(yè)而言,可以據(jù)此預(yù)測未來模型成本的下降趨勢,從而更合理安排AI投入;對于硬件和應(yīng)用產(chǎn)業(yè),則意味著端側(cè)智能將迎來快速擴張,本地運行大模型將從技術(shù)挑戰(zhàn)變成新常態(tài)。

從“大”到“密”,AI 的進(jìn)化正在加速重寫

《Densing Law of LLMs》揭示的,是一種隱藏在大模型演化背后的“效率革命”。在這個新的發(fā)展階段,模型不再依賴“堆大”,而是通過更智能的訓(xùn)練、更優(yōu)的數(shù)據(jù)、更精細(xì)的結(jié)構(gòu)獲得更高的效率。能力密度的指數(shù)提升讓我們看到:未來的大模型既可能更強,也可能更輕、更快、更便宜,甚至隨時運行在每個人的口袋里。

我們正在見證語言模型從“規(guī)模時代”邁向“密度時代”,而這一轉(zhuǎn)變,或許將深刻改變未來五年乃至整個AI產(chǎn)業(yè)的面貌。

大模型2.0讀書會

o1模型代表大語言模型融合學(xué)習(xí)與推理的新范式。集智俱樂部聯(lián)合北京師范大學(xué)系統(tǒng)科學(xué)學(xué)院教授張江、Google DeepMind研究科學(xué)家馮熙棟、阿里巴巴強化學(xué)習(xí)研究員王維塤和中科院信工所張杰共同發(fā)起,本次讀書會將關(guān)注大模型推理范式的演進(jìn)、基于搜索與蒙特卡洛樹的推理優(yōu)化、基于強化學(xué)習(xí)的大模型優(yōu)化、思維鏈方法與內(nèi)化機制、自我改進(jìn)與推理驗證。希望通過讀書會探索o1具體實現(xiàn)的技術(shù)路徑,幫助我們更好的理解機器推理和人工智能的本質(zhì)。讀書會已完結(jié),現(xiàn)在報名可加入社群并解鎖回放視頻權(quán)限。

詳情請見:

1.

2.

3.

4.

5.

6.

7.

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
楊瀚森NBA穩(wěn)了!10分鐘穩(wěn)定輪換+3點進(jìn)步明顯,斯普利特用心良苦

楊瀚森NBA穩(wěn)了!10分鐘穩(wěn)定輪換+3點進(jìn)步明顯,斯普利特用心良苦

二哥聊球
2026-01-05 11:55:07
街道辦回應(yīng)“揚塵逼遷”:是忘加水導(dǎo)致的誤操作

街道辦回應(yīng)“揚塵逼遷”:是忘加水導(dǎo)致的誤操作

映射生活的身影
2026-01-04 18:09:17
Nature最新論文:奶茶比酒精更具殺傷力,多喝1杯,死亡風(fēng)險加37%

Nature最新論文:奶茶比酒精更具殺傷力,多喝1杯,死亡風(fēng)險加37%

知識圈
2026-01-04 16:42:31
李在明:周五下班去上海是韓國年輕人的新潮流

李在明:周五下班去上海是韓國年輕人的新潮流

看看新聞Knews
2026-01-05 18:21:02
三角洲高價值目標(biāo)抓捕:直升機、特種車輛、戰(zhàn)術(shù),適配元首級目標(biāo)

三角洲高價值目標(biāo)抓捕:直升機、特種車輛、戰(zhàn)術(shù),適配元首級目標(biāo)

形上謂道
2026-01-03 19:33:18
要涼了?閆學(xué)晶賬號櫥窗已清空,代言產(chǎn)品遭抵制,網(wǎng)友呼吁封殺

要涼了?閆學(xué)晶賬號櫥窗已清空,代言產(chǎn)品遭抵制,網(wǎng)友呼吁封殺

丁丁鯉史紀(jì)
2026-01-05 10:53:19
閆學(xué)晶回應(yīng)質(zhì)疑:你們能和我比嗎?都是酸黃瓜,欠揍的話不要講

閆學(xué)晶回應(yīng)質(zhì)疑:你們能和我比嗎?都是酸黃瓜,欠揍的話不要講

阿纂看事
2026-01-03 16:07:39
第一批“年終獎”到賬了,+299706.04元

第一批“年終獎”到賬了,+299706.04元

螞蟻大喇叭
2026-01-05 11:31:39
曝山東泰山敲定教練組!韓鵬組長+宿茂臻主帥,或簽邊路多面手

曝山東泰山敲定教練組!韓鵬組長+宿茂臻主帥,或簽邊路多面手

奧拜爾
2026-01-05 14:53:51
美國掌控委內(nèi)瑞拉內(nèi)幕!馬杜羅拒絕流亡后,特朗普轉(zhuǎn)而選中看似更聽話的副手

美國掌控委內(nèi)瑞拉內(nèi)幕!馬杜羅拒絕流亡后,特朗普轉(zhuǎn)而選中看似更聽話的副手

互聯(lián)網(wǎng)大觀
2026-01-05 10:13:03
國民黨中央委員選舉結(jié)果出爐,朱立倫狂喜,連戰(zhàn)布局,鄭麗文失意

國民黨中央委員選舉結(jié)果出爐,朱立倫狂喜,連戰(zhàn)布局,鄭麗文失意

井普椿的獨白
2026-01-04 17:30:13
2007年,傅冬菊在北京醫(yī)院離世,作為推動北平和平解放的功臣,她卻曾被多次催促繳納房款

2007年,傅冬菊在北京醫(yī)院離世,作為推動北平和平解放的功臣,她卻曾被多次催促繳納房款

寄史言志
2026-01-02 19:54:08
1967年飛行員追敵機時一緊張誤投減速傘,卻讓上級直接給他一等功

1967年飛行員追敵機時一緊張誤投減速傘,卻讓上級直接給他一等功

宅家伍菇?jīng)?/span>
2025-12-23 09:00:03
中國民眾呼聲高漲:既然美國能活捉馬杜羅,大陸為何不抓賴清德?

中國民眾呼聲高漲:既然美國能活捉馬杜羅,大陸為何不抓賴清德?

博覽歷史
2026-01-04 18:50:59
84歲“中國鞋王”汪海聲明與兒子、兒媳斷絕關(guān)系:中國人的民族品牌,絕不能讓“美國身份的人”接班

84歲“中國鞋王”汪海聲明與兒子、兒媳斷絕關(guān)系:中國人的民族品牌,絕不能讓“美國身份的人”接班

都市快報橙柿互動
2026-01-04 20:37:08
廣東92年小伙領(lǐng)養(yǎng)12歲外甥女?當(dāng)事人回應(yīng)

廣東92年小伙領(lǐng)養(yǎng)12歲外甥女?當(dāng)事人回應(yīng)

極目新聞
2026-01-04 19:33:43
魯比奧:可能派兵進(jìn)入

魯比奧:可能派兵進(jìn)入

環(huán)球時報國際
2026-01-05 15:06:20
曼聯(lián)官宣換帥!阿莫林一句話惹翻管理層,從14名到第6也保不住他

曼聯(lián)官宣換帥!阿莫林一句話惹翻管理層,從14名到第6也保不住他

夏侯看英超
2026-01-05 19:27:45
中國乘客被趕下飛機!委內(nèi)瑞拉機組回應(yīng)拒載操作:去看新聞吧!

中國乘客被趕下飛機!委內(nèi)瑞拉機組回應(yīng)拒載操作:去看新聞吧!

聽風(fēng)喃
2026-01-05 04:39:07
田樸珺刪光王石合影,王石:每晚最難熬是等她回家,不知道回不回

田樸珺刪光王石合影,王石:每晚最難熬是等她回家,不知道回不回

眉眼動人
2026-01-04 11:41:23
2026-01-05 19:51:00
集智俱樂部 incentive-icons
集智俱樂部
科普人工智能相關(guān)知識技能
5586文章數(shù) 4661關(guān)注度
往期回顧 全部

科技要聞

4100家科技企業(yè)集結(jié)賭城,CES揭開AI新戰(zhàn)場

頭條要聞

美對委動手致歐盟立場分裂 兩元首先后發(fā)文內(nèi)容南轅北轍

頭條要聞

美對委動手致歐盟立場分裂 兩元首先后發(fā)文內(nèi)容南轅北轍

體育要聞

41歲詹皇26+10+6又迎里程碑 湖媒贊GOAT

娛樂要聞

黃宗澤奪雙料視帝,淚灑頒獎臺憶往昔

財經(jīng)要聞

丁一凡:中美進(jìn)入相對穩(wěn)定的競爭共存期

汽車要聞

海獅06EV冬季續(xù)航挑戰(zhàn) "電"這事比亞迪絕對玩明白了

態(tài)度原創(chuàng)

健康
家居
數(shù)碼
旅游
軍事航空

這些新療法,讓化療不再那么痛苦

家居要聞

白色大理石 奢華現(xiàn)代

數(shù)碼要聞

PConline 2025智臻科技獎|年度智臻產(chǎn)品:鐵威馬 F4-425Plus

旅游要聞

從現(xiàn)在至元宵節(jié) 德州推出7大主題132項文旅活動

軍事要聞

馬杜羅預(yù)計5日在紐約"首次出庭"

無障礙瀏覽 進(jìn)入關(guān)懷版