国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請入駐

唯快不破:上海AI Lab 82頁綜述帶你感受LLM高效架構(gòu)的魅力

0
分享至



作者:孫偉高上海人工智能實(shí)驗(yàn)室

近年來,大語言模型(LLMs)展現(xiàn)出強(qiáng)大的語言理解與生成能力,推動(dòng)了文本生成、代碼生成、問答、翻譯等任務(wù)的突破。代表性模型如 GPT、Claude、Gemini、DeepSeek、Qwen 等,已經(jīng)深刻改變了人機(jī)交互方式。LLMs 的邊界也不止于語言和簡單問答。隨著多模態(tài)(VLMs)與推理能力(LRMs)的興起,LLMs 正不斷擴(kuò)展到多模態(tài)理解、生成與復(fù)雜推理場景。

但模型性能持續(xù)提升的背后,是模型尺寸、數(shù)據(jù)規(guī)模、RL 推理長度的快速 Scaling,是算力和存儲(chǔ)資源的急劇消耗。大模型的訓(xùn)練與推理的成本居高不下,成為制約其廣泛落地和應(yīng)用的現(xiàn)實(shí)瓶頸。

本文從 LLM 架構(gòu)角度出發(fā),帶你剖析大模型的效率秘訣。這一切的核心在于 Transformer 架構(gòu)。Transformer 的自注意力機(jī)制雖帶來了遠(yuǎn)距離建模的突破,卻因O(N2)的復(fù)雜度在長序列任務(wù)中成本高昂。而在 RAG、智能體、長鏈推理、多模態(tài)等新興場景下,長序列需求愈發(fā)突出,進(jìn)一步放大了效率與性能之間的矛盾。同時(shí) Transformer 的 FFN 部分采用密集的 MLP 層,同樣面臨模型規(guī)模放大后的訓(xùn)練和推理效率問題。

近年來針對 Transformer 架構(gòu)改進(jìn)的創(chuàng)新工作層出不窮,卻一直缺乏一篇全面深入的綜述文章進(jìn)行總結(jié)。



圖 1:常見長序列場景

近期,上海 AI Lab聯(lián)合港科廣、澳門大學(xué)、中科院自動(dòng)化所、蘇州大學(xué)、瑞典 KTH、北大、港中文等多家機(jī)構(gòu),總結(jié) 440 余篇相關(guān)論文,深入探討了當(dāng)前LLM 高效結(jié)構(gòu)的最新進(jìn)展,形成這篇 82 頁的綜述論文:



  • 論文標(biāo)題:Speed Always Wins: A Survey on Efficient Architectures for Large Language Models
  • 論文地址:
  • https://arxiv.org/pdf/2508.09834
  • 項(xiàng)目倉庫:
  • https://github.com/weigao266/Awesome-Efficient-Arch



圖 2:大語言模型高效架構(gòu)概覽

該綜述將目前 LLM 高效架構(gòu)總結(jié)分類為以下 7 類:

  • 線性序列建模:降低注意力訓(xùn)練和推理復(fù)雜度,無需 KV Cache 開銷。
  • 稀疏序列建模:通過稀疏化注意力矩陣,降低計(jì)算與顯存需求。
  • 高效全注意力:在保持完整注意力的前提下優(yōu)化內(nèi)存訪問與 KV 存儲(chǔ)。
  • 稀疏專家模型:通過條件激活部分專家,大幅提升模型容量而不增加等比例計(jì)算成本。
  • 混合模型架構(gòu):結(jié)合線性/稀疏序列建模與全注意力,兼顧效率與性能。
  • 擴(kuò)散語言模型:利用非自回歸的擴(kuò)散模型進(jìn)行語言生成。
  • 其他模態(tài)應(yīng)用:將這些高效架構(gòu)應(yīng)用于視覺、語音、多模態(tài)模型。

這些方向的探索不僅關(guān)乎 LLM 的未來效率,也關(guān)乎如何在算力受限的條件下,持續(xù)推動(dòng) AI 走向更強(qiáng)的智能的關(guān)鍵選擇。綜述涉及的方法類別和代表性論文可見如下樹狀圖:



圖 3:綜述完整組織架構(gòu)

線性序列建模

線性序列建模是近年來研究相當(dāng)火熱的一個(gè)方向,代表性工作像Mamba、Lighting Attention、RWKV、GLA、TTT 等在模型架構(gòu)方向都引起過廣泛關(guān)注。我們將這類技術(shù)細(xì)分為以下幾個(gè)類別:

  • 線性注意力
  • 線性 RNN
  • 狀態(tài)空間模型
  • 測試時(shí)推理 RNN

并且正如在多篇文獻(xiàn)里已經(jīng)提出的,這些線性序列建模方法可以概括為統(tǒng)一建模的數(shù)學(xué)形式,并且能夠通過線性化過程將預(yù)訓(xùn)練模型權(quán)重的 Softmax Attention 架構(gòu)轉(zhuǎn)為 Linear Sequence Modeling 架構(gòu),從而獲得模型效率的大幅提升,如下圖所示。



圖 4:線性序列建模方法

我們將已有的線性序列建模方法從記憶視角和優(yōu)化器視角分別進(jìn)行梳理和對比,詳細(xì)形式可見下表:



表 1:線性序列建模方法統(tǒng)一建模的 Memory 視角和 Optimizer 視角

其中線性化技術(shù)可以進(jìn)一步細(xì)分為基于微調(diào)的線性化,和基于蒸餾的線性化,如下圖所示:



圖 5:線性化方法

綜述還進(jìn)一步總結(jié)歸納了目前在線性序列建模領(lǐng)域常見的硬件高效實(shí)現(xiàn)方法,可以歸納為 Blelloch Scan、Chunk-wise Parallel 和 Recurrent for Inferences,如下圖所示:



圖 6:線性序列建模方法的硬件高效實(shí)現(xiàn)

稀疏序列建模

稀疏序列建模是另一類有代表性的高效注意力機(jī)制,通過利用 Attention Map 天然具有的稀疏性加速注意力的計(jì)算,這類方法可以進(jìn)一步細(xì)分為:

  • 靜態(tài)稀疏注意力
  • 動(dòng)態(tài)稀疏注意力
  • 免訓(xùn)練稀疏注意力

代表性的稀疏注意力方法如 Global Attention、Window Attention、Dilated Attention 等,及其工作原理如下圖所示:



圖 7:稀疏注意力的幾種經(jīng)典形式

高效全注意力

另一類高效注意力算法可以統(tǒng)一歸納為高效全注意力,這類方法可以根據(jù)算法思路進(jìn)一步細(xì)分為如下幾類:

  • IO-Aware Attention
  • Grouped Attention
  • Mixture of Attention
  • Quantized Attention

其中 IO-Aware Attention 指代目前使用非常廣泛的Flash Attention系列工作,Grouped Attention 則包含廣為使用的 GQA、MLA等全注意力變體,幾種代表性方法如下圖所示。



圖 8:Grouped Attention 的幾種代表性方法

稀疏混合專家

稀疏混合專家是對 Transformer 架構(gòu)中另一個(gè)重要模塊 FFN 做的一類重要改進(jìn),已經(jīng)逐漸成為(語言和多模態(tài))大模型架構(gòu)的事實(shí)標(biāo)準(zhǔn)。綜述中將相關(guān)文獻(xiàn)按以下三個(gè)方向進(jìn)行分類:

  • Routing Mechanisms
  • Expert Architectures
  • MoE Conversion

路由機(jī)制包括 Token-choice 和 Expert-choice 兩類,其原理如下圖所示:



圖 9:MoE 路由機(jī)制

專家結(jié)構(gòu)的創(chuàng)新工作包括:共享專家、細(xì)粒度專家、零專家、深度路由等,其作用和原理可見下圖:



圖 10:MoE 專家架構(gòu)

另外一個(gè)重要的方向是 MoE 轉(zhuǎn)換,已有的工作包括通過 Split、Copy、Merge 等手段對專家進(jìn)行構(gòu)造,如下圖所示:



圖 11:MoE 轉(zhuǎn)化機(jī)制

混合架構(gòu)

混合架構(gòu)是近年來出現(xiàn)的一種實(shí)用的新型架構(gòu),可以在線性/稀疏注意力和全注意力之間取得微妙的 Trade-off,也在效率和效果間找到了最佳甜蜜點(diǎn)。具體可細(xì)分為:

  • 層間混合
  • 層內(nèi)混合



圖 12:混合架構(gòu)形式

擴(kuò)散大語言模型

擴(kuò)散大語言模型是近期出現(xiàn)的一個(gè)熱門方向,創(chuàng)新性地將擴(kuò)散模型從視覺生成任務(wù)遷移至語言任務(wù),從而在語言生成速度上取得大幅進(jìn)步。相關(guān)工作可以細(xì)分為:

  • Non-Autoregressive Diffusion LLM
  • Bridging Diffusion LLM and Autoregressive
  • Extending Diffusion LLM to Multimodality



圖 13:擴(kuò)散大語言模型機(jī)制

應(yīng)用至其他模態(tài)

最后一個(gè)重要的部分是高效架構(gòu)在其他模態(tài)上的應(yīng)用,涵蓋視覺、音頻和多模態(tài)。以 Mamba 為代表的線性模型被廣泛應(yīng)用至多種模態(tài)任務(wù)上,并取得了優(yōu)秀的表現(xiàn),綜述將這類模型總結(jié)梳理至如下表格:



寄語

最后正如帝國時(shí)代 3 中這條神奇代碼「Speed Always Wins」能讓游戲世界「Increases build, research,shipment, and gather rates by 100 times for all players」一樣,我們希望綜述中的 Efficient Architectures 可以真被用來 100x 加速 AI 世界的構(gòu)建,更快更便宜地訓(xùn)練出更強(qiáng)更實(shí)用的大模型。請記住這條神奇代碼:「Speed Always Wins」

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
泰方點(diǎn)名調(diào)查柬“生命研究中心”,湘雅醫(yī)院火速撇清:從未合作

泰方點(diǎn)名調(diào)查柬“生命研究中心”,湘雅醫(yī)院火速撇清:從未合作

胡嚴(yán)亂語
2025-12-20 16:13:32
市監(jiān)局通報(bào)“南極磷蝦油”事件:已成立聯(lián)合調(diào)查組進(jìn)駐北京同仁堂(四川)健康藥業(yè)有限公司開展調(diào)查,已對該企業(yè)立案

市監(jiān)局通報(bào)“南極磷蝦油”事件:已成立聯(lián)合調(diào)查組進(jìn)駐北京同仁堂(四川)健康藥業(yè)有限公司開展調(diào)查,已對該企業(yè)立案

極目新聞
2025-12-20 19:28:56
東京舉辦特殊晚宴,高市與中亞5國舉杯共飲,對付中俄已有妙計(jì)

東京舉辦特殊晚宴,高市與中亞5國舉杯共飲,對付中俄已有妙計(jì)

博覽歷史
2025-12-20 17:55:50
突然爆雷,深圳總部幾乎搬空!有人投入700多萬元

突然爆雷,深圳總部幾乎搬空!有人投入700多萬元

晉江電視臺(tái)
2025-12-20 13:06:55
“邪修大法”做家務(wù)就是快!一分錢不花,家里就窗明幾凈~

“邪修大法”做家務(wù)就是快!一分錢不花,家里就窗明幾凈~

裝修秀
2025-12-19 11:30:03
美國國家級算力動(dòng)員啟動(dòng)!10萬顆英偉達(dá)Blackwell GPU,助AI基礎(chǔ)設(shè)施全面升級

美國國家級算力動(dòng)員啟動(dòng)!10萬顆英偉達(dá)Blackwell GPU,助AI基礎(chǔ)設(shè)施全面升級

爆角追蹤
2025-12-20 11:58:16
心痛!30歲男銷售確認(rèn)死亡,目擊者講述事發(fā)經(jīng)過,車主懵了

心痛!30歲男銷售確認(rèn)死亡,目擊者講述事發(fā)經(jīng)過,車主懵了

魔都姐姐雜談
2025-12-20 09:19:55
歐盟通過對烏1050億貸款,普京:俄羅斯從未攻擊過烏克蘭 | 狼叔看世界

歐盟通過對烏1050億貸款,普京:俄羅斯從未攻擊過烏克蘭 | 狼叔看世界

狼叔看世界
2025-12-20 07:53:23
互掐!羅永浩噴項(xiàng)立剛是智障,項(xiàng)稱羅除了直播做什么都不會(huì)成功

互掐!羅永浩噴項(xiàng)立剛是智障,項(xiàng)稱羅除了直播做什么都不會(huì)成功

超角度
2025-12-20 19:18:08
內(nèi)地上映第二天,電影《阿凡達(dá)3》票房破2億,觀眾:電影時(shí)長太長,看完體驗(yàn)很不好

內(nèi)地上映第二天,電影《阿凡達(dá)3》票房破2億,觀眾:電影時(shí)長太長,看完體驗(yàn)很不好

臺(tái)州交通廣播
2025-12-20 13:51:54
咸魚還是太全面了,怪不得人稱國內(nèi)黑市

咸魚還是太全面了,怪不得人稱國內(nèi)黑市

另子維愛讀史
2025-12-20 17:07:20
隨著遼寧90-88勝寧波,新疆爆冷輸球,北京4連勝,CBA積分榜更新

隨著遼寧90-88勝寧波,新疆爆冷輸球,北京4連勝,CBA積分榜更新

小火箭愛體育
2025-12-20 21:49:56
12月20日俄烏最新:最大的新聞和最大的驚喜

12月20日俄烏最新:最大的新聞和最大的驚喜

西樓飲月
2025-12-20 15:18:53
成都私人影院被曝涉“有償陪侍” 記者探訪:涉事門店已暫停經(jīng)營,警方介入調(diào)查

成都私人影院被曝涉“有償陪侍” 記者探訪:涉事門店已暫停經(jīng)營,警方介入調(diào)查

封面新聞
2025-12-20 19:21:27
120多萬的卡宴只要60多萬?很多網(wǎng)友激動(dòng)了!打飛的到海南買進(jìn)口車,可行嗎?

120多萬的卡宴只要60多萬?很多網(wǎng)友激動(dòng)了!打飛的到海南買進(jìn)口車,可行嗎?

都市快報(bào)橙柿互動(dòng)
2025-12-19 18:00:00
寧波大學(xué)附屬婦女兒童醫(yī)院發(fā)布情況說明后又刪了

寧波大學(xué)附屬婦女兒童醫(yī)院發(fā)布情況說明后又刪了

第一財(cái)經(jīng)資訊
2025-12-20 21:55:59
兩條流氓新聞,每個(gè)字都寫滿了無恥!

兩條流氓新聞,每個(gè)字都寫滿了無恥!

胖胖說他不胖
2025-12-20 11:00:14
北京阿姨20年守茅臺(tái)股票:90萬本金,分紅326萬,成本歸零!

北京阿姨20年守茅臺(tái)股票:90萬本金,分紅326萬,成本歸零!

趣文說娛
2025-12-20 18:29:20
向高市早苗示好不到24小時(shí),張本底細(xì)被扒,父母的黑歷史也被翻出

向高市早苗示好不到24小時(shí),張本底細(xì)被扒,父母的黑歷史也被翻出

天天熱點(diǎn)見聞
2025-12-20 06:08:30
同仁堂集團(tuán)就南極磷蝦油事件致歉:全面開展品牌清理行動(dòng)

同仁堂集團(tuán)就南極磷蝦油事件致歉:全面開展品牌清理行動(dòng)

界面新聞
2025-12-20 09:03:27
2025-12-20 23:55:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
11957文章數(shù) 142515關(guān)注度
往期回顧 全部

科技要聞

許四清:具身智能的"ChatGPT時(shí)刻"還未到來

頭條要聞

印度官員:若"臺(tái)灣有事" 印度不太可能像西方那樣回應(yīng)

頭條要聞

印度官員:若"臺(tái)灣有事" 印度不太可能像西方那樣回應(yīng)

體育要聞

我開了20年大巴,現(xiàn)在是一名西甲主帥

娛樂要聞

2026央視跨年晚會(huì)陣容曝光,豪華陣仗

財(cái)經(jīng)要聞

求解“地方財(cái)政困難”

汽車要聞

嵐圖推進(jìn)L3量產(chǎn)測試 已完成11萬公里實(shí)際道路驗(yàn)證

態(tài)度原創(chuàng)

本地
藝術(shù)
數(shù)碼
游戲
公開課

本地新聞

云游安徽|訪黃山云海古村,讀一城山水風(fēng)骨

藝術(shù)要聞

驚!肢體語言竟如此迷人,讓人無法抗拒!

數(shù)碼要聞

50歲了!長虹第一臺(tái)彩電入駐中國國家博物館

新勞拉·克勞馥演員回憶《完美黑暗》項(xiàng)目取消經(jīng)歷

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版