国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

LCA:DeepSeek 長文本加速神器90% KV 緩存縮減 + 2.5 倍推理提速

0
分享至



近日,琶洲實(shí)驗(yàn)室、華南理工大學(xué)、蔻町(AIGCode)等單位科研團(tuán)隊聯(lián)合提出潛在空間壓縮注意力(Latent-Condensed Attention,LCA),研究成果入選 ACL 2026。

作為面向大語言模型長上下文場景的通用高效推理技術(shù),LCA 突破傳統(tǒng)注意力機(jī)制效率瓶頸,以輕量化、無侵入、高性能的架構(gòu)設(shè)計,為長文本大模型工業(yè)化部署提供通用解決方案。在 128K 超長上下文場景下,LCA 實(shí)現(xiàn)2.5 倍預(yù)填充加速、90% KV 緩存縮減、1.8 倍解碼延遲降低,同時保持原有性能。

該技術(shù)可通用適配 MiniCPM、Qwen 等不同規(guī)模、不同注意力架構(gòu)的大模型,具備極強(qiáng)的擴(kuò)展性與落地性,能夠顯著降低長上下文大模型的硬件門檻、推理成本與部署難度,全面提升推理效率與用戶體驗(yàn)。

目前,LCA 論文與代碼已開源,歡迎學(xué)術(shù)界與產(chǎn)業(yè)界共同推進(jìn)技術(shù)迭代與落地應(yīng)用。



  • 論文標(biāo)題:Latent-Condensed Transformer for Efficient Long Context Modeling
  • 論文鏈接:https://arxiv.org/abs/2604.12452
  • 代碼開源:https://github.com/bolixinyu/LCA
  • 作者:Zeng You, Yaofo Chen, Qiuwu Chen, Ying Sun, Shuhai Zhang, Yingjian Li, Yaowei Wang, Mingkui Tan
  • 機(jī)構(gòu):琶洲實(shí)驗(yàn)室、華南理工大學(xué)、蔻町(AIGCode)等單位

一、當(dāng)大模型遇到長文本:兩大痛點(diǎn)待解決

在使用 DeepSeek、Qwen 等大語言模型處理長文檔、進(jìn)行深度對話時,我們常常遇到兩個令人頭疼的問題:

  • 痛點(diǎn)一:顯存占用太多。模型處理長文本時,需要存儲大量中間信息(KV 緩存,相當(dāng)于 AI 的「記憶」),導(dǎo)致顯存占用隨文本長度線性增加。處理一篇萬字文檔?可能需要數(shù) GB 顯存!這不僅對硬件要求高,也讓成本直線上升。
  • 痛點(diǎn)二:速度跑不起來。傳統(tǒng)的注意力機(jī)制計算量隨文本長度呈平方增長,就像讓一個人同時記住整本書再進(jìn)行思考:不僅大腦負(fù)擔(dān)重(顯存占用大),思考速度也會明顯下降(計算復(fù)雜度高)。長文本處理變成「耐心測試」。

二、現(xiàn)有方案為何「治標(biāo)不治本」?

為了應(yīng)對這些挑戰(zhàn),先前的研究提出了兩條技術(shù)路線:

  • 多頭潛在注意力(MLA):DeepSeek 采用的技術(shù),其將 token 投影到低維潛在空間,顯著減少每個 token 的 KV 緩存大小。
  • 稀疏注意力:通過跳過部分 Attention 計算塊來降低計算復(fù)雜度。

然而,現(xiàn)有方案往往「顧此失彼」。MLA 成功省下了顯存,卻未能擺脫計算量隨上下文平方級增長的困境;稀疏注意力雖能跳過冗余計算,卻依賴完整的 Q/K/V 矩陣。如果強(qiáng)行將兩者拼湊,就必須先把 MLA 壓縮的數(shù)據(jù)「解壓」還原,無異于「先壓縮再解壓」,白白浪費(fèi)了 MLA 輕量化設(shè)計的紅利。

在長上下文高效注意力領(lǐng)域,近期業(yè)界也提出了多項(xiàng)優(yōu)秀方案,如 DeepSeek 發(fā)布的稀疏注意力(DSA)和 Kimi 提出的 KDA。但與這些方法相比,LCA 在技術(shù)設(shè)計上具有三個關(guān)鍵差異點(diǎn):



三、LCA:智能壓縮的新思路



圖 1. LCA 架構(gòu)示意圖

為了解決上述問題,本文提出潛在空間壓縮注意力(Latent-Condensed Attention,LCA),如圖 1 所示。LCA 的核心思想是:直接在 MLA 的「壓縮空間」中進(jìn)行信息精簡,而不是先解壓再篩選。

1. 關(guān)鍵信息壓縮三步走

  • 第一步:智能分組

將長文本分成多個小組,每個小組 16 個 token。最近 1024 個 token 會完整保留,確保最新信息不丟失細(xì)節(jié)。

  • 第二步:語義壓縮

采用「智能加權(quán)」方法:根據(jù)當(dāng)前查詢的重要性,對組內(nèi)信息進(jìn)行加權(quán)合并,突出最相關(guān)的內(nèi)容。就像根據(jù)考試重點(diǎn)做筆記,重點(diǎn)內(nèi)容更詳細(xì)。具體而言,對于每個分組內(nèi)的語義潛在向量,LCA 采用加權(quán)池化的方式生成一個代表性向量:





  • 第三步:位置錨定(像在書中貼索引標(biāo)簽)

對于位置鍵向量,選擇每個組中注意力得分最高的 token 作為「位置錨點(diǎn)」:





2. 保留細(xì)粒度局部上下文

除了長距離上下文的壓縮外,LCA 還保留一個局部窗口(默認(rèn) 1024 個 token)的完整潛在向量,確保最近的關(guān)鍵信息不被壓縮,維持模型對局部細(xì)節(jié)的敏感性。

3. 理論保證:長度無關(guān)的誤差上界

本文從理論上證明了 LCA 的近似誤差具有與上下文長度無關(guān)的均勻上界:





四、實(shí)驗(yàn)效果

1. 效率提升



圖 2. Triton 內(nèi)核加速效果對比

作者通過 Triton 進(jìn)行了硬件友好的高效實(shí)現(xiàn),相比 PyTorch 實(shí)現(xiàn),在 64K 上下文能夠?qū)崿F(xiàn) 24.4 倍加速。



圖 3. 不同上下文長度下的效率表現(xiàn)

在 128K 上下文長度下,高效 LCA 相比原始 MLA 實(shí)現(xiàn)了 2.5 倍預(yù)填充加速,減少了 90% KV 緩存,每 token 解碼延遲降低 1.8 倍。

2. 長上下文性能保持



長上下文基準(zhǔn)測試性能對比

在 LongBench-E、RULER 等長上下文基準(zhǔn)測試中,LCA 在獲得顯著效率提升的同時,保持了與原始 MLA 相當(dāng)?shù)男阅?。其?LongBench-E 性能與標(biāo)準(zhǔn) MLA 幾乎持平,RULER 128K 結(jié)果上甚至略有提升。

3. 短上下文任務(wù)無損



短上下文標(biāo)準(zhǔn)任務(wù)性能對比

在 MMLU、GSM8K、MBPP 等短上下文標(biāo)準(zhǔn)測試中,LCA 的性能與原始 MLA 幾乎相同,表明其壓縮機(jī)制不會損害模型的基礎(chǔ)能力。

4. 兼容不同模型規(guī)模



MiniCPM3-4B 模型擴(kuò)展性驗(yàn)證

LCA 在 MiniCPM3-4B 模型上同樣有效,實(shí)現(xiàn) 2.2 倍預(yù)填充加速和 93% KV 緩存減少,驗(yàn)證了其在不同規(guī)模模型上的通用性。

5. 適配其他注意力變體



GQA 架構(gòu)適配驗(yàn)證

LCA 的設(shè)計不依賴于 MLA,可推廣到其他注意力機(jī)制。實(shí)驗(yàn)表明,將其適配到分組查詢注意力(GQA)后,在 DeepSeek-R1-Distill-Qwen-7B 模型上仍能實(shí)現(xiàn) 3.25 倍推理加速和 93% 緩存減少。

五、實(shí)際意義

LCA 為長上下文 LLM 的實(shí)際部署提供了重要支持:

  • 減少部署成本:無需增加任何額外參數(shù)和模塊,即插即用替換現(xiàn)有模型中的 MLA/GQA 模塊。
  • 降低硬件門檻:減少 90% 的 KV 緩存意味著在相同顯存下可處理數(shù)倍長的上下文。
  • 提升響應(yīng)速度:2.5 倍的預(yù)填充加速顯著改善用戶體驗(yàn),特別是在需要實(shí)時交互的應(yīng)用中。
  • 保持模型能力:在獲得效率提升的同時,不犧牲模型在各類任務(wù)上的性能。

六、總結(jié)

LCA 通過直接在潛在空間進(jìn)行上下文壓縮,巧妙地將 KV 緩存減少與計算復(fù)雜度降低統(tǒng)一到一個框架中。其解耦的語義-位置處理策略、理論保證的近似誤差界,以及廣泛的實(shí)驗(yàn)驗(yàn)證,使其成為長上下文高效建模的一個有力解決方案。這項(xiàng)工作已被 ACL 2026 接收,期待更多研究者與開發(fā)者在此基礎(chǔ)上進(jìn)一步推動長上下文技術(shù)的發(fā)展。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
以色列前總理貝內(nèi)特:伊朗實(shí)質(zhì)上已經(jīng)向該地區(qū)再次宣戰(zhàn)

以色列前總理貝內(nèi)特:伊朗實(shí)質(zhì)上已經(jīng)向該地區(qū)再次宣戰(zhàn)

一種觀點(diǎn)
2026-05-05 19:24:58
1-2出局 35歲悲情巨星遺憾揮別!闖蕩17年 歐冠0冠 西甲0冠

1-2出局 35歲悲情巨星遺憾揮別!闖蕩17年 歐冠0冠 西甲0冠

葉青足球世界
2026-05-06 07:54:58
偉偉道來 | 伊朗的反應(yīng)為何如此激烈

偉偉道來 | 伊朗的反應(yīng)為何如此激烈

經(jīng)濟(jì)觀察報
2026-05-06 11:40:46
吳宜澤透露拿到獎金后準(zhǔn)備在英國買房,50萬英鎊獎金需交稅超23萬鎊,實(shí)際到手約26.5萬鎊

吳宜澤透露拿到獎金后準(zhǔn)備在英國買房,50萬英鎊獎金需交稅超23萬鎊,實(shí)際到手約26.5萬鎊

大風(fēng)新聞
2026-05-06 11:53:02
定了!斯諾克巨星邀請賽5月9日開桿,吳宜澤領(lǐng)銜,6世界冠軍出戰(zhàn)

定了!斯諾克巨星邀請賽5月9日開桿,吳宜澤領(lǐng)銜,6世界冠軍出戰(zhàn)

劉姚堯的文字城堡
2026-05-06 08:31:36
女性跑步:暴露這個隱私,是性感嗎?

女性跑步:暴露這個隱私,是性感嗎?

馬拉松跑步健身
2026-05-05 19:18:07
吳宜澤社媒回復(fù)趙心童、丁俊暉:一起加油,永遠(yuǎn)的大哥

吳宜澤社媒回復(fù)趙心童、丁俊暉:一起加油,永遠(yuǎn)的大哥

懂球帝
2026-05-05 19:39:09
在中國人民公安大學(xué),穿了四年警服,畢業(yè)五年后,我們宿舍四個人,沒一個在出現(xiàn)場

在中國人民公安大學(xué),穿了四年警服,畢業(yè)五年后,我們宿舍四個人,沒一個在出現(xiàn)場

侃故事的阿慶
2026-05-06 09:21:32
被延長的搶救時間,被卡住的工傷認(rèn)定

被延長的搶救時間,被卡住的工傷認(rèn)定

新京報
2026-05-06 11:03:07
51歲女子包養(yǎng)24歲男孩,嫌男孩不行被殺,2014年男孩說她索取無度

51歲女子包養(yǎng)24歲男孩,嫌男孩不行被殺,2014年男孩說她索取無度

漢史趣聞
2026-05-05 11:40:36
世錦賽慶功宴!新科冠軍吳宜澤休閑裝亮相 網(wǎng)友:艾倫不來,誰敢動筷子

世錦賽慶功宴!新科冠軍吳宜澤休閑裝亮相 網(wǎng)友:艾倫不來,誰敢動筷子

畫夕
2026-05-05 14:38:17
廣州第一爛尾樓 兩千家庭半生遺憾!

廣州第一爛尾樓 兩千家庭半生遺憾!

說故事的阿襲
2026-05-05 20:20:30
8.84億的美國工廠說關(guān)就關(guān)?曹德旺:美國不講理,我就不陪玩了

8.84億的美國工廠說關(guān)就關(guān)?曹德旺:美國不講理,我就不陪玩了

番外行
2026-05-06 10:29:59
伯納烏大地震!皇馬放話出售姆巴佩,天價報價就接

伯納烏大地震!皇馬放話出售姆巴佩,天價報價就接

奶蓋熊本熊
2026-05-06 00:00:36
《陳翔六點(diǎn)半》人走茶涼,賺不到錢球球退出,根本原因早就注定了

《陳翔六點(diǎn)半》人走茶涼,賺不到錢球球退出,根本原因早就注定了

汪巗的創(chuàng)業(yè)之路
2026-05-06 12:26:17
47歲高圓圓在公園被抓拍,麒麟臂、涼拖鞋,活脫脫一個買菜大姐

47歲高圓圓在公園被抓拍,麒麟臂、涼拖鞋,活脫脫一個買菜大姐

胖松松與瘦二毛
2026-05-06 12:40:53
張亮兒子17歲當(dāng)?shù)耍。?>
    </a>
        <h3>
      <a href=八卦瘋叔
2026-05-06 11:04:32
連線四川華鎣女游客玩秋千身亡目擊者:其撞到瀑布凸出處大石

連線四川華鎣女游客玩秋千身亡目擊者:其撞到瀑布凸出處大石

南方都市報
2026-05-06 12:38:05
中美同時向全球下達(dá)禁令,各國都傻眼了!美媒:中國此舉史無前例

中美同時向全球下達(dá)禁令,各國都傻眼了!美媒:中國此舉史無前例

福建睿平
2026-05-06 08:56:38
男子和妻子的弟媳纏綿,怕妻子聽到聲音,2017年弟媳竟被他捂死了

男子和妻子的弟媳纏綿,怕妻子聽到聲音,2017年弟媳竟被他捂死了

漢史趣聞
2026-05-05 11:36:31
2026-05-06 14:55:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12925文章數(shù) 142643關(guān)注度
往期回顧 全部

科技要聞

“馬斯克不懂AI”:OpenAI當(dāng)庭戳老底

頭條要聞

男子購百萬保險被邀免費(fèi)游老撾 花數(shù)十萬買"熊膽"心虛

頭條要聞

男子購百萬保險被邀免費(fèi)游老撾 花數(shù)十萬買"熊膽"心虛

體育要聞

活塞1比0騎士:坎寧安不再是一個人了

娛樂要聞

神仙友誼!楊紫連續(xù)10年為張一山慶生

財經(jīng)要聞

人形機(jī)器人七小龍:誰真能賣 誰在講故事?

汽車要聞

領(lǐng)克10/領(lǐng)克10+ 無論能源形式 領(lǐng)克都要快樂

態(tài)度原創(chuàng)

房產(chǎn)
旅游
親子
健康
公開課

房產(chǎn)要聞

五一樓市徹底明牌!塔尖人群都在重倉凱旋新世界

旅游要聞

龍江新觀察|“五一”文旅熱力十足 特色體驗(yàn)燃動春日消費(fèi)

親子要聞

52歲王小騫做夢也沒想到,患上矮小癥的女兒,如今竟然迎來了逆襲

干細(xì)胞治燒燙傷面臨這些“瓶頸”

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版