国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網易首頁 > 網易號 > 正文 申請入駐

谷歌迎來“DeepSeek時刻”!TurboQuant引爆AI圈、全球開發(fā)者瘋狂復現(xiàn):6倍無損壓縮,內存股集體暴跌

0
分享至


整理 | 華衛(wèi)

即使你對生成式 AI 模型的內部運作了解不多,也大概率知道它們極其吃內存。正因如此,如今想買一根普通內存條都免不了被狠狠加價。

最近,谷歌研究院發(fā)布了 TurboQuant 壓縮算法,能夠在提升運行速度并保持準確性不變的前提下,降低大語言模型(LLM)的內存占用。如果 TurboQuant 成功落地,可將 AI 運行時的 “工作內存”,也就是鍵值緩存(KV cache)壓縮至少 6 倍,并在 H100 顯卡上實現(xiàn)最高 8 倍的速度提升,從而大幅降低 AI 運行成本。

Cloudflare 的 CEO Matthew Prince 等人甚至稱,這是谷歌的 “DeepSeek 時刻”。此前,中國 AI 模型 DeepSeek 實現(xiàn)這樣的效率飛躍:該模型在性能保持競爭力的情況下,訓練成本僅為對手的零頭,且使用的芯片性能較差。


而 TurboQuant 最關鍵的亮點是:精度零損失。無需微調,無需訓練數(shù)據(jù)。直接接入任意 Transformer 模型,即可讓鍵值緩存壓縮至原體積的一小部分,同時輸出結果完全一致。如果這一效果能在實際生產環(huán)境中成立,將一夜之間改變長上下文推理的成本格局。

此外,TurboQuant 發(fā)布短短數(shù)小時內,內存類股票應聲下跌:美光科技跌 3%,西部數(shù)據(jù)跌 4.7%,閃迪跌 5.7%。原因是投資者開始重新估算,AI 行業(yè)未來實際需要的物理內存可能會大幅減少。

極致無損壓縮 AI 效率,

還革新了向量檢索

在博客中,谷歌研究院將這項技術描述為一種在不影響性能的前提下縮減 AI 運行內存的全新方法。研究人員表示,該壓縮技術采用一種矢量量化方式,解決 AI 處理中的緩存瓶頸問題,本質上能讓 AI 在占用更少空間、保持精度的同時記住更多信息。

TurboQuant 的優(yōu)化目標是縮減鍵值緩存的體積,谷歌將其比作一張 “數(shù)字備忘單”,用于存儲關鍵信息,避免重復計算。這張備忘單必不可少,因為正如我們常說的,大語言模型本身并不 “懂” 任何東西,它們只是通過向量模擬出理解的效果,向量會映射分詞后文本的語義信息。兩個向量相近,就代表它們在概念上相似。高維向量可能包含成百上千個嵌入維度,能夠描述圖像像素、大型數(shù)據(jù)集等復雜信息,但同時也會占用大量內存,讓鍵值緩存體積暴漲,成為性能瓶頸。

為了讓模型更小、更高效,開發(fā)者通常會使用量化技術以更低精度運行模型,缺點則是生成效果會變差,分詞預測的質量下降。而谷歌的早期測試結果顯示,使用 TurboQuant 后,部分場景下性能提升 8 倍、內存占用減少 6 倍,且精度毫無損失。


谷歌表示,他們在 Gemma 和 Mistral 兩款開源模型上,用一系列長上下文基準測試了這套新壓縮算法。結果顯示,TurboQuant 在所有測試中下游任務表現(xiàn)完美,同時將鍵值緩存內存占用降低 6 倍。該算法無需額外訓練,就能將緩存量化至僅 3 比特,可直接應用于現(xiàn)有模型。在英偉達 H100 加速器上,使用 4 比特 TurboQuant 計算注意力分數(shù),速度比 32 比特未量化鍵值快 8 倍。


不過值得注意的是,TurboQuant 目前尚未大規(guī)模部署,現(xiàn)階段仍只是實驗室層面的突破。如果正式落地,TurboQuant 有望降低 AI 模型的運行成本,減少內存消耗。研發(fā)這類技術的公司也可能利用釋放出的內存運行更復雜的模型。未來大概率會兩種方向并存,而移動端 AI 受益可能最為明顯。受限于手機硬件條件,TurboQuant 這類壓縮技術可以在不上傳數(shù)據(jù)至云端的前提下,提升本地 AI 的生成質量。

除大語言模型推理外,TurboQuant 也適用于向量檢索場景,在檢索增強生成(RAG)與相似度搜索中,高維向量同樣面臨內存壓力。使用 TurboQuant 后,索引構建時間幾乎降至零(1536 維向量僅需 0.0013 秒,而乘積量化需 239.75 秒);在 GloVe 數(shù)據(jù)集上的召回率也優(yōu)于乘積量化與 RabbiQ 基準模型。

技術邏輯大公開:

應用到 AI 模型只需兩步

將 TurboQuant 應用到 AI 模型分為兩個階段,背后是兩項關鍵技術:量化方法 PolarQuant 以及名為 QJL 的訓練與優(yōu)化方法。

為實現(xiàn)高質量壓縮,谷歌設計了一套名為 PolarQuant 的系統(tǒng),以一種截然不同的思路解決內存開銷問題。AI 模型中的向量通常采用標準 XYZ 坐標編碼,而 PolarQuant 會將向量轉換為笛卡爾坐標系下的極坐標。在這個環(huán)形網格中,向量被簡化為兩項信息:半徑(核心數(shù)據(jù)強度)和方向(數(shù)據(jù)的語義含義)。

谷歌用一個很形象的現(xiàn)實例子來解釋:傳統(tǒng)編碼就像是 “向東走 3 個街區(qū),再向北走 4 個街區(qū)”;而用極坐標則可以簡化為 “沿 37 度方向走 5 個街區(qū)”。這樣不僅占用空間更少,還省去了系統(tǒng)開銷巨大的數(shù)據(jù)歸一化步驟。PolarQuant 承擔了主要的壓縮工作,盡管效果顯著,但會產生殘留誤差。

第二步則用于修復瑕疵。對此,谷歌提出用量化約翰遜 - 林登斯特勞斯變換(QJL)進行平滑處理,在壓縮復雜高維數(shù)據(jù)的同時,保留數(shù)據(jù)點之間關鍵的距離與關聯(lián)信息。該技術會為模型添加一層 1 比特誤差校正層,將每個向量壓縮至單個比特(+1 或 - 1),本質上構建了一套高速簡寫形式,且不會產生任何內存開銷。同時為保證精度,QJL 采用一種特殊估算器,對高精度查詢與低精度簡化數(shù)據(jù)進行合理平衡,使模型能夠精準計算注意力分數(shù),這也是神經網絡判斷數(shù)據(jù)重要性的核心機制。

二者組合起來的效果就是,PolarQuant 實現(xiàn)極致壓縮,QJL 以近乎可忽略的成本修正誤差。據(jù)悉,谷歌計劃在下個月的 ICLR 2026 會議上展示他們的研究成果,并展示這兩種優(yōu)化方法。

代碼未公布,

開發(fā)者單靠論文復現(xiàn)可用版

盡管谷歌尚未發(fā)布任何官方代碼或集成庫,獨立開發(fā)者們已經僅憑論文就開始構建可運行的實現(xiàn)版本。

有開發(fā)者在 PyTorch 中自定義了 Triton 內核,在 RTX 4090 顯卡上對 Gemma 3 4B 模型進行測試,結果顯示:在 2 比特精度下,模型輸出與未壓縮基準版逐字符完全一致。僅用 2 比特存儲每個數(shù)值,量化后的模型就能與全精度版本實現(xiàn)逐字節(jié)完全相同的回復,這表明 TurboQuant 的理論保證在較小模型上切實有效。

另有開發(fā)者通過 MLX 框架在蘋果芯片上運行 35B 參數(shù)模型并搭載 TurboQuant,在各量化等級下的 “大海撈針” 測試中均取得 6 項滿分。在 llama.cpp 社區(qū),已有三名開發(fā)者著手開發(fā) C 語言與 CUDA 版本,其中一人表示 18 項測試全部通過,壓縮比也與論文數(shù)據(jù)完全吻合。

一項研究論文在官方發(fā)布前就以如此速度被廣泛復現(xiàn),實屬罕見。覆蓋 Triton、MLX、llama.cpp 等平臺的實現(xiàn)案例,既體現(xiàn)了 TurboQuant 數(shù)學設計的清晰性,也反映出 KV 緩存優(yōu)化作為部署瓶頸的迫切需求。

不過,復現(xiàn)該算法并非易事。一名早期開發(fā)者表示,QJL 誤差校正模塊很難準確實現(xiàn),簡單粗暴的實現(xiàn)方式只會輸出亂碼。如果不能正確實現(xiàn) QJL 對內積估算的偏差校正,量化誤差會不斷累積,導致輸出結果完全不可用。目前谷歌仍未發(fā)布 TurboQuant 官方代碼,vLLM、llama.cpp、Ollama 等主流推理框架也均未集成該技術。

內存股全跌了,

英偉達也在推同款算法

市場反應十分迅速。內存類股票紛紛下跌,美光科技股價下跌 3%,西部數(shù)據(jù)下跌 4.7%,閃迪下跌 5.7%。A 股市場存儲芯片股也集體下挫,其中,兆易創(chuàng)新、佰維存儲、恒爍股份跌超 5%,江波龍、朗科科技、北京君正、太極實業(yè)、中電港跌超 4%,普冉股份、同有科技、萬潤科技、科翔股份、精智達、云漢芯城、聯(lián)蕓科技跌超 3%。

而在多位分析師看來,這種波動有些反應過度。富國銀行分析師 Andrew Rocha 指出,TurboQuant 直接沖擊了 AI 系統(tǒng)的內存成本曲線。他表示,如果該技術被廣泛采用,很快就會引發(fā)一個問題:整個行業(yè)實際需要的內存容量究竟有多大。但 Rocha 與其他分析師也同時提醒,AI 內存的需求整體依然強勁,而且壓縮算法已存在多年,并未從根本上改變硬件采購規(guī)模。

不過,市場的擔憂并非毫無根據(jù)。AI 基礎設施支出正以驚人速度增長:僅 Meta 一家,近期就與 Nebius 達成協(xié)議,投入高達 270 億美元用于專屬算力;谷歌、微軟、亞馬遜也共同計劃在 2026 年前投入數(shù)千億美元用于數(shù)據(jù)中心資本支出。一項能將內存需求降低 6 倍的技術,并不會讓支出同步減少 6 倍,因為內存只是數(shù)據(jù)中心成本的一部分。但它會改變成本結構比例,而在如此大規(guī)模的投入下,即便只是小幅效率提升,帶來的影響也會快速放大。

TurboQuant 并非唯一一篇將在 ICLR 2026 發(fā)表的 KV 緩存壓縮方法。據(jù)了解,英偉達推出的 KVTC 可實現(xiàn) 20 倍壓縮,且精度損失不到 1 個百分點。該算法在 15 億至 700 億參數(shù)的模型上完成了測試,覆蓋范圍比 TurboQuant 約 80 億參數(shù)上限的基準測試更廣。KVTC 采用了截然不同的底層思路,使用基于主成分分析(PCA)的去相關方法與熵編碼,部分思路借鑒自 JPEG 壓縮。與 TurboQuant 與數(shù)據(jù)無關的設計不同,KVTC 需要針對每個模型執(zhí)行一次性校準步驟,離線計算 PCA 對齊矩陣。作為回報,它在 8000 token 的長提示詞下,可將首 token 延遲最高降低 8 倍:在 H100 上從約 3 秒縮短至 380 毫秒。

英偉達研究員 Adrian Lancucki 表示,“高效的 KV 緩存管理正變得至關重要,閑置緩存必須迅速從 GPU 顯存移出,為其他用戶騰出空間,并在對話恢復時快速加載。這些基礎設施成本如今已體現(xiàn)在商用定價中,例如‘提示詞緩存’,并會收取額外費用。”

兩種相互競爭的壓縮標準在同一場會議同期亮相,標志著 KV 緩存優(yōu)化正從純研究課題,逐漸成熟為生產級基礎設施層。

https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/

https://winbuzzer.com/2026/03/26/googles-turboquant-reduces-ai-llm-cache-memory-xcxwbn/

https://thenextweb.com/news/google-turboquant-ai-compression-memory-stocks

聲明:本文為 AI 前線整理,不代表平臺觀點,未經許可禁止轉載。

會議推薦

OpenClaw 出圈,“養(yǎng)蝦”潮狂熱,開年 Agentic AI 這把火燒得不可謂不旺。在這一熱潮下,自托管 Agent 形態(tài)迅速普及:多入口對話、持久記憶、Skills 工具鏈帶來強大生產力。但這背后也暴露了工程化落地的真實難題——權限邊界與隔離運行、Skills 供應鏈安全、可觀測與可追溯、記憶分層與跨場景污染、以及如何把 Agent 納入團隊研發(fā) / 運維流程并形成穩(wěn)定收益。

針對這一系列挑戰(zhàn),在 4 月 16-18 日即將舉辦的 QCon 北京站上,我們特別策劃了「OpenClaw 生態(tài)實踐」專題,將聚焦一線實踐與踩坑復盤,分享企業(yè)如何構建私有 Skills、制定安全護欄、搭建審計與回放機制、建立質量 / 效率指標體系,最終把自托管 Agent 從可用的 Demo 升級為可靠的生產系統(tǒng)。

今日薦文

你也「在看」嗎?

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
93年我?guī)碗x婚鄰居收玉米,不小心碰到她胸口她紅著眼問彩禮給多少

93年我?guī)碗x婚鄰居收玉米,不小心碰到她胸口她紅著眼問彩禮給多少

那年秋天
2026-05-06 18:30:05
這妹子眼神太純欲了,打戲也很投入!

這妹子眼神太純欲了,打戲也很投入!

貴圈真亂
2026-05-07 12:34:08
一臺游戲機賣了37年,巴西人還在買

一臺游戲機賣了37年,巴西人還在買

像素與芯片
2026-05-05 21:43:09
東體:內地媒體遲遲無法辦理世界杯簽證,體育版權定價應回歸理性

東體:內地媒體遲遲無法辦理世界杯簽證,體育版權定價應回歸理性

懂球帝
2026-05-07 11:16:09
烏克蘭外長:普京關心的是閱兵,而不是人的生命;澤連斯基要報仇

烏克蘭外長:普京關心的是閱兵,而不是人的生命;澤連斯基要報仇

不要把蜜語說給側耳聽
2026-05-07 09:24:23
31歲中乙中場停賽7個月罰6萬 暴力染紅后威脅+推裁判 踹壞廣告板

31歲中乙中場停賽7個月罰6萬 暴力染紅后威脅+推裁判 踹壞廣告板

風過鄉(xiāng)
2026-05-07 12:12:48
深圳24小時“食物銀行”火了!面包牛奶免費領,惠及人口幾十萬

深圳24小時“食物銀行”火了!面包牛奶免費領,惠及人口幾十萬

青眼財經
2026-05-06 20:27:23
俄羅斯是真眼饞!中國大量東風導彈將要退役,可以出口換外匯嗎?

俄羅斯是真眼饞!中國大量東風導彈將要退役,可以出口換外匯嗎?

潮鹿逐夢
2026-05-06 16:44:26
大反轉!我國學者顛覆性發(fā)現(xiàn):補充Omega-3或損害大腦突觸功能,加速認知衰退

大反轉!我國學者顛覆性發(fā)現(xiàn):補充Omega-3或損害大腦突觸功能,加速認知衰退

醫(yī)諾維
2026-05-06 17:13:29
哈里梅根美國豪宅4億成交,"商業(yè)帝國"崩塌,褪去王室光環(huán)顯窘迫

哈里梅根美國豪宅4億成交,"商業(yè)帝國"崩塌,褪去王室光環(huán)顯窘迫

譯言
2026-05-07 08:34:31
東契奇?zhèn)笫状谓邮懿稍L:最初告訴我需要8周康復

東契奇?zhèn)笫状谓邮懿稍L:最初告訴我需要8周康復

體壇周報
2026-05-07 07:54:36
看這眼神和姿勢,下一步就應是………

看這眼神和姿勢,下一步就應是………

飛娛日記
2026-04-28 08:25:31
為什么準噶爾蒙古選擇向東和清朝火拼,而沒有考慮西征西亞?

為什么準噶爾蒙古選擇向東和清朝火拼,而沒有考慮西征西亞?

小豫講故事
2026-05-07 06:00:14
學生時代的王楚然,純欲天花板本人。原來?;ㄕ媸菑男∶赖酱蟮?

學生時代的王楚然,純欲天花板本人。原來?;ㄕ媸菑男∶赖酱蟮?

科學發(fā)掘
2026-05-05 20:07:45
堅守油車的理由是啥?網友分享太真實了,但很多人不買賬!

堅守油車的理由是啥?網友分享太真實了,但很多人不買賬!

夜深愛雜談
2026-05-06 20:49:01
返回臺島后,賴清德說了3句話,洪秀柱預判成真,大陸擲地有聲

返回臺島后,賴清德說了3句話,洪秀柱預判成真,大陸擲地有聲

說歷史的老牢
2026-05-06 09:59:45
五一行李箱墻刷屏全網!多地暖心接棒,“中國式”安全感火出圈

五一行李箱墻刷屏全網!多地暖心接棒,“中國式”安全感火出圈

孤酒老巷QA
2026-05-05 17:41:40
江蘇跨江大橋命名暗戰(zhàn),誰在掌握絕對話語權?

江蘇跨江大橋命名暗戰(zhàn),誰在掌握絕對話語權?

觀察眼看世界
2026-05-07 11:02:46
華為員工家屬:失業(yè)靠老公養(yǎng)。每月給我2萬元,含房貸7000多元

華為員工家屬:失業(yè)靠老公養(yǎng)。每月給我2萬元,含房貸7000多元

螞蟻大喇叭
2026-05-06 16:50:28
赫格塞思表示盡管有沖突,但美伊停火“沒結束”

赫格塞思表示盡管有沖突,但美伊?;稹皼]結束”

參考消息
2026-05-06 11:46:14
2026-05-07 13:08:49
AI前線 incentive-icons
AI前線
面向AI愛好者、開發(fā)者和科學家,提供AI領域技術資訊。
1476文章數(shù) 149關注度
往期回顧 全部

科技要聞

凌晨突發(fā)!馬斯克租22萬塊GPU給“死敵”

頭條要聞

北京三位女大學生青海自駕游2死1傷 傷者一審獲刑4年

頭條要聞

北京三位女大學生青海自駕游2死1傷 傷者一審獲刑4年

體育要聞

阿森納巴黎會師歐冠決賽!5月31日開戰(zhàn)

娛樂要聞

小S阿雅重返大S母校,翻看大S畢業(yè)照

財經要聞

特朗普:美伊“很有可能”達成協(xié)議

汽車要聞

理想為什么不做轎車,有了解釋……

態(tài)度原創(chuàng)

房產
健康
家居
親子
公開課

房產要聞

五一海南樓市,太淡了!

干細胞治燒燙傷面臨這些“瓶頸”

家居要聞

破繭成蝶 土味精裝房爆改

親子要聞

大家好呀,我是優(yōu)奈!四個月啦

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版