国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

無預(yù)訓練模型拿下ARC-AGI榜三!Mamba作者用壓縮挑戰(zhàn)Scaling Law

0
分享至

henry 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI

壓縮即智能,又有新進展!

在最新研究CompressARC中,Mamba作者Albert Gu團隊給出了一個不同于大規(guī)模預(yù)訓練的智能配方——

最小描述長度(MDL)



研究顯示,僅通過在推理階段最小化目標謎題的描述長度,一個76K參數(shù),完全沒有經(jīng)過預(yù)訓練的模型,就能在ARC-AGI-1基準上解決20%的問題。



值得一提的是,CompressARC不僅沒使用ARC-AGI的訓練集,還是目前唯一一個只在單個樣本上運行的深度學習方法。

憑借這一突破,CompressARC獲得了ARC Prize 2025的第三名,并且據(jù)論文一作Isaac Liao透露,這項研究僅使用了一張GPU就得以完成。



這是怎么做到的?

新的智能recipe:最小描述長度

如上所說,CompressARC一沒利用訓練集、二不進行預(yù)訓練,且網(wǎng)絡(luò)中僅有76K參數(shù),但它仍能泛化并解決20%的評估謎題和34.75%的訓練謎題。

這種不靠預(yù)訓練獲取智能的關(guān)鍵在于,CompressARC的最終目標不是像普通神經(jīng)網(wǎng)絡(luò)那樣學習一個泛化的規(guī)則,而是把一個特定的ARC-AGI謎題用一個最短的計算機程序表達出來。

換句話說,CompressARC并不是像監(jiān)督學習一樣,學習一個x到y(tǒng)的映射,而是尋找一種能用最少比特信息來表述給定謎題的方法。

這一思想源自最小描述長度(MDL)理論(以及與其相關(guān)的Solomonoff歸納法和Kolmogorov復雜度理論)——一個現(xiàn)象(謎題)的最短描述(程序)往往能揭示其最深層的規(guī)律。

在ARC-AGI的情境中,CompressARC旨在將一個特定的ARC-AGI謎題(包括其輸入和期望的輸出)用一個最短的計算機程序來表達出來。

這個最短的程序意味著它找到了最簡潔、最本質(zhì)的規(guī)則,而這些規(guī)則恰好就是謎題的解。

與此同時,研究還遵循奧卡姆剃刀原理,即最短的程序被假設(shè)具有最強大的泛化能力

因此,CompressARC僅使用謎題本身(兩個示例輸入/輸出對和測試輸入),而不加載任何額外的附加數(shù)據(jù)或訓練集。

接下來,我們具體來看。

CompressARC挑戰(zhàn)的ARC-AGI-1是一個檢驗系統(tǒng)能否在少量示例中找到規(guī)則的測試。

簡單來說,這有點像行測考試里的找規(guī)律題,每道題目會給出幾對輸入-輸出作為示例,模型需要找到謎題中的規(guī)則,從而生成正確的、對應(yīng)的網(wǎng)格。

CompressARC 的“壓縮”過程,就是找到圖里最本質(zhì)的信息/規(guī)則



目前,在該測試中取得最好成績的仍是基于互聯(lián)網(wǎng)數(shù)據(jù)預(yù)訓練的大語言模型。

比如o3能達到88%的成績,但o1則只有25%左右。

而在不進行預(yù)訓練、僅使用ARC-AGI 數(shù)據(jù)訓練的神經(jīng)網(wǎng)絡(luò)中,最高成績?yōu)?0.3%,CompressARC這次只在測試謎題本身上進行訓練。



總的來說,CompressARC解決問題的過程,是一個最小化目標謎題的程序性描述長度(Minimum Description Length, MDL)的過程,這可看作是用神經(jīng)網(wǎng)絡(luò)來“寫”最短的程序。



MDL 框架與搜索空間的轉(zhuǎn)換

首先,由于計算機程序的組合搜索空間過于龐大,無法窮盡所有可能的程序來找到絕對最短的那一個(計算上不可行)。

因此,論文設(shè)計了一個固定的“程序模板”(Template Program / Algorithm 1)。

這個模板包含一套固定的運算流程:從隨機噪聲z采樣,經(jīng)過一個神經(jīng)網(wǎng)絡(luò),再次采樣生成謎題顏色。



這些模板中留下了幾個“空位”,用于填入硬編碼的數(shù)值(即“種子”)以及神經(jīng)網(wǎng)絡(luò)的權(quán)重。

只要填入了這些種子和權(quán)重,這個模板程序就能運行,并“打印”出整個 ARC-AGI 數(shù)據(jù)集。

由此,尋找最短程序的問題,就轉(zhuǎn)化成了尋找最短的種子和權(quán)重的問題。

接下來,研究借鑒了變分自編碼器(VAE)的原理,將程序長度的最小化轉(zhuǎn)化為一個可微分的優(yōu)化問題:



  • 種子長度 1 (KL 散度):衡量了從標準正態(tài)分布中采樣隨機輸入z所需的編碼信息成本。通過最小化z分布與標準正態(tài)分布的KL散度,實現(xiàn)了對z所攜帶信息量的懲罰,迫使網(wǎng)絡(luò)以最短的比特數(shù)來編碼z。
  • 種子長度 2 (交叉熵/重構(gòu)損失): 衡量了神經(jīng)網(wǎng)絡(luò)輸出的謎題與真實已知謎題的匹配程度(即負對數(shù)似然)。匹配得越好,說明該謎題被成功重構(gòu),所需的“額外校正信息”(即用于校正輸出結(jié)果的種子)就越少。

不過,原始的算法2需要進行復雜的相對熵編碼(REC),涉及指數(shù)級的計算,速度太慢。

因此,CompressARC通過算法3跳過了這些復雜步驟,直接用VAE中的損失函數(shù)(KL 散度和交叉熵)來近似種子的預(yù)期長度。



這把原本不可行的“尋找最短程序”的組合搜索問題,轉(zhuǎn)化成了一個可行的、可以用梯度下降(深度學習的標準優(yōu)化方法)來求解的優(yōu)化問題。

在架構(gòu)方面,網(wǎng)絡(luò)的全部目標是:在沒有外部訓練數(shù)據(jù)的情況下,通過內(nèi)置的強大歸納偏置(Inductive Biases),使得網(wǎng)絡(luò)本身就具有極高的概率能“生成”一個合理的 ARC-AGI 謎題,從而使所需的種子信息量降到最低。



這包含四個方面的處理:

等變性與對稱性處理:

架構(gòu)內(nèi)置了對ARC-AGI 謎題常見變換的等變性(Equivariance),包括旋轉(zhuǎn)、翻轉(zhuǎn)、顏色置換和示例順序置換。

這保證了網(wǎng)絡(luò)能夠默認賦予所有等價變換后的謎題相同的概率,避免了使用冗長代碼來描述這些對稱性,進一步縮短了程序長度。

數(shù)據(jù)結(jié)構(gòu):多張量(Multitensor):

網(wǎng)絡(luò)內(nèi)部并非使用一個單一的大張量,而是使用一個“張量桶”或多張量(Multitensor),其中包含形狀不同的張量,每個張量代表不同粒度的信息。

這種表示方式專門用于存儲高層次的關(guān)系信息,從而提供了更有效的歸納偏置,使網(wǎng)絡(luò)能夠更容易地進行抽象推理。

核心骨干:類 Transformer 結(jié)構(gòu):

架構(gòu)在結(jié)構(gòu)上類似于Transformer,采用一個殘差骨干(Residual Backbone),由線性投影(讀取/寫入)和專門設(shè)計的操作組成,并重復運行4次。

整個模型僅有76K參數(shù)。這是因為大部分參數(shù)僅用于通道維度的線性讀/寫投影,而核心操作本身是無參數(shù)的。

歸納偏置:無參數(shù)的自定義操作:

網(wǎng)絡(luò)的核心功能不是傳統(tǒng)的注意力機制,而是一系列針對謎題規(guī)則高度定制的、無參數(shù)的操作,這些操作直接體現(xiàn)了對ARC-AGI謎題規(guī)則的先驗知識:

  • 信息匯總與傳播: 沿著一個軸求和并將結(jié)果廣播回去,實現(xiàn)不同粒度信息的交互。
  • 幾何操作: 沿著幾何維度進行單像素平移(實現(xiàn)對象的移動/復制)。
  • 拓撲/形狀操作: 沿著幾何維度取累積最大值(Cumulative Max),有助于捕捉圖案的延伸、填充或邊界等拓撲屬性。

通過這種“高度工程化”的架構(gòu),CompressARC確保了其對謎題的描述性程序能夠被最大程度地壓縮,從而在無預(yù)訓練、數(shù)據(jù)極度受限的條件下,成功實現(xiàn)了對ARC-AGI謎題的泛化求解。

實驗驗證

為了評估CompressARC的性能,研究為CompressARC提供了2000個推理時訓練步驟來處理每個謎題,每個謎題大約花費20分鐘。

在這個推理時計算預(yù)算內(nèi),CompressARC 正確解決了20%的評估集謎題和34.75%的訓練集謎題。(如開頭所示)

總的來說,研究挑戰(zhàn)了智能必須源于大規(guī)模預(yù)訓練和數(shù)據(jù)的假設(shè),其表明巧妙地運用MDL和壓縮原理可以帶來令人驚訝的能力。

CompressARC作為一個概念證明,旨在展示現(xiàn)代深度學習框架可以與MDL結(jié)合,從而創(chuàng)建一條通往通用人工智能(AGI)的可能的、互補的替代路徑。

One more thing

這篇論文的作者Isaac Liao目前是CMU機器學習系的在讀博士生,師從Albert Gu教授。

他本科與碩士階段均就讀于麻省理工學院(MIT),且本科期間便拿下了計算機科學與物理學雙學位。



他的研究興趣包括最小描述長度(Minimum Description Length, MDL)、變分推斷、超網(wǎng)絡(luò)(Hypernetworks)、元學習、優(yōu)化方法以及稀疏性。

值得一提的是,這項研究中用到的核心基準測試ARC-AGI-1(Abstraction and Reasoning Corpus) 由Google AI 研究員、深度學習庫Keras的創(chuàng)始人Fran?ois Chollet于2019年提出。



這一基準是為了應(yīng)對當時深度學習方法在狹窄、專業(yè)任務(wù)上表現(xiàn)出色,但在展示類人泛化能力方面不足的現(xiàn)狀,旨在評估 AI 處理新穎、未曾明確訓練過的問題的能力,是衡量通用人工智能(AGI)能力的核心標尺。

它專門用于基準測試技能習得能力(智能的根本核心),而非在單一預(yù)定義任務(wù)上的性能。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
南京博物院受捐文物驚現(xiàn)拍賣場:監(jiān)守自盜還是有苦難言

南京博物院受捐文物驚現(xiàn)拍賣場:監(jiān)守自盜還是有苦難言

銀河敘事
2025-12-17 19:24:04
輕松愉快,約基奇砍第136次20+得分三雙,超越威少升歷史第二

輕松愉快,約基奇砍第136次20+得分三雙,超越威少升歷史第二

懂球帝
2025-12-19 14:05:10
廣東德比東陽光三分險勝,胡明軒證明徐杰才更應(yīng)該入選國家隊

廣東德比東陽光三分險勝,胡明軒證明徐杰才更應(yīng)該入選國家隊

姜大叔侃球
2025-12-19 22:11:37
直擊“全國地王”安瀾上海項目認籌首日:現(xiàn)場嚴防死守,最貴一套1.46億元

直擊“全國地王”安瀾上海項目認籌首日:現(xiàn)場嚴防死守,最貴一套1.46億元

每日經(jīng)濟新聞
2025-12-19 21:52:06
皮爾斯:隆多和阿倫打架是真下死手 綠軍三巨頭恩怨何時解?

皮爾斯:隆多和阿倫打架是真下死手 綠軍三巨頭恩怨何時解?

仰臥撐FTUer
2025-12-19 11:26:44
固態(tài)電池出現(xiàn)變數(shù),安全測試全軍覆沒?

固態(tài)電池出現(xiàn)變數(shù),安全測試全軍覆沒?

環(huán)球零碳
2025-12-17 21:22:14
倒反天罡!日本明治天皇玄孫發(fā)文稱世界上最野蠻的國家是中國

倒反天罡!日本明治天皇玄孫發(fā)文稱世界上最野蠻的國家是中國

我心縱橫天地間
2025-12-17 14:35:24
22.13公里!世界最長高速公路隧道將于月底通車

22.13公里!世界最長高速公路隧道將于月底通車

每日經(jīng)濟新聞
2025-12-18 23:55:06
《老舅》演員評分出爐:郭京飛9.9分排第二,第一實至名歸!

《老舅》演員評分出爐:郭京飛9.9分排第二,第一實至名歸!

古木之草記
2025-12-20 00:20:09
魯迅去世48年后,上海專家對著一張發(fā)黃的X光片,手都在抖:這根本就不是肺病,是一根針就能救活的命??!

源溯歷史
2025-12-18 19:27:33

張國強:被前妻嫌窮,40歲二婚帶子娶郭京飛舊愛,如今苦盡甘來

張國強:被前妻嫌窮,40歲二婚帶子娶郭京飛舊愛,如今苦盡甘來

白面書誏
2025-12-15 14:11:04
柬埔寨挨打讓緬甸清醒了:與其到時候挨打,不如現(xiàn)在主動清除。

柬埔寨挨打讓緬甸清醒了:與其到時候挨打,不如現(xiàn)在主動清除。

南權(quán)先生
2025-12-19 16:31:40
閆安曝孫穎莎王楚欽養(yǎng)傷細節(jié),領(lǐng)導慰問孫穎莎家人 媽媽口才不一般

閆安曝孫穎莎王楚欽養(yǎng)傷細節(jié),領(lǐng)導慰問孫穎莎家人 媽媽口才不一般

知法而形
2025-12-19 23:35:21
震驚!深圳一經(jīng)營20多年的工廠歇業(yè),稱壞賬增多,持續(xù)虧損嚴重…

震驚!深圳一經(jīng)營20多年的工廠歇業(yè),稱壞賬增多,持續(xù)虧損嚴重…

火山詩話
2025-12-20 07:09:04
黑色幽默!電詐園區(qū)辦公室中文標語,簡直是天大的諷刺

黑色幽默!電詐園區(qū)辦公室中文標語,簡直是天大的諷刺

麥大人
2025-11-06 08:32:30
昔日歐洲豪門,花了1億歐元,卻引進三個水貨,球隊運作令人失望

昔日歐洲豪門,花了1億歐元,卻引進三個水貨,球隊運作令人失望

籃球圈里的那些事
2025-12-19 18:00:09
156米!哈爾濱銀行總部大廈,把市花蓋成摩天樓

156米!哈爾濱銀行總部大廈,把市花蓋成摩天樓

GA環(huán)球建筑
2025-12-19 15:24:47
記者:勇士正積極尋求交易希爾德,后者出場時間創(chuàng)生涯新低

記者:勇士正積極尋求交易希爾德,后者出場時間創(chuàng)生涯新低

懂球帝
2025-12-20 11:05:09
CBA裁判報告:14次錯判,99號裁判全針對遼寧

CBA裁判報告:14次錯判,99號裁判全針對遼寧

老牛體育解說
2025-12-20 06:03:49
“男孩后勁足”是初中最大謊言!血淚真相是:哄盯壓…

“男孩后勁足”是初中最大謊言!血淚真相是:哄盯壓…

諾媽家有男寶娃
2025-11-28 21:34:23
2025-12-20 11:28:49
量子位 incentive-icons
量子位
追蹤人工智能動態(tài)
11884文章數(shù) 176340關(guān)注度
往期回顧 全部

科技要聞

許四清:具身智能的"ChatGPT時刻"還未到來

頭條要聞

媒體:日本惡意滋擾遼寧艦編隊 還挑撥中國與越南關(guān)系

頭條要聞

媒體:日本惡意滋擾遼寧艦編隊 還挑撥中國與越南關(guān)系

體育要聞

我開了20年大巴,現(xiàn)在是一名西甲主帥

娛樂要聞

戚薇女兒大變樣,10歲就進入“尷尬期”

財經(jīng)要聞

日本加息落地:暴跌沒有,麻煩在后頭

汽車要聞

“一體壓鑄”再引熱議 一旦受損真的修不起嗎?

態(tài)度原創(chuàng)

游戲
數(shù)碼
旅游
公開課
軍事航空

《料理模擬器2》延期至4月1日發(fā)售 好評烹飪模擬

數(shù)碼要聞

雷蛇黑寡婦蜘蛛V4競技極速版鍵盤限時贈送《阿凡達3》聯(lián)名鍵帽

旅游要聞

新聞1+1丨冰雪旅游,今冬如何添新意?

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

媒體:美方官宣史上對臺單筆最大軍售 野心藏不住了

無障礙瀏覽 進入關(guān)懷版