国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

預(yù)測(cè)下一個(gè)像素還需要幾年?谷歌:五年夠了

0
分享至



機(jī)器之心報(bào)道

機(jī)器之心編輯部

既然語(yǔ)言可以當(dāng)序列來(lái)學(xué),那圖像能不能也當(dāng)序列來(lái)學(xué)?

通過(guò)將圖像表示為像素序列,先前的研究表明通過(guò)下一像素預(yù)測(cè),可以以一種簡(jiǎn)單、端到端的方式同時(shí)學(xué)習(xí)視覺(jué)識(shí)別與生成。

從概念上講,下一像素預(yù)測(cè)非常容易擴(kuò)展,因?yàn)樗菬o(wú)監(jiān)督學(xué)習(xí):無(wú)需任何人工標(biāo)注。同時(shí),將圖像表示為像素序列,也對(duì)圖像結(jié)構(gòu)施加了最少的歸納偏置。

然而,盡管像素級(jí)端到端建模在早期被證明是可行的,但這一范式近年來(lái)卻不再流行。

其主要原因在于出現(xiàn)了計(jì)算效率更高的方法,例如:使用視覺(jué) tokenizer 進(jìn)行 patch 級(jí)別學(xué)習(xí)。

盡管研究重心已經(jīng)發(fā)生轉(zhuǎn)移,但一個(gè)簡(jiǎn)單卻極其關(guān)鍵的問(wèn)題仍未被回答:我們距離真正大規(guī)模擴(kuò)展下一像素預(yù)測(cè),還有多遠(yuǎn)?

不可否認(rèn),相比自然語(yǔ)言中的下一詞預(yù)測(cè),下一像素預(yù)測(cè)要困難得多,主要有以下幾點(diǎn)原因:

  • 首先,像素的語(yǔ)義信息極低。一個(gè)句子里的詞通常包含豐富含義,而一個(gè)像素只是一點(diǎn)顏色信息,兩者差距巨大。
  • 其次,像素之間的空間關(guān)系非常復(fù)雜,不容易用序列方式來(lái)表示。一個(gè)像素的顏色不僅受到周圍鄰域像素的影響,還受到圖像中那些與它不相鄰的物體和結(jié)構(gòu)的影響。
  • 第三,隨著圖像分辨率升高,下一像素預(yù)測(cè)的計(jì)算量會(huì)急劇增加。例如,要生成一張 128 × 128 的圖片,一個(gè)自回歸模型必須逐個(gè)預(yù)測(cè) 16,384 個(gè)像素,一步都不能少。

在這篇論文中,來(lái)自 Google DeepMind 的研究者分析了下一像素預(yù)測(cè)在圖像識(shí)別與圖像生成兩類任務(wù)中的擴(kuò)展特性(scaling properties)。

本文首先在固定的 32×32 像素分辨率下開(kāi)展研究,在這一分辨率下,圖像已開(kāi)始呈現(xiàn)清晰的結(jié)構(gòu)與可辨識(shí)的物體交互,因此可被視為對(duì)原生高分辨率圖像的一種有意義的近似。

實(shí)驗(yàn)基于下一像素預(yù)測(cè)損失進(jìn)行了初始 scaling 實(shí)驗(yàn)。如圖 1 (a) 所示,結(jié)果表明:相較于文本 token,原始像素的學(xué)習(xí)需要顯著更高(10–20 倍)的最優(yōu) token-parameter 比例。更具體地,要實(shí)現(xiàn)計(jì)算最優(yōu)平衡,像素模型所需的 token-per-parameter 至少比語(yǔ)言模型高一個(gè)數(shù)量級(jí)(約 400 vs. 20)。

這一初步發(fā)現(xiàn)促使研究者進(jìn)一步深入三個(gè)核心問(wèn)題。第一,我們?nèi)绾慰煽康卦u(píng)估這些模型的性能,尤其是在較低分辨率下(低分辨率便于開(kāi)展大量實(shí)驗(yàn))?第二,基于下一像素預(yù)測(cè)損失得出的 scaling 規(guī)律,是否與更有意義的下游任務(wù)(如分類與圖像補(bǔ)全)的 scaling 行為一致?第三,不同圖像分辨率下的 scaling 趨勢(shì)會(huì)如何變化?

為回答這些問(wèn)題,本文圍繞三類指標(biāo)進(jìn)行了系列可控實(shí)驗(yàn)。

在固定的 32×32 分辨率下,實(shí)驗(yàn)結(jié)果(見(jiàn)圖 1 (b))顯示:最優(yōu)的 scaling 策略高度依賴目標(biāo)任務(wù),其中圖像生成質(zhì)量需要比分類任務(wù)或下一像素預(yù)測(cè)任務(wù)更大的 token-parameter 比例。此外,這些 scaling 動(dòng)態(tài)并非靜態(tài)不變;對(duì) 16×16 與 64×64 等不同分辨率的研究顯示:隨著分辨率提升,模型規(guī)模的增長(zhǎng)必須顯著快于數(shù)據(jù)規(guī)模的增長(zhǎng)。

最后,鑒于訓(xùn)練算力正以每年四到五倍的速度增長(zhǎng),本文預(yù)測(cè)逐像素建模方式在未來(lái)五年內(nèi)將變得可行。



  • 論文標(biāo)題:Rethinking generative image pretraining: How far are we from scaling up next-pixel prediction?
  • 論文地址:https://arxiv.org/pdf/2511.08704

方法介紹

本文從 32×32 分辨率的圖像出發(fā),在多種 IsoFlops(等算力)配置下訓(xùn)練了一系列 Transformer 模型,最大計(jì)算量達(dá)到 7e19 FLOPs,并從三個(gè)不同指標(biāo)對(duì)其性能進(jìn)行評(píng)估:下一像素預(yù)測(cè)目標(biāo)、ImageNet 分類準(zhǔn)確率以及以 Fréchet Distance 衡量的生成質(zhì)量。結(jié)果發(fā)現(xiàn):

  • 首先,最佳擴(kuò)展策略強(qiáng)烈依賴任務(wù)類型:即使在固定的 32×32 分辨率下,分類任務(wù)與生成任務(wù)的最優(yōu) scaling 需求也完全不同,其中生成任務(wù)要達(dá)到最優(yōu)效果所需的數(shù)據(jù)規(guī)模增長(zhǎng)速度是分類任務(wù)的三到五倍。
  • 其次,隨著圖像分辨率的提升,最優(yōu) scaling 策略顯示模型規(guī)模必須比數(shù)據(jù)規(guī)模增長(zhǎng)得更快。更令人意外的是,根據(jù)趨勢(shì)外推,像素級(jí)模型的主要瓶頸并不是訓(xùn)練數(shù)據(jù),而是計(jì)算量。

本文采用 Transformer 架構(gòu)進(jìn)行研究,共四種規(guī)模,參數(shù)從 2800 萬(wàn)到 4.49 億不等。Transformer 架構(gòu)的詳細(xì)信息列在表 1 中。



本文在 JFT-300M 數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練,該數(shù)據(jù)集包含 3 億張多樣化圖像,規(guī)模是 ImageNet ILSVRC 2012 訓(xùn)練集的 10 倍以上。在分辨率為 32×32 的條件下,對(duì)數(shù)據(jù)集完整遍歷一遍相當(dāng)于處理超過(guò) 3000 億個(gè)像素。訓(xùn)練過(guò)程采用標(biāo)準(zhǔn)的 Inception 風(fēng)格隨機(jī)裁剪,并以 50% 概率進(jìn)行水平翻轉(zhuǎn)。

在評(píng)估上,本文進(jìn)行了兩種評(píng)估方式,即圖像分類和圖像補(bǔ)全。

實(shí)驗(yàn)及結(jié)果

像素是否遵循與文本相同的規(guī)律?

答案是肯定的:對(duì)原始像素預(yù)測(cè)的擴(kuò)展趨勢(shì)與文本類似、可預(yù)測(cè),但效率要低得多。由于單個(gè)像素所攜帶的語(yǔ)義信息遠(yuǎn)少于語(yǔ)言 token,本文估計(jì)模型在學(xué)習(xí)原始像素時(shí),需要比語(yǔ)言模型多 10–20 倍的 token-per-parameter 才能達(dá)到有效學(xué)習(xí)。



本文進(jìn)一步計(jì)算了在不同訓(xùn)練 FLOPs 下的最優(yōu) token-per-parameter 比例,并與典型語(yǔ)言模型進(jìn)行比較。如圖 1 (a) 所示,即便在超過(guò) 10^21 FLOPs 的訓(xùn)練預(yù)算下,學(xué)習(xí)原始像素仍然需要比語(yǔ)言 token 多 10–20 倍的數(shù)據(jù)量。

這表明,即便在低分辨率 32×32 圖像中,單個(gè)像素的語(yǔ)義信息密度仍遠(yuǎn)低于語(yǔ)言 token,后者本身就是一種壓縮且意義集中的信息單位。例如,cat 這個(gè)詞是高度壓縮的符號(hào),攜帶著大量抽象信息:它是一種動(dòng)物,有毛,會(huì)喵叫,有胡須。而單個(gè)像素本身幾乎不包含語(yǔ)義,因?yàn)樗念伾悼赡芡瑫r(shí)對(duì)應(yīng)貓、汽車或天空的一部分。



總的來(lái)說(shuō),實(shí)驗(yàn)結(jié)果顯示,下一像素預(yù)測(cè)的最優(yōu)擴(kuò)展趨勢(shì)的確可以通過(guò)語(yǔ)言模型中已成熟的 scaling 框架進(jìn)行預(yù)測(cè)。

最優(yōu) scaling 是否能直接遷移到下游任務(wù)?

答案是不行,至少不是以一種簡(jiǎn)單方式。在固定的 32×32 分辨率下,由下一像素預(yù)測(cè)損失得到的最優(yōu)擴(kuò)展策略對(duì)圖像生成來(lái)說(shuō)并非最優(yōu)。具體而言,要獲得良好的生成質(zhì)量,需要一種更加數(shù)據(jù)驅(qū)動(dòng)的 scaling 方式,即數(shù)據(jù)規(guī)模的增長(zhǎng)速度必須明顯快于模型規(guī)模的增長(zhǎng)速度。

不同任務(wù)的最優(yōu) scaling 存在顯著差異。如圖 1 (b) 所示,基于獨(dú)立 IsoFlops 配置得到的最優(yōu) token-to-parameter 比例在下一像素預(yù)測(cè)損失、ImageNet 分類 top-1 準(zhǔn)確率以及基于圖像補(bǔ)全的 Fréchet Distance 之間存在明顯差別。

隨著圖像分辨率提升,最優(yōu) scaling 會(huì)改變嗎?

答案是會(huì)的。隨著圖像分辨率的提高,最優(yōu)擴(kuò)展策略從在 32×32 分辨率下對(duì)模型規(guī)模與數(shù)據(jù)規(guī)模的平衡,轉(zhuǎn)變?yōu)樵诟叻直媛氏旅黠@偏向更大的模型,而非更多的數(shù)據(jù)。

圖像分類 vs. 圖像生成。正如圖 4 (a) 和圖 4 (c) 所一致展示的,在更高分辨率下訓(xùn)練模型能夠提升下游任務(wù)表現(xiàn)。

對(duì)于圖像分類,從 16×16 切換到 32×32 時(shí)能夠帶來(lái)明顯提升,但在 FLOPs 超過(guò) 1e20 的情況下,從 32×32 增加到 64×64 僅帶來(lái)輕微改進(jìn)。這表明:對(duì)于 ImageNet 分類任務(wù),在 32×32 之后,進(jìn)一步提升分辨率的收益趨于減弱。

相比之下,對(duì)于圖像生成,32×32 附近的 scaling 趨勢(shì)并未飽和,將分辨率從 32×32 提升至 64×64 能帶來(lái)顯著改進(jìn)。直觀來(lái)看,分辨率提高后,單像素的信息密度下降,但像素之間的視覺(jué)結(jié)構(gòu)變得更復(fù)雜、更真實(shí)。抽象語(yǔ)義在低分辨率即可有效捕獲,而細(xì)粒度紋理則需要更高分辨率。



我們距離原始下一像素預(yù)測(cè)還有多遠(yuǎn)?

目前由于巨大的計(jì)算成本而難以實(shí)際執(zhí)行,但逐像素建模在未來(lái)五年內(nèi)仍是一條可行路徑,并能達(dá)到具有競(jìng)爭(zhēng)力的性能。其主要瓶頸是計(jì)算量,而不是訓(xùn)練數(shù)據(jù)的可獲得性。本文預(yù)計(jì)在未來(lái)五年內(nèi),基于原始像素的學(xué)習(xí)將成為一條可行的發(fā)展方向。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
內(nèi)地上映第二天,電影《阿凡達(dá)3》票房破2億,觀眾:電影時(shí)長(zhǎng)太長(zhǎng),看完體驗(yàn)很不好

內(nèi)地上映第二天,電影《阿凡達(dá)3》票房破2億,觀眾:電影時(shí)長(zhǎng)太長(zhǎng),看完體驗(yàn)很不好

臺(tái)州交通廣播
2025-12-20 13:51:54
寧波5月大女?huà)胧中g(shù)后去世,家屬:尸檢報(bào)告稱未檢見(jiàn)冠狀竇型房間隔缺損

寧波5月大女?huà)胧中g(shù)后去世,家屬:尸檢報(bào)告稱未檢見(jiàn)冠狀竇型房間隔缺損

紅星新聞
2025-12-20 15:16:15
“最低選擇299元有女孩陪侍套餐”,記者說(shuō)只想看電影,“私人影院”服務(wù)員直接讓記者去別家看

“最低選擇299元有女孩陪侍套餐”,記者說(shuō)只想看電影,“私人影院”服務(wù)員直接讓記者去別家看

環(huán)球網(wǎng)資訊
2025-12-20 12:20:07
1-1大冷!中國(guó)隊(duì)逼平韓國(guó)隊(duì),末輪贏球=擺脫倒數(shù)第一

1-1大冷!中國(guó)隊(duì)逼平韓國(guó)隊(duì),末輪贏球=擺脫倒數(shù)第一

何老師呀
2025-12-20 16:36:13
歐盟通過(guò)對(duì)烏1050億貸款,普京:俄羅斯從未攻擊過(guò)烏克蘭 | 狼叔看世界

歐盟通過(guò)對(duì)烏1050億貸款,普京:俄羅斯從未攻擊過(guò)烏克蘭 | 狼叔看世界

狼叔看世界
2025-12-20 07:53:23
哈薩克斯坦真要站隊(duì)日本?剛簽37億大單,托卡耶夫一個(gè)舉動(dòng)引眾怒

哈薩克斯坦真要站隊(duì)日本?剛簽37億大單,托卡耶夫一個(gè)舉動(dòng)引眾怒

云上烏托邦
2025-12-20 17:15:18
普京戀愛(ài)了!網(wǎng)傳普京女友是她——被譽(yù)為“俄羅斯最柔軟的女人”

普京戀愛(ài)了!網(wǎng)傳普京女友是她——被譽(yù)為“俄羅斯最柔軟的女人”

觸摸史跡
2025-12-20 20:05:30
圣誕節(jié)快到了,給個(gè)準(zhǔn)話,還要不要抵制洋節(jié)?

圣誕節(jié)快到了,給個(gè)準(zhǔn)話,還要不要抵制洋節(jié)?

沉思的野獸
2025-12-19 19:07:28
北京阿姨20年守茅臺(tái)股票:90萬(wàn)本金,分紅326萬(wàn),成本歸零!

北京阿姨20年守茅臺(tái)股票:90萬(wàn)本金,分紅326萬(wàn),成本歸零!

趣文說(shuō)娛
2025-12-20 18:29:20
哈蘭德閃擊!兩連擊破門(mén),7戰(zhàn)西漢姆轟10球,跳機(jī)械舞慶祝

哈蘭德閃擊!兩連擊破門(mén),7戰(zhàn)西漢姆轟10球,跳機(jī)械舞慶祝

奧拜爾
2025-12-20 23:12:58
73歲普京罕見(jiàn)回應(yīng)感情生活,承認(rèn)正在戀愛(ài)中!信息量很大......

73歲普京罕見(jiàn)回應(yīng)感情生活,承認(rèn)正在戀愛(ài)中!信息量很大......

新民周刊
2025-12-20 17:10:52
盒馬在上海成立盒馬數(shù)科技術(shù)公司

盒馬在上海成立盒馬數(shù)科技術(shù)公司

每日經(jīng)濟(jì)新聞
2025-12-19 10:46:09
電信董事長(zhǎng)估計(jì)要失眠了,惹誰(shuí)不好,偏偏惹了最叛逆的羅永浩!

電信董事長(zhǎng)估計(jì)要失眠了,惹誰(shuí)不好,偏偏惹了最叛逆的羅永浩!

荊楚寰宇文樞
2025-12-19 23:04:03
遼寧男籃2分險(xiǎn)勝寧波!楊鳴拒絕爆冷,威爾斯26分,付豪16分

遼寧男籃2分險(xiǎn)勝寧波!楊鳴拒絕爆冷,威爾斯26分,付豪16分

體壇瞎白話
2025-12-20 21:44:38
南京博物院院長(zhǎng)從靈谷塔七層一躍而下!

南京博物院院長(zhǎng)從靈谷塔七層一躍而下!

興化論談
2025-12-19 20:21:07
停播7年,那個(gè)挽救無(wú)數(shù)司機(jī)的“網(wǎng)紅交警”譚喬,卻挽救不了自己

停播7年,那個(gè)挽救無(wú)數(shù)司機(jī)的“網(wǎng)紅交警”譚喬,卻挽救不了自己

以茶帶書(shū)
2025-12-18 17:14:01
中央戲劇學(xué)院院長(zhǎng)郝戎被查,劉燁、章子怡、靳東等為其學(xué)生,曾搭檔王志文、李冰冰演電視劇,被稱"明星導(dǎo)師"

中央戲劇學(xué)院院長(zhǎng)郝戎被查,劉燁、章子怡、靳東等為其學(xué)生,曾搭檔王志文、李冰冰演電視劇,被稱"明星導(dǎo)師"

大風(fēng)新聞
2025-12-19 11:54:20
彈劾賴清德網(wǎng)絡(luò)連署破600萬(wàn),郭正亮:臺(tái)北反賴就超過(guò)6成

彈劾賴清德網(wǎng)絡(luò)連署破600萬(wàn),郭正亮:臺(tái)北反賴就超過(guò)6成

海峽導(dǎo)報(bào)社
2025-12-20 13:28:03
向高市早苗示好不到24小時(shí),張本底細(xì)被扒,父母的黑歷史也被翻出

向高市早苗示好不到24小時(shí),張本底細(xì)被扒,父母的黑歷史也被翻出

天天熱點(diǎn)見(jiàn)聞
2025-12-20 06:08:30
萬(wàn)萬(wàn)沒(méi)想到,女神高圓圓也老成這樣了,有點(diǎn)不敢相信!

萬(wàn)萬(wàn)沒(méi)想到,女神高圓圓也老成這樣了,有點(diǎn)不敢相信!

沉思默想的人
2025-12-19 05:04:03
2025-12-20 23:23:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
11957文章數(shù) 142514關(guān)注度
往期回顧 全部

科技要聞

許四清:具身智能的"ChatGPT時(shí)刻"還未到來(lái)

頭條要聞

美方最新表態(tài):不會(huì)強(qiáng)迫烏克蘭接受協(xié)議

頭條要聞

美方最新表態(tài):不會(huì)強(qiáng)迫烏克蘭接受協(xié)議

體育要聞

我開(kāi)了20年大巴,現(xiàn)在是一名西甲主帥

娛樂(lè)要聞

2026央視跨年晚會(huì)陣容曝光,豪華陣仗

財(cái)經(jīng)要聞

求解“地方財(cái)政困難”

汽車要聞

嵐圖推進(jìn)L3量產(chǎn)測(cè)試 已完成11萬(wàn)公里實(shí)際道路驗(yàn)證

態(tài)度原創(chuàng)

教育
健康
藝術(shù)
旅游
本地

教育要聞

建鄴教育:全區(qū)中考連續(xù)19年超市均分,三所學(xué)校高考成績(jī)?cè)倥市赂?/h3>

這些新療法,讓化療不再那么痛苦

藝術(shù)要聞

驚!肢體語(yǔ)言竟如此迷人,讓人無(wú)法抗拒!

旅游要聞

虹口新春“五必”榜單來(lái)啦!一季度“樂(lè)購(gòu)樂(lè)游”攻略輕松拿捏!

本地新聞

云游安徽|訪黃山云海古村,讀一城山水風(fēng)骨

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版