国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

VFMTok: Visual Foundation Models驅(qū)動(dòng)的Tokenizer時(shí)代來臨

0
分享至



視覺 Tokenizer 的困境與破局

近年來,自回歸(Autoregressive, AR)模型在語言生成領(lǐng)域的成功激發(fā)了其在圖像生成領(lǐng)域的應(yīng)用,涌現(xiàn)出 DALL-E、Parti、VAR 和 LlamaGen 等代表性工作。這類技術(shù)高度依賴于 VQGAN 等視覺 Tokenizer,它負(fù)責(zé)將高維、冗余的像素空間映射到一個(gè)低維、緊湊的離散潛在空間,是決定生成模型上限的基石。

然而,以 VQGAN 為代表的傳統(tǒng) Tokenizer 通常需要從零開始訓(xùn)練,其訓(xùn)練目標(biāo)由像素級(jí)重建損失函數(shù)主導(dǎo),導(dǎo)致其產(chǎn)生的潛在空間:

  1. 富含低層細(xì)節(jié)特征卻缺乏高層語義信息:能很好地還原圖像細(xì)節(jié),但潛在編碼本身缺乏高層語義信息。
  2. 較高的潛在空間冗余:VAGAN 基于圖像塊 (patch) 逐一進(jìn)行量化,而圖像中的物體通常是不規(guī)則的區(qū)域,基于圖像塊的量化降低了 tokens 的編碼效率。
  3. 無視結(jié)構(gòu)特性的表征:潛在空間的組織較為混亂,使得生成模型不僅需要更長(zhǎng)的訓(xùn)練時(shí)間來學(xué)習(xí)其潛在空間分布,而且往往得借助 CFG(Classifier-Free Guidance, CFG)等技巧來實(shí)現(xiàn)高保真度的圖像生成,增加了模型推理時(shí)間。

與此同時(shí),預(yù)訓(xùn)練的視覺基礎(chǔ)模型(Visual Foundation Models, VFMs),如 CLIP、DINOv2、SigLIP2 等,在提取豐富語義且可泛化視覺特征方面表現(xiàn)出了強(qiáng)大的能力。這些模型通過自監(jiān)督或語言監(jiān)督的方式進(jìn)行訓(xùn)練,它們能夠有效抽象出圖像中的高層語義信息,因此這些預(yù)訓(xùn)練的視覺基礎(chǔ)模型大多應(yīng)用于圖像內(nèi)容理解任務(wù)當(dāng)中。直接將其應(yīng)用于圖像重建和生成任務(wù)上卻鮮有人探索。

基于此,香港大學(xué) CVMI Lab 和階躍星辰 AIGC 團(tuán)隊(duì)提出一個(gè)大膽假設(shè):原本為視覺理解任務(wù)設(shè)計(jì)的預(yù)訓(xùn)練視覺基礎(chǔ)模型,其潛在特征是否也能直接作為圖像重建與生成的魯棒結(jié)構(gòu)化表征?

為了驗(yàn)證這一猜想,我們探索了一個(gè)基礎(chǔ)視覺模型新的應(yīng)用新方向:用凍結(jié)的預(yù)訓(xùn)練視覺基礎(chǔ)模型構(gòu)造離散的視覺 Tokenizer,將其應(yīng)用于圖像重建和自回歸圖像生成任務(wù)上。

我們發(fā)現(xiàn),相比于傳統(tǒng)的視覺 Tokenizer 模型,視覺基礎(chǔ)模型驅(qū)動(dòng)的圖像 Tokenizer 在這兩項(xiàng)任務(wù)上均表現(xiàn)出優(yōu)異的性能。



  • 論文標(biāo)題: Vision Foundation Models as Effective Visual Tokenizers for Autoregressive Generation
  • 論文地址: https://arxiv.org/pdf/2507.08441
  • Huggingface: https://huggingface.co/papers/2507.08441
  • Github:
  • https://github.com/CVMI-Lab/VFMTok.git (Vanilla version)
  • https://github.com/CVMI-Lab/VFMTok-RAR.git (Ultra version)

探索性發(fā)現(xiàn)

為了驗(yàn)證視覺基礎(chǔ)模型 (VFMs) 能否構(gòu)造高質(zhì)量的視覺 Tokenizer,我們首次嘗試使用不同的凍結(jié)的預(yù)訓(xùn)練基礎(chǔ)視覺模型 (VFMs) 提取圖像特征,將其送入 VQGAN 的編碼器中進(jìn)行端到端訓(xùn)練。訓(xùn)練階段只有量化器(quantilizer)和解碼器中的參數(shù)會(huì)進(jìn)行更新,隨后用它完成自回歸圖像生成任務(wù)。

實(shí)驗(yàn)表明:凍結(jié)的視覺基礎(chǔ)模型 (VFMs) 提取的圖像特征可以直接用于圖像重建,且訓(xùn)練好的視覺 Tokenizer 在自回歸圖像生成任務(wù)上的表現(xiàn)優(yōu)于傳統(tǒng)的視覺 Tokenizer 模型。

這一發(fā)現(xiàn)凸顯了預(yù)訓(xùn)練視覺基礎(chǔ)模型 (VFMs) 構(gòu)造高質(zhì)量視覺 Tokenizer 的巨大潛力。



核心思想

基于我們的探索性發(fā)現(xiàn):凍結(jié)的視覺基礎(chǔ)模型 (VFMs) 可以直接構(gòu)造高質(zhì)量的視覺 Tokenizer 并進(jìn)行端到端地訓(xùn)練,我們對(duì)構(gòu)造的視覺 Tokenizer 的結(jié)構(gòu)進(jìn)行進(jìn)一步的優(yōu)化 —— 利用視覺基礎(chǔ)模型 (VFMs)提取圖像的多層特征 (Multi-level Features Extraction),這有助于同時(shí)捕獲圖像中的低層細(xì)節(jié)特征和高層語義信息。

同時(shí),我們注意到現(xiàn)有的量化機(jī)制 (quantization) 都是對(duì)圖像塊 (patch) 逐一量化,而圖像中物體一般都是形狀不規(guī)則的,因此我們?cè)O(shè)計(jì)了區(qū)域自適應(yīng)的量化 (Region-Adaptive Quantization) 方案。該方案可以進(jìn)一步降低潛在特征空間的冗余度,提高視覺 tokens 的利用效率。

此外,因?yàn)橐曈X基礎(chǔ)模型的參數(shù)是凍結(jié)的,因此在重建圖像內(nèi)容的同時(shí),我們也設(shè)計(jì)了語義特征重建的目標(biāo)函數(shù) (Semantic Reconstruction Objective),來提升視覺 Tokenizer 的語義保真度。我們將基于視覺基礎(chǔ)模型 (VFMs) 的 Tokenizer 稱之為VFMTok。



VFMTok 架構(gòu)圖

關(guān)鍵技術(shù)細(xì)節(jié)

  • 多層圖像特征提取 (Multi-level Features Extraction)

為了同時(shí)捕獲圖像低層細(xì)節(jié)特征和高層語義信息方便圖像重建,VFMTok 采用凍結(jié)的預(yù)訓(xùn)練的視覺基礎(chǔ)模型 (VFMs) 作為編碼器提取多層級(jí)語義特征。VFMTok 按照等間隔的方式從預(yù)訓(xùn)練基礎(chǔ)模型 (VFMs) 中提取多層特征 (multi-level features)。

  • 區(qū)域自適應(yīng)量化 (Region-Adaptive Quantization)

為了實(shí)現(xiàn)區(qū)域自適應(yīng)量化 (Region-Adaptive Quantization) 機(jī)制,VFMTok 通過可學(xué)習(xí)「錨點(diǎn)查詢」(Anchor Queries)結(jié)合可變形注意力機(jī)制(Deformable Attention)自適應(yīng)地從多層級(jí)特征 (multi-level features) 中進(jìn)行區(qū)域自適應(yīng)的特征采樣 (Region-Adaptive Sampling)。

這種方式能聚焦于采樣圖像中模式一致的區(qū)域。隨后,VFMToks 對(duì)可學(xué)習(xí)「錨點(diǎn)查詢」(Anchor Queries)進(jìn)行量化 (quantization)。這種方式可以有效提升 token 的利用效率 —— 用更少的 tokens(256)來表征一張圖像。



  • 語義重建目標(biāo)(Semantic Reconstruction Objective)

因?yàn)橐曈X基礎(chǔ)模型在 Tokenizer 的訓(xùn)練階段參數(shù)是凍結(jié)的,因此 VFMTok 在重建圖像的同時(shí),也會(huì)重建凍結(jié)的基礎(chǔ)模型(VFM)最后一層的語義特征。

為了實(shí)現(xiàn)這一點(diǎn),VFMTok 解碼階段設(shè)計(jì)了一個(gè)共享的輕量級(jí) Vision Transformer(ViT)。這個(gè) ViT 接收區(qū)域自適應(yīng)量化后的 tokens,結(jié)合一個(gè)可學(xué)習(xí)的 mask token 以及一組可學(xué)習(xí)的位置編碼(Positional Embedding)作為輸入,分別產(chǎn)生用于圖像重建和語義重建的特征。共享 ViT 的設(shè)計(jì)既減少了參數(shù)量又保證了語義保真度。其雙重目標(biāo)函數(shù)是:





訓(xùn)練完成后,VFMTok 可以被應(yīng)用于圖像自適應(yīng)回歸任務(wù)上,基于 next-token prediction 的方式生成高質(zhì)量的圖像內(nèi)容。

實(shí)驗(yàn)亮點(diǎn)與分析

1.卓越的重建生成質(zhì)量與效率

大量實(shí)驗(yàn)表明,基于視覺基礎(chǔ)模型 (VFMs) 構(gòu)造的視覺 Tokenizer——VFMTok,具備高質(zhì)量、高效率的圖像重建和自回歸圖像生成能力。

  • 更好的圖像重建質(zhì)量:相較于傳統(tǒng)的視覺 Tokenizer,VFMTok 可以用更少的 token 數(shù)量(僅用 256 個(gè))實(shí)現(xiàn)更優(yōu)的重建質(zhì)量(0.89 rFID, 215.4 rIS)和更高的碼本利用率 (100%),超越了之前大部分傳統(tǒng)的離散 Tokenizers。



  • 更快的生成訓(xùn)練收斂速度:相比于經(jīng)典的 VQGAN 這類 Tokenizer,VFMTok 能夠顯著提升自回歸模型訓(xùn)練階段的收斂速度 ——訓(xùn)練收斂速度提升了 3 倍。



  • 更好的生成性能:在 ImageNet 256x256 的 class-to-image 生成任務(wù)上,VFMTok-1.4B 模型在參數(shù)量更少、訓(xùn)練迭代次數(shù)更少的情況下,自回歸生成性能超越了同類 LlamaGen-3B。此外,在接入更好的自回歸圖像生成框架 RAR 后,實(shí)現(xiàn)了SOTA 的圖像生成性能(gFID: 1.36)。



  • CFG-free 優(yōu)越性:值得注意的是,VFMTok 在有無 CFG 的情況下性能幾乎一致(gFID: 2.07 vs 2.04),而 LlamaGen 則會(huì)從 2.19 急劇惡化至 9.38。這證明了其潛在空間具有極強(qiáng)的語義一致性,無需 CFG 即可實(shí)現(xiàn)高保真度的 class-to-image 圖像生成,可以進(jìn)一步減少圖像生成時(shí)間。
  • 更快的推理速度:由于 tokens 數(shù)量減半(256 vs. 576),自回歸模型的生成過程長(zhǎng)度減半,推理速度因此獲得了約 4 倍的提升。

2.消融實(shí)驗(yàn)的有力證明

僅使用凍結(jié)的 VFM 作為編碼器,線性探針準(zhǔn)確率(linear probing)就從 VQGAN 的 23.1% 提升至56.4%。引入?yún)^(qū)域自適應(yīng)量化 (Region-Adaptive Quantization) 和語義特征重建 (Semantic Reconstruction Objective) 后,VFMTok 僅用 256 個(gè) Token 就能在重建質(zhì)量(rFID 0.89 vs 0.95) 上全面超越使用 576 個(gè) Token 的 VQGAN 基線 Tokenizer。



總結(jié)與展望

VFMTok 首次證明了凍結(jié)的視覺基礎(chǔ)模型 (VFMs) 提取的圖像特征能有效用于圖像重建與生成,同時(shí)可以提升 Tokenizer 語義表征能力,使自回歸 (AR) 圖像生成模型收斂更快,并能實(shí)現(xiàn) CFG-free 的高保真圖像合成。VFMTok 提出的區(qū)域自適應(yīng)量化機(jī)制,通過有效利用圖像區(qū)域的固有冗余實(shí)現(xiàn)緊湊編碼,在減少視覺 token 數(shù)量的同時(shí)提升性能,實(shí)現(xiàn)高效且高質(zhì)量的自回歸圖像生成。

大量實(shí)驗(yàn)驗(yàn)證了 VFMTok 在圖像重建和自回歸生成中的有效性,確立了預(yù)訓(xùn)練視覺基礎(chǔ)模型 (VFMs) 構(gòu)造高質(zhì)量、高效率 Tokenizer 的主導(dǎo)地位。

由此可見,利用 VFM 的先驗(yàn)知識(shí)是構(gòu)建高質(zhì)量潛在空間的必由之路,也是構(gòu)建下一代 Tokenizer 的關(guān)鍵,這比任何從零開始的正則化或約束都更根本、更有效。預(yù)訓(xùn)練視覺基礎(chǔ)模型的巨大潛力值得我們?cè)谖磥砩钊胪诰颍罱K可能探索出一個(gè)能夠有效兼容所有生成模型的、語義豐富、高質(zhì)高效的「統(tǒng)一 Tokenizer」。

VFMTok 論文與代碼均已公開,歡迎感興趣的同學(xué)閱讀、復(fù)現(xiàn)以及深入討論。

作者介紹

本文作者主要來自于香港大學(xué) CVMI Lab 和階躍星辰 AIGC 團(tuán)隊(duì)。階躍星辰 AIGC 團(tuán)隊(duì)主要致力于圖像生成底模、圖像編輯底模、世界模型以及 RL 后訓(xùn)練研究和落地。歡迎志同道合的同學(xué)交流和加入,一起為 AIGC 社區(qū)貢獻(xiàn)力量。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
杭州靈隱寺,為何要保留“一代妖僧”的雕像?看到千萬不要亂拜

杭州靈隱寺,為何要保留“一代妖僧”的雕像?看到千萬不要亂拜

收藏大視界
2026-02-28 23:03:27
特朗普稱同意與伊朗新領(lǐng)導(dǎo)層對(duì)話

特朗普稱同意與伊朗新領(lǐng)導(dǎo)層對(duì)話

每日經(jīng)濟(jì)新聞
2026-03-02 08:17:27
特朗普怎么都沒想到,哈梅內(nèi)伊生前最后一項(xiàng)安排,讓美以進(jìn)退兩難

特朗普怎么都沒想到,哈梅內(nèi)伊生前最后一項(xiàng)安排,讓美以進(jìn)退兩難

藍(lán)色海邊
2026-03-03 00:27:07
國際原子能機(jī)構(gòu)總干事表示未發(fā)現(xiàn)伊朗核武制造計(jì)劃

國際原子能機(jī)構(gòu)總干事表示未發(fā)現(xiàn)伊朗核武制造計(jì)劃

財(cái)聯(lián)社
2026-03-03 00:37:09
救命,國產(chǎn)爛片又刷新下限了

救命,國產(chǎn)爛片又刷新下限了

喵喵娛樂團(tuán)
2026-02-28 16:41:47
凌晨浦東機(jī)場(chǎng):四女孩險(xiǎn)飛泰國,兩分鐘之差險(xiǎn)釀悲劇

凌晨浦東機(jī)場(chǎng):四女孩險(xiǎn)飛泰國,兩分鐘之差險(xiǎn)釀悲劇

劉拕?wù)f體壇
2026-03-02 09:03:39
2月車市,再給新能源汽車潑一大盆冷水,涼透了

2月車市,再給新能源汽車潑一大盆冷水,涼透了

互聯(lián)網(wǎng).亂侃秀
2026-03-02 10:06:29
華國鋒擔(dān)任中央主席時(shí),中央先后任命了15位開國將帥輔佐他

華國鋒擔(dān)任中央主席時(shí),中央先后任命了15位開國將帥輔佐他

雍親王府
2026-03-02 15:55:03
欠中國的錢,委內(nèi)瑞拉不還了?美財(cái)長(zhǎng):中國已無法繼續(xù)獲得委石油

欠中國的錢,委內(nèi)瑞拉不還了?美財(cái)長(zhǎng):中國已無法繼續(xù)獲得委石油

萌城少年強(qiáng)
2026-01-22 12:47:40
伊朗戰(zhàn)事升級(jí),對(duì)中國5大產(chǎn)業(yè)影響深遠(yuǎn),普通人別只看熱鬧

伊朗戰(zhàn)事升級(jí),對(duì)中國5大產(chǎn)業(yè)影響深遠(yuǎn),普通人別只看熱鬧

觸摸史跡
2026-03-02 21:14:00
向美國捐8億被罵叛徒!無錫唐氏21代掌門:我的錢只認(rèn)文明歸屬

向美國捐8億被罵叛徒!無錫唐氏21代掌門:我的錢只認(rèn)文明歸屬

談史論天地
2026-02-10 08:16:24
白忙活了?特朗普萬萬沒想到,哈梅內(nèi)伊殉職后,伊朗軍隊(duì)沒人叛逃

白忙活了?特朗普萬萬沒想到,哈梅內(nèi)伊殉職后,伊朗軍隊(duì)沒人叛逃

楠楠自語
2026-03-02 22:31:05
這個(gè)死磕王楚欽的裁判,決賽就沒讓她上場(chǎng)

這個(gè)死磕王楚欽的裁判,決賽就沒讓她上場(chǎng)

楊仔述
2026-03-02 11:13:02
人可以狠心到什么程度?看網(wǎng)友講述,發(fā)現(xiàn)我真做不到這般絕

人可以狠心到什么程度?看網(wǎng)友講述,發(fā)現(xiàn)我真做不到這般絕

侃神評(píng)故事
2026-02-27 07:40:03
回顧:女碩士被丈夫用拖鞋拍死,生前求饒2小時(shí):我懷著你的弟弟

回顧:女碩士被丈夫用拖鞋拍死,生前求饒2小時(shí):我懷著你的弟弟

談史論天地
2026-03-02 13:11:55
法國和浙江同為6000萬人口,2025年法國創(chuàng)3萬億美元GDP,浙江呢?

法國和浙江同為6000萬人口,2025年法國創(chuàng)3萬億美元GDP,浙江呢?

八斗小先生
2026-02-28 18:56:17
歷史性轉(zhuǎn)折!黎巴嫩正式清場(chǎng)真主黨,中東格局一夜改寫

歷史性轉(zhuǎn)折!黎巴嫩正式清場(chǎng)真主黨,中東格局一夜改寫

老馬拉車莫少裝
2026-03-02 23:27:10
550億美元砸進(jìn)炮火:一場(chǎng)工業(yè)體系的極限對(duì)沖

550億美元砸進(jìn)炮火:一場(chǎng)工業(yè)體系的極限對(duì)沖

七分日記
2026-02-26 23:01:48
真香預(yù)警 低價(jià)MacBook性價(jià)比無敵!降維打擊Windows、等等黨最終歸宿

真香預(yù)警 低價(jià)MacBook性價(jià)比無敵!降維打擊Windows、等等黨最終歸宿

快科技
2026-03-02 10:50:12
內(nèi)賈德遇害細(xì)節(jié)公布,家中遭毒手,本人和保鏢雙雙殞命?

內(nèi)賈德遇害細(xì)節(jié)公布,家中遭毒手,本人和保鏢雙雙殞命?

小影的娛樂
2026-03-03 00:46:39
2026-03-03 01:56:49
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12395文章數(shù) 142575關(guān)注度
往期回顧 全部

科技要聞

蘋果中國官網(wǎng)上線iPhone 17e,4499元起

頭條要聞

中國留學(xué)生:很多人得知哈梅內(nèi)伊身亡后 決定盡快撤離

頭條要聞

中國留學(xué)生:很多人得知哈梅內(nèi)伊身亡后 決定盡快撤離

體育要聞

“想要我簽名嗎” 梅西逆轉(zhuǎn)后嘲諷對(duì)手主帥

娛樂要聞

李亞鵬與哥哥和解 只有一條真心話短信

財(cái)經(jīng)要聞

油價(jià)飆升 美伊沖突將如何攪動(dòng)全球經(jīng)濟(jì)

汽車要聞

國民SUV再添一員 瑞虎7L靜態(tài)體驗(yàn)

態(tài)度原創(chuàng)

本地
房產(chǎn)
親子
時(shí)尚
家居

本地新聞

津南好·四時(shí)總相宜

房產(chǎn)要聞

方案突然曝光!??诒睅煷蟾叫#钟袝蟊P殺出!

親子要聞

45歲這年,我這個(gè)二胎媽媽決定做一件“瘋狂”的事

今年春天一定要擁有的4件衣服,太好看了!

家居要聞

萬物互聯(lián) 享科技福祉

無障礙瀏覽 進(jìn)入關(guān)懷版