国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

谷歌DeepMind重磅開(kāi)源多模態(tài)TIPSv2:實(shí)現(xiàn)Patch-Text對(duì)齊最優(yōu)表現(xiàn)

0
分享至



導(dǎo)語(yǔ):在多模態(tài)大模型飛速發(fā)展的今天,視覺(jué) - 語(yǔ)言基礎(chǔ)模型在分類、檢索、分割和深度預(yù)測(cè)等任務(wù)上取得了巨大進(jìn)步。然而,如何精準(zhǔn)地將密集的 “圖像塊(Patch)” 表示與對(duì)應(yīng)概念的 “文本嵌入” 對(duì)齊,依然是阻礙模型邁向更細(xì)粒度理解的 “Achilles' heel”。今天,谷歌 DeepMind 正式推出了 TIPSv2(Text-Image Pretraining with Spatial awareness v2),成功解決了這一核心痛點(diǎn),并在 9 項(xiàng)任務(wù)和 20 個(gè)數(shù)據(jù)集上展現(xiàn)出統(tǒng)治級(jí)的性能。



  • 論文標(biāo)題:TIPSv2: Advancing Vision-Language Pretraining with Enhanced Patch-Text Alignment
  • 項(xiàng)目主頁(yè):https://gdm-tipsv2.github.io/
  • HuggingFace 在線體驗(yàn):https://huggingface.co/spaces/google/TIPSv2
  • 作者 X (Twitter) 官宣:https://x.com/andrefaraujo/status/2044362911242502498
  • LinkedIn 討論:https://www.linkedin.com/posts/andrefaraujo_cvpr2026-cvpr2026-computervision-ugcPost-7449910891069890560-1Yhe?utm_source=share&utm_medium=member_desktop&rcm=ACoAAACIVW4BSMdtaSsUj-OT2zKU6jfeOCRJ-ul

該研究成果《TIPSv2: Advancing Vision-Language Pretraining with Enhanced Patch-Text Alignment》已成功被計(jì)算機(jī)視覺(jué)頂級(jí)會(huì)議 CVPR 2026 接收。目前,模型權(quán)重(涵蓋從 86M 到 1.1B 參數(shù)),代碼以及在線體驗(yàn) Demo 已全面開(kāi)源。

? 核心作者團(tuán)隊(duì)簡(jiǎn)介

本文由來(lái)自 Google DeepMind 的頂尖研究人員合作完成。通訊作者包括 Bingyi Cao、Koert Chen 以及 André Araujo。

核心團(tuán)隊(duì)在計(jì)算機(jī)視覺(jué)及多模態(tài) AI 領(lǐng)域成果斐然,在視覺(jué) - 語(yǔ)言基礎(chǔ)模型的架構(gòu)設(shè)計(jì)與表征學(xué)習(xí)方面擁有深厚學(xué)術(shù)背景與實(shí)戰(zhàn)經(jīng)驗(yàn)。該團(tuán)隊(duì)長(zhǎng)期致力于推動(dòng)具有 “空間感知能力(Spatial Awareness)” 的多模態(tài)大模型前沿研究,此次 TIPSv2 的發(fā)布標(biāo)志著他們?cè)诩?xì)粒度視覺(jué)理解領(lǐng)域樹(shù)立了全新的里程碑。

1. 發(fā)現(xiàn)反直覺(jué)現(xiàn)象:

為何 “學(xué)生” 超越了 “老師”?

TIPSv2 的誕生,源自于 DeepMind 研究團(tuán)隊(duì)對(duì) “預(yù)訓(xùn)練(Pre-training)” 與 “知識(shí)蒸餾(Distillation)” 之間差異的深度深度剖析。

在視覺(jué)大模型(如 CLIP、SigLIP)的常規(guī)訓(xùn)練中,模型通常擅長(zhǎng)全局圖像 - 文本對(duì)齊(例如識(shí)別整張圖中是否有一只貓),但在 “密集任務(wù)(Dense Tasks)” 如零樣本語(yǔ)義分割中卻往往表現(xiàn)乏力。研究團(tuán)隊(duì)在早期的消融實(shí)驗(yàn)中發(fā)現(xiàn)了一個(gè)極其反直覺(jué)的現(xiàn)象:



通過(guò) “塊級(jí)別(Patch-level)” 蒸餾出的小參數(shù)學(xué)生模型(Student Model),在零樣本分割等密集型圖文對(duì)齊任務(wù)上,其表現(xiàn)竟然大幅度反超了規(guī)模巨大的教師模型(Teacher Model)!

在其他幾乎所有評(píng)估任務(wù)中,大參數(shù)模型通常都碾壓小模型,唯獨(dú)在 “Patch-Text 密集對(duì)齊” 上出現(xiàn)了驚人的逆轉(zhuǎn)。團(tuán)隊(duì)進(jìn)一步深挖內(nèi)部機(jī)制后發(fā)現(xiàn):核心差異在于對(duì) “可見(jiàn)圖像塊(Visible Patches)” 的監(jiān)督方式。在標(biāo)準(zhǔn)的掩碼圖像建模(Masked Image Modeling, 如 iBOT 機(jī)制)中,模型只對(duì)被遮擋的 Patch 計(jì)算損失;而在蒸餾過(guò)程中,學(xué)生模型接收了來(lái)自教師模型所有 Patch(無(wú)論是否被遮擋)的豐富特征指導(dǎo)。正是這種對(duì) “可見(jiàn) Patch” 的顯式學(xué)習(xí)與約束,解鎖了底層網(wǎng)絡(luò)驚人的密集圖文對(duì)齊能力。

2. TIPSv2 的三大核心技術(shù)創(chuàng)新

基于上述的反直覺(jué)洞察,DeepMind 團(tuán)隊(duì)直接對(duì)底層的多模態(tài)預(yù)訓(xùn)練配方進(jìn)行了大刀闊斧的改革,提出了構(gòu)成 TIPSv2 的三個(gè)核心技術(shù)組件:

創(chuàng)新一:iBOT++ —— 全局視角的自監(jiān)督對(duì)齊引擎

在經(jīng)典的 iBOT(被 DINO 等強(qiáng)大視覺(jué)模型廣泛使用)目標(biāo)函數(shù)中,損失僅針對(duì) Masked Tokens(被掩碼的標(biāo)記)進(jìn)行計(jì)算。TIPSv2 打破了這一范式,引入了全新的 iBOT++ 目標(biāo)機(jī)制。該機(jī)制將自監(jiān)督的 Patch 級(jí)別損失強(qiáng)行擴(kuò)展到了所有的 Tokens(包括未被遮擋的可見(jiàn) Tokens)。



驚人效果:在不增加任何額外網(wǎng)絡(luò)參數(shù)的條件下,iBOT++ 強(qiáng)制模型在所有局部區(qū)域保持細(xì)粒度的表征一致性。僅憑這一項(xiàng)底層邏輯的改動(dòng),就讓模型在 ADE150 數(shù)據(jù)集上的零樣本分割 mIoU 指標(biāo)實(shí)現(xiàn)了+14.1的巨大飛躍(從 3.5 直接飆升至 17.6),一舉成為了驅(qū)動(dòng)密集圖文對(duì)齊的最強(qiáng)引擎。



創(chuàng)新二:Head-only EMA —— 突破顯存瓶頸的高效策略

傳統(tǒng)的自監(jiān)督學(xué)習(xí)(SSL)通常高度依賴對(duì)整個(gè)模型進(jìn)行指數(shù)移動(dòng)平均(EMA)參數(shù)更新。然而,當(dāng)訓(xùn)練達(dá)到十億參數(shù)級(jí)(Billion-scale)的多模態(tài)大模型時(shí),全模型的 EMA 會(huì)吞噬極其龐大的顯存和計(jì)算資源。

TIPSv2 團(tuán)隊(duì)在實(shí)驗(yàn)中發(fā)現(xiàn),由于模型同時(shí)接收了強(qiáng)有力的 “文本監(jiān)督信號(hào)”,底層視覺(jué)骨干網(wǎng)絡(luò)在訓(xùn)練初期就已經(jīng)具備了很好的穩(wěn)定性。因此,他們提出了創(chuàng)新的Head-only EMA策略 ——僅對(duì)頂層的投影頭(Projection Layers)執(zhí)行 EMA 更新,同時(shí)凍結(jié)視覺(jué)主干網(wǎng)絡(luò)的 EMA。這一策略在完美保持模型卓越性能的同時(shí),大幅度降低了訓(xùn)練時(shí)的顯存需求,極大提升了模型訓(xùn)練和擴(kuò)展的性價(jià)比。



創(chuàng)新三:多粒度文本描述(Multi-Granularity Captions)

為了避免模型在訓(xùn)練時(shí)對(duì)粗粒度的視覺(jué)關(guān)鍵詞 “走捷徑(Shortcutting)”,從而忽略空間布局細(xì)節(jié),TIPSv2 構(gòu)建了極度豐富的數(shù)據(jù)標(biāo)注配方。團(tuán)隊(duì)摒棄了單一的圖文對(duì)形式,不僅使用了傳統(tǒng)的 Alt-text(網(wǎng)頁(yè)替代文本),還創(chuàng)造性地引入了:



1) 利用 PaliGemma 生成的密集局部字幕;

2) 利用 Gemini Flash 大模型生成的更豐富、更具全局上下文邏輯的深度描述。

在訓(xùn)練過(guò)程中,模型會(huì)在這些不同粒度的描述之間進(jìn)行隨機(jī)交替和博弈。這種多粒度的文本增強(qiáng)約束,極大地提升了模型在應(yīng)對(duì)復(fù)雜密集對(duì)齊以及全局圖像 - 文本檢索任務(wù)時(shí)的魯棒性。

3. 恐怖的統(tǒng)治力:

9 大任務(wù)與 20 個(gè)數(shù)據(jù)集的全面超越

為了嚴(yán)格驗(yàn)證 TIPSv2 的通用視覺(jué)能力,團(tuán)隊(duì)在涵蓋三大維度的 9 個(gè)不同核心任務(wù)、20 個(gè)權(quán)威數(shù)據(jù)集上進(jìn)行了極其詳盡的評(píng)估。實(shí)驗(yàn)覆蓋了從 86M(Base)一直到 1.1B(Giant)的四種模型尺寸梯隊(duì)(B/14, L/14, SO400m/14, g/14)。

?? 維度一:密集圖像 - 文本評(píng)估(Dense Image-Text)—— 零樣本分割霸主

在最能衡量細(xì)粒度空間理解的 “零樣本分割(Zero-shot Segmentation)” 四大基準(zhǔn)測(cè)試中,TIPSv2 實(shí)現(xiàn)了無(wú)可爭(zhēng)議的全面霸榜。

相比于上一代前沿的視覺(jué)語(yǔ)言大模型(如 SigLIP2),TIPSv2 不僅性能呈現(xiàn)斷崖式領(lǐng)先,更是正面擊敗了專門(mén)針對(duì)此類任務(wù)優(yōu)化的 SILC 和 DINOv2 架構(gòu)。值得一提的是,后兩者使用了更為繁重的 TCL 評(píng)估協(xié)議,而 TIPSv2 以更通用、簡(jiǎn)潔的架構(gòu)實(shí)現(xiàn)了越級(jí)超越。



?? 維度二:全局圖像 - 文本評(píng)估(Global Image-Text)+ 純圖像評(píng)估(Image-Only)—— 極致的參數(shù)利用率

在分類、圖文跨模態(tài)檢索等 7 項(xiàng)全局維度的評(píng)估中,TIPSv2 在 5 項(xiàng)中強(qiáng)勢(shì)斬獲第一或第二的佳績(jī)。在語(yǔ)義分割、深度估計(jì)、表面法線預(yù)測(cè)、圖像自檢索等 9 個(gè)純視覺(jué)骨干任務(wù)中,TIPSv2 在 7 項(xiàng)中穩(wěn)居榜首或次席。

高光時(shí)刻:TIPSv2-g(1.1B 參數(shù)版本)在 3/5 的共享評(píng)估體系中,硬核擊敗了目前業(yè)界頂尖的PE-core G/14。要知道,PE 模型比 TIPSv2 多出了足足 56% 的參數(shù)量,并且喂給了高達(dá)47 倍的訓(xùn)練圖文對(duì)數(shù)據(jù)!TIPSv2 展現(xiàn)出的恐怖訓(xùn)練效率和參數(shù)榨取能力令人驚嘆。



?? 維度三:與 DINOv3 的巔峰對(duì)決

更引人注目的是它與近期開(kāi)源的 “最強(qiáng)純視覺(jué)基礎(chǔ)大模型” DINOv3 的正面交鋒:



DeepMind 團(tuán)隊(duì)在雙方共有的最大基準(zhǔn)尺寸(ViT-L)下進(jìn)行了絕對(duì)公平的對(duì)比。DINOv3 的教師模型參數(shù)量是 TIPSv2 的 6 倍之多,其使用的圖像數(shù)據(jù)總量更是 TIPSv2 的 15 倍。

最終戰(zhàn)績(jī):在 6 項(xiàng)高度重合的共享評(píng)估任務(wù)中,TIPSv2 贏下了其中的 4 項(xiàng)(包括極具挑戰(zhàn)性的零樣本分割核心任務(wù)),證明了圖文雙模態(tài)聯(lián)合約束優(yōu)于單一純視覺(jué)預(yù)訓(xùn)練。

4. 深度特征可視化:比清晰更清晰

除了硬核的量化指標(biāo)外,團(tuán)隊(duì)還通過(guò)主成分分析(PCA)對(duì)模型的特征圖(Feature Maps)進(jìn)行了直觀的視覺(jué)分析。相比于上一代 TIPS 和業(yè)界流行的 SigLIP2,TIPSv2 的特征圖展現(xiàn)出兩個(gè)極其顯著的碾壓級(jí)優(yōu)勢(shì):





1) 極致的表征平滑性:背景噪音被大幅度抑制,屬于同一物體的不同區(qū)域,其特征呈現(xiàn)高度且平滑的一致性。

2) 極強(qiáng)的語(yǔ)義聚焦能力:即便與同樣以特征平滑著稱的 DINOv3 相比,TIPSv2 對(duì)物體邊界輪廓的勾勒也要更加精準(zhǔn)和銳利;并且在區(qū)域內(nèi)部,TIPSv2 展現(xiàn)出了更豐富的 “顆粒度語(yǔ)義細(xì)節(jié)(Granular semantic details)”。這意味著 TIPSv2 不僅僅是 “看清” 了物體的輪廓邊緣,它已經(jīng)能夠在沒(méi)有人工標(biāo)注的情況下,深度 “理解” 物體的空間語(yǔ)義構(gòu)成。

5. 繁榮的開(kāi)源生態(tài)與工具鏈支持

秉承 Google DeepMind 推動(dòng)全球開(kāi)源 AI 社區(qū)發(fā)展的優(yōu)良傳統(tǒng),TIPSv2 本次的發(fā)布不僅技術(shù)硬核、誠(chéng)意滿滿,其配套生態(tài)也極其完善。

現(xiàn)已向社區(qū)全面開(kāi)源的資源包括:

  • 全矩陣模型權(quán)重:全面覆蓋 B/14 (86M), L/14 (303M), SO400m/14 (412M), g/14 (1.1B) 等不同尺寸。同時(shí)提供 PyTorch 與 Jax (Scenic) 兩種原生深度學(xué)習(xí)框架的適配版本。
  • DPT 預(yù)測(cè)頭(DPT Heads):為了讓工業(yè)界即插即用,團(tuán)隊(duì)額外開(kāi)源了基于 SO400m/14 骨干網(wǎng)的 DPT 網(wǎng)絡(luò)預(yù)測(cè)頭,直接支持高精度的深度估計(jì)(NYU Depth V2)、表面法線預(yù)測(cè)和語(yǔ)義分割(ADE20K)。
  • 保姆級(jí)代碼與 Demo:GitHub 倉(cāng)庫(kù)內(nèi)提供了詳盡的特征可視化、監(jiān)督 / 零樣本分割的 Colab Notebooks 實(shí)操代碼。

所有相關(guān)代碼、模型權(quán)重均遵循商業(yè)友好的Apache 2.0 開(kāi)源協(xié)議,無(wú)論是學(xué)術(shù)機(jī)構(gòu)探索前沿,還是工業(yè)界進(jìn)行商業(yè)落地,都極其便利。強(qiáng)烈建議感興趣的開(kāi)發(fā)者立即前往 HuggingFace 官方空間 上傳您自己的圖片,在線零門(mén)檻體驗(yàn) TIPSv2 在零樣本分割、深度與法線預(yù)測(cè)等任務(wù)上的震撼表現(xiàn)。

結(jié)語(yǔ)

TIPSv2 的橫空出世,絕不僅僅是多模態(tài)領(lǐng)域又一個(gè)簡(jiǎn)單的 “刷榜模型”。它深刻揭示了 “對(duì)比學(xué)習(xí)” 與 “自監(jiān)督學(xué)習(xí)” 在微觀 Patch 層面的底層化學(xué)反應(yīng)。通過(guò) iBOT++、Head-only EMA 與多粒度文本大模型的巧妙融合,DeepMind 為下一代具有 “極強(qiáng)空間感知能力” 的通用人工智能(AGI)指明了一條極具潛力的預(yù)訓(xùn)練破局之路。期待 TIPSv2 在海內(nèi)外開(kāi)發(fā)者的手中開(kāi)花結(jié)果,為計(jì)算機(jī)視覺(jué)的繁榮帶來(lái)更多可能!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
以色列前總理貝內(nèi)特:伊朗實(shí)質(zhì)上已經(jīng)向該地區(qū)再次宣戰(zhàn)

以色列前總理貝內(nèi)特:伊朗實(shí)質(zhì)上已經(jīng)向該地區(qū)再次宣戰(zhàn)

一種觀點(diǎn)
2026-05-05 19:24:58
1-2出局 35歲悲情巨星遺憾揮別!闖蕩17年 歐冠0冠 西甲0冠

1-2出局 35歲悲情巨星遺憾揮別!闖蕩17年 歐冠0冠 西甲0冠

葉青足球世界
2026-05-06 07:54:58
偉偉道來(lái) | 伊朗的反應(yīng)為何如此激烈

偉偉道來(lái) | 伊朗的反應(yīng)為何如此激烈

經(jīng)濟(jì)觀察報(bào)
2026-05-06 11:40:46
吳宜澤透露拿到獎(jiǎng)金后準(zhǔn)備在英國(guó)買(mǎi)房,50萬(wàn)英鎊獎(jiǎng)金需交稅超23萬(wàn)鎊,實(shí)際到手約26.5萬(wàn)鎊

吳宜澤透露拿到獎(jiǎng)金后準(zhǔn)備在英國(guó)買(mǎi)房,50萬(wàn)英鎊獎(jiǎng)金需交稅超23萬(wàn)鎊,實(shí)際到手約26.5萬(wàn)鎊

大風(fēng)新聞
2026-05-06 11:53:02
定了!斯諾克巨星邀請(qǐng)賽5月9日開(kāi)桿,吳宜澤領(lǐng)銜,6世界冠軍出戰(zhàn)

定了!斯諾克巨星邀請(qǐng)賽5月9日開(kāi)桿,吳宜澤領(lǐng)銜,6世界冠軍出戰(zhàn)

劉姚堯的文字城堡
2026-05-06 08:31:36
女性跑步:暴露這個(gè)隱私,是性感嗎?

女性跑步:暴露這個(gè)隱私,是性感嗎?

馬拉松跑步健身
2026-05-05 19:18:07
吳宜澤社媒回復(fù)趙心童、丁俊暉:一起加油,永遠(yuǎn)的大哥

吳宜澤社媒回復(fù)趙心童、丁俊暉:一起加油,永遠(yuǎn)的大哥

懂球帝
2026-05-05 19:39:09
在中國(guó)人民公安大學(xué),穿了四年警服,畢業(yè)五年后,我們宿舍四個(gè)人,沒(méi)一個(gè)在出現(xiàn)場(chǎng)

在中國(guó)人民公安大學(xué),穿了四年警服,畢業(yè)五年后,我們宿舍四個(gè)人,沒(méi)一個(gè)在出現(xiàn)場(chǎng)

侃故事的阿慶
2026-05-06 09:21:32
被延長(zhǎng)的搶救時(shí)間,被卡住的工傷認(rèn)定

被延長(zhǎng)的搶救時(shí)間,被卡住的工傷認(rèn)定

新京報(bào)
2026-05-06 11:03:07
51歲女子包養(yǎng)24歲男孩,嫌男孩不行被殺,2014年男孩說(shuō)她索取無(wú)度

51歲女子包養(yǎng)24歲男孩,嫌男孩不行被殺,2014年男孩說(shuō)她索取無(wú)度

漢史趣聞
2026-05-05 11:40:36
世錦賽慶功宴!新科冠軍吳宜澤休閑裝亮相 網(wǎng)友:艾倫不來(lái),誰(shuí)敢動(dòng)筷子

世錦賽慶功宴!新科冠軍吳宜澤休閑裝亮相 網(wǎng)友:艾倫不來(lái),誰(shuí)敢動(dòng)筷子

畫(huà)夕
2026-05-05 14:38:17
廣州第一爛尾樓 兩千家庭半生遺憾!

廣州第一爛尾樓 兩千家庭半生遺憾!

說(shuō)故事的阿襲
2026-05-05 20:20:30
8.84億的美國(guó)工廠說(shuō)關(guān)就關(guān)?曹德旺:美國(guó)不講理,我就不陪玩了

8.84億的美國(guó)工廠說(shuō)關(guān)就關(guān)?曹德旺:美國(guó)不講理,我就不陪玩了

番外行
2026-05-06 10:29:59
伯納烏大地震!皇馬放話出售姆巴佩,天價(jià)報(bào)價(jià)就接

伯納烏大地震!皇馬放話出售姆巴佩,天價(jià)報(bào)價(jià)就接

奶蓋熊本熊
2026-05-06 00:00:36
《陳翔六點(diǎn)半》人走茶涼,賺不到錢(qián)球球退出,根本原因早就注定了

《陳翔六點(diǎn)半》人走茶涼,賺不到錢(qián)球球退出,根本原因早就注定了

汪巗的創(chuàng)業(yè)之路
2026-05-06 12:26:17
47歲高圓圓在公園被抓拍,麒麟臂、涼拖鞋,活脫脫一個(gè)買(mǎi)菜大姐

47歲高圓圓在公園被抓拍,麒麟臂、涼拖鞋,活脫脫一個(gè)買(mǎi)菜大姐

胖松松與瘦二毛
2026-05-06 12:40:53
張亮兒子17歲當(dāng)?shù)耍。?>
    </a>
        <h3>
      <a href=八卦瘋叔
2026-05-06 11:04:32
連線四川華鎣女游客玩秋千身亡目擊者:其撞到瀑布凸出處大石

連線四川華鎣女游客玩秋千身亡目擊者:其撞到瀑布凸出處大石

南方都市報(bào)
2026-05-06 12:38:05
中美同時(shí)向全球下達(dá)禁令,各國(guó)都傻眼了!美媒:中國(guó)此舉史無(wú)前例

中美同時(shí)向全球下達(dá)禁令,各國(guó)都傻眼了!美媒:中國(guó)此舉史無(wú)前例

福建睿平
2026-05-06 08:56:38
男子和妻子的弟媳纏綿,怕妻子聽(tīng)到聲音,2017年弟媳竟被他捂死了

男子和妻子的弟媳纏綿,怕妻子聽(tīng)到聲音,2017年弟媳竟被他捂死了

漢史趣聞
2026-05-05 11:36:31
2026-05-06 14:55:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12925文章數(shù) 142643關(guān)注度
往期回顧 全部

科技要聞

“馬斯克不懂AI”:OpenAI當(dāng)庭戳老底

頭條要聞

男子購(gòu)百萬(wàn)保險(xiǎn)被邀免費(fèi)游老撾 花數(shù)十萬(wàn)買(mǎi)"熊膽"心虛

頭條要聞

男子購(gòu)百萬(wàn)保險(xiǎn)被邀免費(fèi)游老撾 花數(shù)十萬(wàn)買(mǎi)"熊膽"心虛

體育要聞

活塞1比0騎士:坎寧安不再是一個(gè)人了

娛樂(lè)要聞

神仙友誼!楊紫連續(xù)10年為張一山慶生

財(cái)經(jīng)要聞

人形機(jī)器人七小龍:誰(shuí)真能賣(mài) 誰(shuí)在講故事?

汽車(chē)要聞

領(lǐng)克10/領(lǐng)克10+ 無(wú)論能源形式 領(lǐng)克都要快樂(lè)

態(tài)度原創(chuàng)

教育
旅游
親子
手機(jī)
軍事航空

教育要聞

六條邏輯主線替代四個(gè)大概念,反映了怎樣的理念? | 高中課標(biāo)修訂解讀⑥

旅游要聞

龍江新觀察|“五一”文旅熱力十足 特色體驗(yàn)燃動(dòng)春日消費(fèi)

親子要聞

52歲王小騫做夢(mèng)也沒(méi)想到,患上矮小癥的女兒,如今竟然迎來(lái)了逆襲

手機(jī)要聞

谷歌推送5月Pixel手機(jī)更新,修復(fù)無(wú)線充電慢、相機(jī)卡死等問(wèn)題

軍事要聞

實(shí)施不到48小時(shí) 特朗普緊急喊停"霍爾木茲自由計(jì)劃"

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版