国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

不止于Prompt:揭秘「神經(jīng)網(wǎng)絡(luò)可重編程性」

0
分享至



從模型重編程(Model Reprogramming),到參數(shù)高效微調(diào)(PEFT),再到當(dāng)下大模型時代的 Prompt Tuning ,Prompt Instruction 和 In-context Learning,研究者和從業(yè)人員不斷地探索一個核心問題:在盡量不改動模型參數(shù)的前提下,如何最大化地復(fù)用預(yù)訓(xùn)練模型的能力?

過去幾年,這類方法在不同社區(qū)中以各自獨立的形式快速發(fā)展 —— 有的來自對抗魯棒性與遷移學(xué)習(xí),有的服務(wù)于下游任務(wù)適配,有的則成為大模型對齊與應(yīng)用的基礎(chǔ)工具。然而,這些看似分散的技術(shù)路線,背后是否存在一個更統(tǒng)一、更本質(zhì)的理論視角?

近期,來自墨爾本大學(xué)可信賴機(jī)器學(xué)習(xí)與推理(TMLR)研究小組和 IBM AI 研究所的研究者系統(tǒng)性地提出了「神經(jīng)網(wǎng)絡(luò)可重編程性(Neural Network Reprogrammability)」這一統(tǒng)一主題,在最近的一篇 survey 中,將模型重編程,Prompt Tuning、Prompt Instruction 和 In-context Learning 納入同一分析框架,從操縱位置、操縱類型、操縱算子和輸出對齊四個維度進(jìn)行了系統(tǒng)梳理與對比。同時,該團(tuán)隊也在AAAI 2026上帶來同名 Tutorial,幫助研究者與工程實踐者全面理解這一正在重塑模型使用范式的關(guān)鍵能力。



  • Tutorial 標(biāo)題:Neural Network Reprogrammability: A Unified Framework for Parameter-Efficient Foundation Model Adaptation
  • 論文標(biāo)題:Neural Network Reprogrammability: A Unified Theme on Model Reprogramming, Prompt Tuning, and Prompt Instruction
  • Arxiv: https://arxiv.org/pdf/2506.04650
  • GitHub: https://zyecs.github.io/awesome-reprogrammability/tutorial-AAAI26/

1. 模型訓(xùn)練范式的轉(zhuǎn)變

在本文中,我們認(rèn)為隨著預(yù)訓(xùn)練模型(pre-trained model)規(guī)模的增長,其適配下游任務(wù)(downstream tasks)的范式已經(jīng)發(fā)生了根本性轉(zhuǎn)變:從傳統(tǒng)的基于模型參數(shù)調(diào)整的適配(圖 1a)轉(zhuǎn)變?yōu)榱嘶谀P涂芍鼐幊绦缘倪m配(圖 1b)。



傳統(tǒng)適配技術(shù)(parameter-centric adaptation, PCA)通過重新訓(xùn)練預(yù)訓(xùn)練模型,修改模型內(nèi)部參數(shù),使其適用于新的下游任務(wù)。例如,將 ImageNet 預(yù)訓(xùn)練的圖像分類器應(yīng)用于貓狗分類任務(wù)時,需要至少改變分類頭,甚至重新訓(xùn)練其他層的參數(shù),即我們通常所說的 fine-tuning,本質(zhì)上改變了模型學(xué)習(xí)到的內(nèi)部表征(representation),并需要為每個下游任務(wù)維護(hù)一份新的參數(shù)拷貝。

新興適配技術(shù)(基于模型可重編程性的適配,reprogrammability-centric adaptation, RCA)則采用了一種不同的理念:保持模型參數(shù)凍結(jié),轉(zhuǎn)而策略性地修改任務(wù)呈現(xiàn)的方式,通過精心設(shè)計下游任務(wù)的輸入變換(包括模型輸入(input)、提示(prompt)或上下文信息(context)),以及模型輸出對齊方式(output)來使其兼容下游任務(wù),使用極少量可訓(xùn)練參數(shù)(甚至完全不引入新參數(shù)),在不觸及模型權(quán)重的情況下「重編程」預(yù)訓(xùn)練模型的行為。

核心轉(zhuǎn)變體現(xiàn)在理念上的轉(zhuǎn)換:從「修改模型以適應(yīng)任務(wù)」轉(zhuǎn)向「修改任務(wù)以適應(yīng)模型」,從而使我們能以最小的計算開銷在不同任務(wù)中重復(fù)使用預(yù)訓(xùn)練模型,同時保持其原有能力。同一個凍結(jié)的模型僅通過改變與其「對話」的方式,就能處理多種不同的任務(wù)。

2. 可重編程性范式的效率優(yōu)勢

具體實驗數(shù)據(jù)表明(圖 2),相較 PCA,RCA 在參數(shù)效率上有明顯優(yōu)勢。將 ImageNet 預(yù)訓(xùn)練的視覺 Transformer(ViT-B/32)適配到遙感圖像分類任務(wù)(EuroSAT)。柱狀圖顯示不同 fine-tune 策略的參數(shù)需求:從左到右分別對應(yīng) fully fine-tune 到逐步減少可訓(xùn)練層數(shù)的各種配置,訓(xùn)練參數(shù)量隨之下降。但即便是最輕量的 PCA 方案仍需要大量參數(shù)。

形成對比的是,紅色虛線顯示 RCA 需要的訓(xùn)練參數(shù)始終比任何 PCA 配置少 2-3 個數(shù)量級。這些參數(shù)用于輸入變換和輸出對齊,而不是修改預(yù)訓(xùn)練模型的內(nèi)部權(quán)重。



這表明,在可以實現(xiàn) comparable performance 前提下,RCA 的參數(shù)效率更高,使得在資源受限環(huán)境中適配大模型成為可能,并支持同時適配多個任務(wù)而不會出現(xiàn)災(zāi)難性遺忘。在預(yù)訓(xùn)練模型規(guī)模與能力不斷提升、獲取方式日趨不透明(如商業(yè)模型僅提供 API 接口)的背景下,RCA 的優(yōu)勢愈發(fā)突出。

3. 可重編程性范式的「多種稱謂」

然而,我們發(fā)現(xiàn)相似甚至相同的模型適配方法在不同研究社區(qū)卻有著截然不同的命名:NLP 社區(qū)常稱之為「prompt tuning」,而 ML 文獻(xiàn)中研究者更傾向于使用 「model reprogramming」指代這類方法。經(jīng)驗上,這種術(shù)語混亂也經(jīng)常引發(fā) 「哪種方法更優(yōu)」、「為何不比較其他方法」等爭論。

核心問題在于:prompt tuning,model reprogramming,甚至 in-context learning 真的代表不同的模型適配方法嗎?答案是否定的。盡管表現(xiàn)形式各異,這些方法實質(zhì)上都利用了神經(jīng)網(wǎng)絡(luò)的同一固有屬性 -- neural network reprogrammability (神經(jīng)網(wǎng)絡(luò)可重編程性,圖 3)。基于這一認(rèn)識,我們提出統(tǒng)一框架來連接三個獨立發(fā)展的研究領(lǐng)域,并系統(tǒng)性地描述和歸類這些適配方法。



關(guān)鍵點 1. 可重編程性的普適性。

它具備架構(gòu)無關(guān)性和模態(tài)無關(guān)性,跨越三個核心維度:適配方法,預(yù)訓(xùn)練模型架構(gòu)(單模態(tài)類型、多模態(tài)模型、專門架構(gòu)),以及數(shù)據(jù)類型(圖像、文本、音頻、圖結(jié)構(gòu)等) -- 無論具體實現(xiàn)細(xì)節(jié)如何,圍繞模型接口的信息操作(information manipulation at model’s interfaces)這一共同的底層原理,我們都能將任意預(yù)訓(xùn)練模型適配到任意下游任務(wù)。

4. 可重編程性范式的首次提出(ICLR 2019)

那么什么是 reprogrammability 呢?下面這張圖片展示了從神經(jīng)網(wǎng)絡(luò)對于對抗樣本的脆弱性(sensitivity to adversarial examples)向可重編程性(reprogrammability)的演進(jìn)。圖片來自文章《Adversarial reprogramming of neural networks》由 G. F. Elsayed, I. Goodfellow, and J. Sohl-Dickstein. 發(fā)表于 ICLR 2019.



左側(cè)(傳統(tǒng)對抗樣本 adversarial example):展示了經(jīng)典對抗攻擊,在熊貓圖像上添加不可察覺的噪聲,就能使 ImageNet 分類器將其錯分為長臂猿,置信度高達(dá) 99.3%,盡管圖像在人眼看來沒有變化。

右側(cè)(對抗重編程 adversarial reprogramming):展示了如何將這種脆弱性轉(zhuǎn)化為建設(shè)性用途。我們不僅欺騙模型,同時將其「重編程」以執(zhí)行完全不同的任務(wù):

  • (a)展示了一個黑白格圖像的計數(shù)任務(wù),我們可以人為將不同的動物類別映射到方塊數(shù)量類別(1-10 個方塊)
  • (b)展示了「對抗程序」(adversarial program) -- 精心設(shè)計的噪聲,充當(dāng)指導(dǎo)模型行為的指令(可以理解為 prompt)
  • (c)將(a)和(b)結(jié)合后,僅在 object recognition 任務(wù)上預(yù)訓(xùn)練的 ImageNet 分類器被「重編程」以執(zhí)行方格計數(shù)任務(wù),可以輸出「4 個方格」的預(yù)測結(jié)果(從源域的「虎鯊」類映射得到)

關(guān)鍵點 2. 巧妙利用神經(jīng)網(wǎng)絡(luò)的敏感性。

由對抗樣本發(fā)現(xiàn)的神經(jīng)網(wǎng)絡(luò)敏感性(理論背景包括決策邊界的不連續(xù)性等),正是可重編程性的基礎(chǔ)。我們不再將這種敏感性僅視為安全缺陷,而是建設(shè)性地利用它,在不重新訓(xùn)練的情況下將預(yù)訓(xùn)練模型重定向到新的任務(wù)。精心設(shè)計的 program/prompt 可以將神經(jīng)網(wǎng)絡(luò)感知的弱點轉(zhuǎn)化為高效的適配機(jī)制。



5. 可重編程性范式的數(shù)學(xué)表達(dá)

如上,我們給出 neural network reprogrammability 統(tǒng)一框架的定義,涵蓋了文章中討論的各類模型適配方法。定義如下:







6. 可重編程性范式的具體案例

以視覺 - 語言模型(Vision-Language Model)為例,說明三種可重編程方法在實現(xiàn)上的差異(如圖 4 所示)。

  • (4a) model reprogramming (MR):主要在模型原始輸入層操作?蓪W(xué)習(xí)的擾動直接添加到輸入圖像上。模型通過圖像和文本編碼器處理這些修改后的輸入,需要輸出對齊將模型的原始預(yù)測映射到新的目標(biāo)任務(wù)。這種方法適用于可訪問模型的輸入和輸出,但對內(nèi)部模型組件控制有限的情況。
  • (4b) prompt tuning (PT):主要在中間表示層操作?蓪W(xué)習(xí)的 tokens 或嵌入(embedding)被插入到模型的內(nèi)部層(包括圖像編碼器和文本編碼器)。這些「軟提示」可以在嵌入層(embedding layer)或隱藏層(hidden layers)進(jìn)行前置或插值,在保持核心參數(shù)凍結(jié)的同時允許對模型內(nèi)部處理進(jìn)行更直接的控制。
  • (4c) prompt instruction (PI):通過上下文演示(contextual demonstration)操作。該方法不使用可學(xué)習(xí)參數(shù),而是提供多個示例圖像和明確的文本指令來引導(dǎo)模型行為。模型從提供的演示中「上下文」學(xué)習(xí)任務(wù),無需任何參數(shù)更新。該方法的有效性主要在 LLMs 和 large vision-language model/multi-modal LLMs 上可觀察到。
  • 操作位置:輸入空間 (MR) → 嵌入 / 隱藏空間 (PT) → 輸入空間 (PI)
  • 參數(shù)需求:可學(xué)習(xí)擾動 (MR) → 可學(xué)習(xí) tokens(PT) → 無新參數(shù) (PI)
  • 訪問要求:輸入訪問 (MR) → 白盒訪問 (PT) → API 級訪問 (PI)

本質(zhì)上,三種方法都實現(xiàn)了相同目標(biāo) -- 將凍結(jié)模型重新用于新任務(wù) -- 通過計算圖中的不同路徑實現(xiàn)。



Neural network reprogrammability 如何在不同模態(tài)和任務(wù)中具體實現(xiàn)呢?

(a) model reprogramming for 圖像分類任務(wù)(圖 5a):

  • 輸入操縱:目標(biāo)圖像經(jīng)過調(diào)整大小并與可學(xué)習(xí)擾動模式 λ 結(jié)合。這將目標(biāo)任務(wù)輸入轉(zhuǎn)換為預(yù)訓(xùn)練分類器可處理的格式。
  • 預(yù)訓(xùn)練模型:凍結(jié)的圖像分類器 (如 ResNet, ViT) 處理操縱后的輸入。
  • 輸出對齊:將分類器的原始類別預(yù)測轉(zhuǎn)換到目標(biāo)任務(wù)的標(biāo)簽空間(不同類別,可能不同數(shù)量的類別)。即實現(xiàn)了 Label Mapping 步驟,不需要額外的訓(xùn)練參數(shù)。
  • 訓(xùn)練:僅通過反向傳播優(yōu)化擾動參數(shù) λ,模型權(quán)重保持凍結(jié)。

(b) prompt tuning for 文本生成任務(wù)(圖 5b):

  • 輸入操縱:可學(xué)習(xí)的 prompt tokens λ 通過拼接操作前置到目標(biāo)文本輸入。
  • 預(yù)訓(xùn)練模型:凍結(jié)的 language generator(如 GPT)處理提示增強(qiáng)的輸入。
  • 輸出對齊:因為模型已經(jīng)在目標(biāo)文本空間輸出,無需額外轉(zhuǎn)換。
  • 訓(xùn)練:僅優(yōu)化提示參數(shù) λ,保持生成器完全凍結(jié)。



關(guān)鍵點 3. 數(shù)學(xué)框架下的一致性。

盡管操縱不同模態(tài)(視覺 vs 語言)、任務(wù)類型(分類 vs 生成)并使用不同的輸入操縱策略(加性擾動 vs 連接提示),兩種方法都遵循完全相同的數(shù)學(xué)框架。

7. 基于可重編程性范式,歸納現(xiàn)有方法

基于這個特性,我們進(jìn)一步提出了一個分類法(taxonomy),將過往的研究工作組織為跨四個維度的連貫結(jié)構(gòu),并展示了 neural network reprogrammability 這一框架的泛用性。

  • 操縱位置:定義輸入操縱發(fā)生在預(yù)訓(xùn)練模型的哪個接口,包括原始輸入空間(input space),嵌入空間(embedding space),以及隱藏空間(hidden space)
  • 操縱類型:定義輸入操縱的類型,分為可優(yōu)化(learnable)和固定(fixed)
  • 操縱算子:定義輸入操縱如何被應(yīng)用到目標(biāo)數(shù)據(jù)(target input)上,包括加性(additive)、拼接(concatenative)、參數(shù)化(parametric)算子
  • 輸出對齊:定義是否模型輸出需要進(jìn)行額外操作以對齊目標(biāo)任務(wù)(target output),包括恒等映射 (identity mapping)、結(jié)構(gòu)變換(structural alignment)、統(tǒng)計變換(statistical alignment)、線性變換(linear alignment)

對應(yīng)地,MR,PT 和 PI 對應(yīng)的研究方法可以被系統(tǒng)歸類,如表格 2 所示。



8. 如何用可重編程性范式來理解 In-context learning 和 Chain-of-Thought Reasoning



特別地,LLM 的上下文學(xué)習(xí) in-context learning (ICL) 在該框架下可以描述為

  • 固定輸入操縱:無訓(xùn)練參數(shù),依賴人為設(shè)計的 demonstration examples
  • 原始輸入空間操縱:demonstration example 直接與模型的 text query 拼接
  • 拼接操縱算子:demonstration example 通過拼接操作
  • 隱式輸出對齊:無需額外顯式映射,預(yù)訓(xùn)練模型直接生成目標(biāo)輸出或依靠模型自身能力對輸出進(jìn)行基于規(guī)則的格式、結(jié)構(gòu)調(diào)整(見下圖示例,ChatGPT 可以直接對模型輸出的 natural language 進(jìn)行格式限制,e.g., bullet list, LaTeX)



因此,模型通過這些示例在「上下文」中學(xué)習(xí)目標(biāo)任務(wù)的模式,且無需任何參數(shù)更新。Demonstration examples 本質(zhì)上是一種輸入操縱,通過策略性構(gòu)造輸入,從而重編程模型行為。



對應(yīng)地,思維鏈推理(Chain-of-Thought Reasoning)可被認(rèn)為是一種通過融入結(jié)構(gòu)化、與輸入樣本特定相關(guān)的(sample-specific)「推理形式」的輸入操縱。

  • 輸入操縱:具備增強(qiáng)的上下文信息,不僅包含輸入 - 輸出對,還包含明確的中間推理步驟。例如,解決數(shù)學(xué)問題時,CoT 會包含「問題 -> 第一步計算 -> 第二步計算 ->…-> 最終步驟」的完整推理過程。另外,每個目標(biāo)輸入 query 都會觸發(fā)模型生成與該具體 query 匹配的推理鏈。比如解決「23×47=?」時,模型會生成針對這兩個具體數(shù)字的逐步計算過程,而不僅是通用的乘法公式。
  • 輸出對齊:由于模型輸出完整的推理序列(「首先計算 23×40=920,然后計算 23×7=161,最后 920+161=1081」),因此需要結(jié)構(gòu)化、基于規(guī)則的解析機(jī)制(structural alignment)從這個推理文本中提取最終數(shù)值答案。

9. 資源分享:Awesome Neural Network Reprogrammability 資源庫

為了方便社區(qū)追蹤這一飛速發(fā)展的領(lǐng)域的最新進(jìn)展,我們維護(hù)了一個 Awesome 風(fēng)格的資源庫,收錄并持續(xù)更新 Neural Network Reprogrammability 領(lǐng)域的最新論文和代碼實現(xiàn)。希望這個資源庫能讓你少走彎路!

  • GitHub: https://zyecs.github.io/awesome-reprogrammability/

如果你正在做相關(guān)方向,歡迎在 GitHub 上 star 支持,或者來倉庫一起補(bǔ)全與更新!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
突然暴跌!北京降了!價格再次大跳水!

突然暴跌!北京降了!價格再次大跳水!

美麗大北京
2026-01-26 11:59:12
“家里東西被移動過!”女子查看路由器記錄發(fā)現(xiàn)……真相令人毛骨悚然!

“家里東西被移動過!”女子查看路由器記錄發(fā)現(xiàn)……真相令人毛骨悚然!

深圳晚報
2026-01-26 12:16:04
無人機(jī)吊豬下山掛電線上致村莊停電10小時,知情人:本有十余頭,第一頭就掛上了

無人機(jī)吊豬下山掛電線上致村莊停電10小時,知情人:本有十余頭,第一頭就掛上了

瀟湘晨報
2026-01-25 11:50:16
團(tuán)長決意與敵人同歸于盡,十七歲號兵高聲呼喊:讓我指揮!日后竟成開國少將

團(tuán)長決意與敵人同歸于盡,十七歲號兵高聲呼喊:讓我指揮!日后竟成開國少將

老杉說歷史
2026-01-25 21:26:16
新華社記者直擊伊朗最新局勢

新華社記者直擊伊朗最新局勢

新華社
2026-01-24 17:45:55
父死女償!一銀行放貸30萬,獨生女破釜沉舟,徹底給銀行整不會了

父死女償!一銀行放貸30萬,獨生女破釜沉舟,徹底給銀行整不會了

火山詩話
2026-01-25 12:21:40
委內(nèi)瑞拉代總統(tǒng):我“受夠了”來自華盛頓的命令

委內(nèi)瑞拉代總統(tǒng):我“受夠了”來自華盛頓的命令

揚(yáng)子晚報
2026-01-26 12:40:21
A股:今天,放量并未大漲,跡象已明確,做好準(zhǔn)備,很可能這樣走

A股:今天,放量并未大漲,跡象已明確,做好準(zhǔn)備,很可能這樣走

丁丁鯉史紀(jì)
2026-01-26 12:16:17
“戲混子”沒走,比資本家丑孩子更可怕的是“星二代”開始世襲了

“戲混子”沒走,比資本家丑孩子更可怕的是“星二代”開始世襲了

流史歲月
2026-01-26 10:58:30
致死率最高達(dá)75%!印度尼帕病毒疫情多名醫(yī)護(hù)中招:可通過飛沫傳播,感染源或是患者

致死率最高達(dá)75%!印度尼帕病毒疫情多名醫(yī)護(hù)中招:可通過飛沫傳播,感染源或是患者

紅星新聞
2026-01-26 11:29:16
當(dāng)當(dāng)網(wǎng)一公司因員工超長加班被罰款:27名員工違反規(guī)定延長勞動者工作時間,人均月延長工時為149.39小時

當(dāng)當(dāng)網(wǎng)一公司因員工超長加班被罰款:27名員工違反規(guī)定延長勞動者工作時間,人均月延長工時為149.39小時

揚(yáng)子晚報
2026-01-26 12:31:32
徒手獨攀臺北101,是人類對AI模擬一切的最有力反擊

徒手獨攀臺北101,是人類對AI模擬一切的最有力反擊

不懂經(jīng)1人獨角獸
2026-01-25 22:38:44
大冷!雷霆惜敗猛龍無緣追平宇宙勇73勝 亞歷山大24+6奎克利23+11

大冷!雷霆惜敗猛龍無緣追平宇宙勇73勝 亞歷山大24+6奎克利23+11

醉臥浮生
2026-01-26 10:34:52
美國正式退出世界衛(wèi)生組織,外交部回應(yīng)

美國正式退出世界衛(wèi)生組織,外交部回應(yīng)

環(huán)球網(wǎng)資訊
2026-01-26 15:43:50
江蘇一市紀(jì)委監(jiān)委通報:徐永華被查,涉嫌嚴(yán)重違法

江蘇一市紀(jì)委監(jiān)委通報:徐永華被查,涉嫌嚴(yán)重違法

中國能源網(wǎng)
2026-01-26 15:07:13
美國移民執(zhí)法行動導(dǎo)致2名美公民死亡后,克林頓、奧巴馬發(fā)聲

美國移民執(zhí)法行動導(dǎo)致2名美公民死亡后,克林頓、奧巴馬發(fā)聲

環(huán)球網(wǎng)資訊
2026-01-26 09:51:41
女明星被實名舉報“插足婚姻”!

女明星被實名舉報“插足婚姻”!

新動察
2026-01-26 10:45:00
收評:創(chuàng)業(yè)板指高開低走跌近1% 貴金屬、油氣概念逆勢爆發(fā)

收評:創(chuàng)業(yè)板指高開低走跌近1% 貴金屬、油氣概念逆勢爆發(fā)

財聯(lián)社
2026-01-26 15:04:21
取消中考選拔功能、普通高中全員直升,浙江嵊泗教改細(xì)節(jié)披露

取消中考選拔功能、普通高中全員直升,浙江嵊泗教改細(xì)節(jié)披露

澎湃新聞
2026-01-25 19:33:20
外媒:伊朗最高領(lǐng)袖哈梅內(nèi)伊轉(zhuǎn)入地堡,日常事務(wù)已交由兒子接管

外媒:伊朗最高領(lǐng)袖哈梅內(nèi)伊轉(zhuǎn)入地堡,日常事務(wù)已交由兒子接管

極目新聞
2026-01-26 13:47:08
2026-01-26 16:03:00
機(jī)器之心Pro incentive-icons
機(jī)器之心Pro
專業(yè)的人工智能媒體
12192文章數(shù) 142549關(guān)注度
往期回顧 全部

科技要聞

印奇再上牌桌,階躍融資50億

頭條要聞

高市早苗:若執(zhí)政黨陣營在選舉中未過半數(shù) 將即刻辭職

頭條要聞

高市早苗:若執(zhí)政黨陣營在選舉中未過半數(shù) 將即刻辭職

體育要聞

叛逆的大公子,要砸了貝克漢姆這塊招牌

娛樂要聞

張雨綺被實名舉報代孕、插足婚姻

財經(jīng)要聞

從美式斬殺線看中國社會的制度韌性構(gòu)建

汽車要聞

賓利第四臺Batur敞篷版發(fā)布 解鎖四項定制創(chuàng)新

態(tài)度原創(chuàng)

手機(jī)
游戲
藝術(shù)
親子
健康

手機(jī)要聞

消息稱小米REDMI Turbo 5 Max手機(jī)配糧系今年上半年的最大電池

《輪回之獸》驚艷?GF談性能表現(xiàn):心意比幀數(shù)更重要

藝術(shù)要聞

溥心畬的花鳥,淡雅清新

親子要聞

你們聽,287天,9個多月的昂薩梅朵是開口喊爸爸媽媽嗎?

耳石脫落為何讓人天旋地轉(zhuǎn)+惡心?

無障礙瀏覽 進(jìn)入關(guān)懷版