国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

字節(jié)跳動和北大聯(lián)合推出革命性"原地測試訓練"技術(shù)

0
分享至

這項由字節(jié)跳動種子團隊和北京大學聯(lián)合開展的研究發(fā)表于2026年4月,論文編號為arXiv:2604.06169v1,為大語言模型的動態(tài)適應(yīng)能力帶來了重大突破。

目前的大語言模型就像是一個博學的學者,在接受了海量知識的訓練后就被"凍結(jié)"了——無論遇到什么新情況,它都只能依靠之前學到的知識來應(yīng)對,無法根據(jù)當前的具體情境進行調(diào)整和學習。這就好比一個廚師,無論面對什么樣的食材和顧客需求,都只能按照預先背好的菜譜來做菜,無法根據(jù)實際情況靈活調(diào)整。


研究團隊針對這個問題提出了一種全新的解決方案——原地測試時間訓練(In-Place Test-Time Training),這是首次讓大語言模型能夠在實際使用過程中動態(tài)地調(diào)整自己的參數(shù),就像讓那個廚師能夠在烹飪過程中根據(jù)食材的實際狀態(tài)和顧客的反饋來調(diào)整菜譜一樣。

一、突破傳統(tǒng)限制的核心創(chuàng)新

傳統(tǒng)的大語言模型采用"訓練完成后部署"的固定模式。這種模式的問題在于,一旦模型訓練完成并投入使用,它的內(nèi)部參數(shù)就完全固定了,無法根據(jù)新的輸入信息進行調(diào)整。就像一個圖書管理員,無論讀者問什么問題,他都只能在已有的固定目錄中查找,無法根據(jù)讀者的具體需求來重新整理或擴充目錄。

測試時間訓練(TTT)技術(shù)的出現(xiàn)為這個問題提供了新的思路。這項技術(shù)允許模型在處理新輸入時動態(tài)更新一小部分參數(shù)(稱為"快速權(quán)重"),這些權(quán)重就像是模型的"臨時記憶",能夠快速存儲和利用當前情境的信息。然而,現(xiàn)有的TTT技術(shù)在應(yīng)用到大語言模型時面臨三個關(guān)鍵障礙。

首先是架構(gòu)兼容性問題?,F(xiàn)有的TTT方法通常需要在標準的Transformer架構(gòu)之外添加專門的層結(jié)構(gòu),這意味著要想使用TTT技術(shù),就必須從零開始重新訓練模型,這對于參數(shù)量達到數(shù)十億甚至數(shù)千億的大語言模型來說成本極其昂貴。這就像要給一棟已經(jīng)建好的摩天大樓加裝電梯,需要拆掉重建一樣困難。

其次是計算效率問題。傳統(tǒng)的TTT機制需要對每個輸入標記(token)都進行一次參數(shù)更新,這種逐個處理的方式嚴重制約了現(xiàn)代并行計算設(shè)備(如GPU和TPU)的效率。這就像在流水線上,每處理一個零件都要停下來調(diào)整整條生產(chǎn)線,顯然無法發(fā)揮現(xiàn)代工廠的生產(chǎn)效率。

第三個問題是學習目標不匹配?,F(xiàn)有的TTT方法通常使用通用的重構(gòu)目標來更新快速權(quán)重,簡單來說就是讓模型學會"記住"當前的輸入。但這種目標與大語言模型的核心任務(wù)——預測下一個詞語——并不完全吻合。這就像訓練一個翻譯員時,不是讓他練習翻譯,而是讓他練習復述,雖然有一定幫助,但并非最佳的訓練方式。

二、巧妙的"就地改造"解決方案

面對這些挑戰(zhàn),研究團隊提出了一個巧妙的解決方案:原地測試時間訓練。這個方法的核心思想是不添加新的結(jié)構(gòu),而是重新利用模型中已有的組件。

在標準的Transformer模型中,多層感知機(MLP)塊是一個關(guān)鍵組件,它可以被看作是模型的"知識庫"。研究團隊發(fā)現(xiàn),這些MLP塊本身就具有類似鍵值存儲器的功能,能夠存儲和檢索信息。因此,他們提出將MLP塊中的最終投影矩陣作為可調(diào)整的"快速權(quán)重",在推理過程中對其進行就地更新。

這種設(shè)計的巧妙之處在于,它完全不改變模型的整體架構(gòu)。就像在原有的圖書館中設(shè)置一個臨時閱覽區(qū),圖書管理員可以根據(jù)當前讀者的需求臨時調(diào)整這個區(qū)域的布局和資源配置,而不需要改建整個圖書館。這樣既保持了原有系統(tǒng)的完整性,又增加了靈活性。

具體來說,在處理輸入序列時,模型會將輸入分成若干個塊(chunks),每個塊包含一定數(shù)量的標記。對于每個塊,模型首先使用當前的快速權(quán)重來處理輸入,然后根據(jù)處理結(jié)果更新這些權(quán)重,為下一個塊的處理做準備。這種塊級更新的方式既保證了因果性(即模型不會"預知"未來的信息),又大大提高了計算效率,能夠充分利用現(xiàn)代并行計算設(shè)備的能力。

三、專門定制的學習目標

除了架構(gòu)上的創(chuàng)新,研究團隊還針對大語言模型的特點設(shè)計了專門的學習目標。傳統(tǒng)的TTT方法通常讓模型學習重構(gòu)當前的輸入,但這對于以預測下一個詞為核心任務(wù)的語言模型來說并非最優(yōu)選擇。

研究團隊提出了一個與下一詞預測(Next-Token Prediction)任務(wù)直接對齊的學習目標。簡單來說,就是讓快速權(quán)重不僅僅記住當前的信息,更要學會預測接下來可能出現(xiàn)的內(nèi)容。這就像訓練一個棋手,不是讓他記住當前的棋局,而是讓他學會預判下幾步的走法。

為了實現(xiàn)這個目標,研究團隊使用了一維卷積操作和可訓練的投影矩陣來生成包含未來信息的目標。這聽起來很復雜,但可以用一個簡單的比喻來理解:就像給模型配備了一個"預知鏡",讓它能夠窺見一點點未來的信息,從而更好地調(diào)整自己的行為。

研究團隊還從理論角度證明了這種學習目標的優(yōu)越性。他們以"歸納頭"機制為例進行了分析——這是一種在上下文學習中至關(guān)重要的機制,類似于模式識別。分析結(jié)果顯示,使用對齊的學習目標能夠顯著提高模型對正確答案的預測概率,同時保持對其他選項的預測基本不變。相比之下,傳統(tǒng)的重構(gòu)目標對提高預測準確性的幫助微乎其微。

四、高效的并行實現(xiàn)

為了讓這項技術(shù)在實際應(yīng)用中可行,研究團隊還開發(fā)了一套高效的并行實現(xiàn)方案。這個方案的核心是利用快速權(quán)重更新規(guī)則的結(jié)合性質(zhì),通過并行掃描算法同時處理多個序列塊,同時保持嚴格的因果語義。

這種實現(xiàn)方式就像是在裝配線上實現(xiàn)了真正的并行作業(yè):多個工人可以同時處理不同的零件,但每個零件的處理都嚴格按照正確的順序進行,最終組裝出的產(chǎn)品完全符合設(shè)計要求。這種設(shè)計使得原地測試時間訓練能夠充分利用現(xiàn)代加速器的并行計算能力,同時確保模型的推理過程在數(shù)學上等同于嚴格的順序處理。

在處理文檔邊界時,系統(tǒng)會自動將快速權(quán)重重置為預訓練狀態(tài),防止不同文檔之間的信息泄露。這就像在處理不同項目時清理工作臺一樣,確保每個項目都從清潔的狀態(tài)開始。

五、令人印象深刻的實驗結(jié)果

研究團隊通過一系列全面的實驗驗證了原地測試時間訓練的有效性。這些實驗可以分為三個主要類別:作為預訓練模型的即插即用增強、從零開始的訓練比較,以及關(guān)鍵設(shè)計選擇的消融研究。

在即插即用增強實驗中,研究團隊選擇了Qwen3-4B-Base模型作為基礎(chǔ),這是一個在32k上下文窗口上訓練的競爭力模型。他們設(shè)計了一個兩階段的持續(xù)訓練課程:第一階段使用約200億個標記和32k上下文長度,第二階段使用約150億個標記和128k上下文長度。為了有效管理這些長序列,他們還采用了YaRN技術(shù)來調(diào)整模型的旋轉(zhuǎn)位置嵌入。

實驗結(jié)果令人矚目。在RULER基準測試中,增強了原地測試時間訓練的Qwen3-4B模型在長上下文任務(wù)中表現(xiàn)出色。隨著序列長度的增加,這種優(yōu)勢變得越來越明顯。特別是在64k和128k上下文長度下,增強模型取得了substantial gains。更令人印象深刻的是,這種優(yōu)勢在外推到256k上下文時得到了保持,展現(xiàn)出了卓越的泛化能力。

為了驗證方法的普遍適用性,研究團隊還將原地測試時間訓練應(yīng)用于另外兩個模型:LLaMA-3.1-8B和Qwen3-14B-Base。結(jié)果顯示,這種技術(shù)在所有上下文長度上都持續(xù)改善了RULER分數(shù),特別是在較長的上下文中改善更為顯著。這證明了原地測試時間訓練作為預訓練大語言模型的廣泛適用的即插即用增強技術(shù)的有效性。

在從零開始訓練的比較實驗中,研究團隊將原地測試時間訓練與其他相關(guān)方法進行了對比。他們首先在500M和1.5B參數(shù)規(guī)模上建立了語言建模能力基準,然后評估了其在更大4B模型上的可擴展性和影響。

比較的方法包括標準Transformer配合滑動窗口注意力、門控線性注意力、DeltaNet和大塊測試時間訓練等。所有模型都在32k上下文長度的序列上進行訓練。結(jié)果顯示,原地測試時間訓練在所有參數(shù)規(guī)模上都持續(xù)優(yōu)于競爭基線,其性能隨著完整32k上下文的使用而穩(wěn)步提升。

在4B參數(shù)規(guī)模的實驗中,研究團隊評估了配備全注意力和滑動窗口注意力的Transformer模型,并與它們的原地測試時間訓練增強版本進行了比較。這些模型接受了1200億標記的訓練,上下文長度為8k。實驗結(jié)果表明,原地測試時間訓練在大多數(shù)常識推理任務(wù)中持續(xù)改善了這兩種Transformer變體的性能,并在長上下文評估中產(chǎn)生了卓越的表現(xiàn)。

六、深入的設(shè)計選擇分析

為了更好地理解原地測試時間訓練的工作機制,研究團隊還進行了詳細的消融研究,分析了關(guān)鍵設(shè)計選擇的影響。

關(guān)于狀態(tài)大小的影響,研究結(jié)果顯示,原地測試時間訓練的性能隨著快速權(quán)重大小的增加而持續(xù)改善。這可以通過改變啟用TTT的層數(shù)來控制。結(jié)果表明,更大的快速權(quán)重允許模型更有效地適應(yīng)上下文信息,這進一步支持了他們利用MLP狀態(tài)大量的重新利用方法。

在塊大小的分析中,研究團隊發(fā)現(xiàn)塊大小在效率和性能之間存在權(quán)衡。通過改變塊大小,他們發(fā)現(xiàn)512和1024的塊大小都能取得競爭性的較好性能,而1024在效率方面表現(xiàn)更好。這個發(fā)現(xiàn)很重要,因為它表明原地測試時間訓練自然適合塊級更新,特別是大塊更新,這與他們的理論預期一致。

對于語言模型對齊目標的深入分析,研究團隊剖析了他們定制的學習目標中的各個組件。目標定義為使用1D卷積操作和投影變換生成包含未來標記信息的目標。分析結(jié)果表明,這兩個組件都是性能保證所必需的,其中1D卷積在長上下文中起著關(guān)鍵作用,而投影變換在短上下文中至關(guān)重要。這些結(jié)果與他們在理論分析中的發(fā)現(xiàn)一致,強烈支持了為語言建模導出定制目標的動機。

研究團隊還評估了原地測試時間訓練引入的計算開銷。他們比較了使用和不使用原地測試時間訓練的預填充吞吐量和內(nèi)存消耗。結(jié)果驗證了他們實際實現(xiàn)的效率,在實際場景中引入的開銷可以忽略不計。

七、技術(shù)實現(xiàn)的精妙細節(jié)

原地測試時間訓練的實現(xiàn)包含了許多精心設(shè)計的技術(shù)細節(jié)。為了確保更新增量不包含未來信息,系統(tǒng)在生成值時對1D卷積應(yīng)用因果填充。這將每個增量計算隔離到其各自的塊中,使并行掃描在數(shù)學上等同于順序更新。

在文檔邊界處,快速權(quán)重被重置為其預訓練狀態(tài),以防止獨立序列之間的上下文泄漏。最終的上下文并行算法在附錄中有詳細描述,展示了如何在保持嚴格因果語義的同時實現(xiàn)高效的并行處理。

當將原地測試時間訓練集成到預訓練模型中進行持續(xù)訓練時,仔細的初始化對于保持模型的預訓練能力至關(guān)重要。研究團隊將新引入的TTT組件(1D卷積算子和投影矩陣)進行了特殊初始化,使得TTT更新在初始化時可以忽略不計,確保模型從其原始預訓練行為開始。具體來說,深度1D卷積采用零初始化,投影矩陣初始化為稀疏對角矩陣。這種接近零的初始化保證了初始快速權(quán)重更新接近零,因此有效的權(quán)重參數(shù)保持與其預訓練值相同。

八、廣闊的應(yīng)用前景和意義

原地測試時間訓練技術(shù)的成功為大語言模型的發(fā)展開辟了新的方向。這項技術(shù)不僅解決了現(xiàn)有TTT方法的局限性,還為實現(xiàn)真正動態(tài)適應(yīng)的語言模型提供了可行的路徑。

從技術(shù)角度來看,這項工作證明了通過巧妙的設(shè)計可以在不犧牲效率的情況下增強現(xiàn)有模型的能力。原地設(shè)計避免了昂貴的從零開始重訓練,使得這項技術(shù)能夠應(yīng)用于已有的大規(guī)模預訓練模型。塊級更新機制確保了在現(xiàn)代并行硬件上的高效執(zhí)行,而專門設(shè)計的學習目標則確保了對語言建模任務(wù)的有效性。

從應(yīng)用角度來看,這項技術(shù)為處理需要動態(tài)適應(yīng)的長期任務(wù)開辟了新的可能性。無論是需要持續(xù)學習新信息的對話系統(tǒng),還是需要適應(yīng)特定領(lǐng)域知識的專業(yè)應(yīng)用,原地測試時間訓練都提供了一個實用的解決方案。

更重要的是,這項工作為大語言模型向持續(xù)學習范式的轉(zhuǎn)變邁出了重要一步。傳統(tǒng)的"訓練然后部署"模式可能逐漸被更加動態(tài)和適應(yīng)性的方法所取代,這將使人工智能系統(tǒng)能夠更好地應(yīng)對真實世界的復雜性和變化。

研究團隊的工作還展示了跨學科合作的價值。通過結(jié)合理論分析和實際工程,他們不僅解決了技術(shù)挑戰(zhàn),還為未來的研究提供了堅實的理論基礎(chǔ)。這種理論與實踐相結(jié)合的方法為人工智能領(lǐng)域的發(fā)展提供了寶貴的經(jīng)驗。

總的來說,原地測試時間訓練技術(shù)代表了大語言模型技術(shù)發(fā)展的一個重要里程碑。它不僅解決了當前技術(shù)的限制,還為未來更加智能和適應(yīng)性的人工智能系統(tǒng)鋪平了道路。這項技術(shù)的成功實施證明,通過創(chuàng)新的設(shè)計思路和精心的工程實現(xiàn),我們可以顯著提升人工智能系統(tǒng)的能力,使它們更好地服務(wù)于人類社會的各種需求。

說到底,這項研究最令人興奮的地方在于它讓大語言模型具備了類似人類的學習能力——能夠在使用過程中不斷適應(yīng)和改進。這意味著未來的AI助手不再是一成不變的工具,而是能夠與用戶一起成長、一起學習的智能伙伴。當然,這項技術(shù)還在發(fā)展初期,但它為我們展現(xiàn)了一個充滿可能性的未來:一個AI能夠真正理解并適應(yīng)我們每個人獨特需求的世界。有興趣深入了解這項技術(shù)細節(jié)的讀者可以通過論文編號arXiv:2604.06169v1查詢完整的研究報告。

Q&A

Q1:什么是原地測試時間訓練技術(shù)?

A:原地測試時間訓練是一種讓大語言模型在使用過程中動態(tài)調(diào)整參數(shù)的技術(shù)。它不需要改變模型架構(gòu),而是重新利用模型中已有的MLP組件作為"快速權(quán)重",讓模型能夠根據(jù)當前輸入的具體情境進行實時學習和適應(yīng),就像讓一個廚師能在烹飪過程中根據(jù)食材狀態(tài)調(diào)整菜譜一樣。

Q2:原地測試時間訓練與傳統(tǒng)大語言模型有什么區(qū)別?

A:傳統(tǒng)大語言模型采用"訓練完成后部署"的固定模式,參數(shù)一旦訓練完成就無法改變。而原地測試時間訓練技術(shù)讓模型能夠在處理新輸入時動態(tài)更新部分參數(shù),實現(xiàn)邊使用邊學習。這就像傳統(tǒng)模型是一本寫好的教科書,而新技術(shù)讓模型變成了一個能夠?qū)崟r做筆記和總結(jié)的學生。

Q3:這項技術(shù)在實際應(yīng)用中有什么優(yōu)勢?

A:這項技術(shù)的主要優(yōu)勢包括:可以直接應(yīng)用于現(xiàn)有的預訓練模型而無需重新訓練,大大降低了成本;能夠顯著提升模型處理長文本的能力;具有高計算效率,能充分利用現(xiàn)代并行硬件;為開發(fā)真正能持續(xù)學習的AI系統(tǒng)提供了技術(shù)基礎(chǔ),讓AI助手能夠更好地適應(yīng)每個用戶的特定需求。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
官媒割席,英皇還在力挺,張敬軒遭全網(wǎng)抵制,他的結(jié)局早就注定了

官媒割席,英皇還在力挺,張敬軒遭全網(wǎng)抵制,他的結(jié)局早就注定了

動物奇奇怪怪
2026-04-22 16:19:44
周恩來逝世后誰當總理,毛主席力推一人,此人婉拒:您考慮別人吧

周恩來逝世后誰當總理,毛主席力推一人,此人婉拒:您考慮別人吧

飛哥談史
2026-04-22 08:10:09
武漢中南醫(yī)院護士長被全網(wǎng)扒底,通報里她名字沒出現(xiàn)一次!

武漢中南醫(yī)院護士長被全網(wǎng)扒底,通報里她名字沒出現(xiàn)一次!

好笑娛樂君每一天
2026-04-22 15:21:00
世乒賽4月28日開賽:王楚欽入院,梁靖崑舊傷復發(fā),周啟豪也傷了

世乒賽4月28日開賽:王楚欽入院,梁靖崑舊傷復發(fā),周啟豪也傷了

開成運動會
2026-04-21 22:53:35
黃秋燕現(xiàn)狀曝光!二婚后幸福,倆女兒回北京工作,對李連杰已釋然

黃秋燕現(xiàn)狀曝光!二婚后幸福,倆女兒回北京工作,對李連杰已釋然

小徐講八卦
2026-04-22 15:02:43
李小冉離婚了???

李小冉離婚了!?

八卦瘋叔
2026-04-22 11:02:16
比徐昕更慘!廣東男籃離隊第一人曝光,男籃國手打成二流中鋒!

比徐昕更慘!廣東男籃離隊第一人曝光,男籃國手打成二流中鋒!

緋雨兒
2026-04-22 12:39:49
宅基地“父改子”黃金窗口期!農(nóng)村有兒子的抓緊,錯過就虧大了

宅基地“父改子”黃金窗口期!農(nóng)村有兒子的抓緊,錯過就虧大了

三農(nóng)雷哥
2026-03-25 17:58:07
鞏俐亮相人工智能電影節(jié)!60歲黑金穿搭封神,松弛氣場碾壓全場

鞏俐亮相人工智能電影節(jié)!60歲黑金穿搭封神,松弛氣場碾壓全場

點點細語
2026-04-22 09:56:46
1983年,陳云親自批示:立即槍斃廣東縣委書記王仲,原因為何?

1983年,陳云親自批示:立即槍斃廣東縣委書記王仲,原因為何?

莫地方
2026-04-20 09:30:18
這才是馬拉松的“硬核”補給!網(wǎng)友:可以伸舌頭嗎?

這才是馬拉松的“硬核”補給!網(wǎng)友:可以伸舌頭嗎?

馬拉松跑步健身
2026-04-22 17:07:01
巨虧32億!從行業(yè)前三到退市,叫板董明珠的“空調(diào)大王”徹底涼涼

巨虧32億!從行業(yè)前三到退市,叫板董明珠的“空調(diào)大王”徹底涼涼

毒sir財經(jīng)
2026-03-12 16:14:43
馬拉多納兒子:在所有人類球員中梅西是最棒的,但我父親是神

馬拉多納兒子:在所有人類球員中梅西是最棒的,但我父親是神

懂球帝
2026-04-21 23:37:05
新娘確實漂亮,但我更喜歡戴眼鏡那個。

新娘確實漂亮,但我更喜歡戴眼鏡那個。

動物奇奇怪怪
2026-04-12 12:44:36
世錦賽:韋克林四連鞭完勝普倫進16強,英格蘭小將無緣創(chuàng)造歷史!

世錦賽:韋克林四連鞭完勝普倫進16強,英格蘭小將無緣創(chuàng)造歷史!

世界體壇觀察家
2026-04-22 19:47:29
我在中東教漢語,娶了三個本地女孩,雖然年入百萬,卻并不幸福

我在中東教漢語,娶了三個本地女孩,雖然年入百萬,卻并不幸福

千秋文化
2026-04-20 19:55:30
CBA要變天了!四川41連敗球員都快跑光了,香港金牛3連冠坐等升級

CBA要變天了!四川41連敗球員都快跑光了,香港金牛3連冠坐等升級

弄月公子
2026-04-22 21:11:03
4月車市暴跌真相:消費者為什么不買車了?

4月車市暴跌真相:消費者為什么不買車了?

小李子體育
2026-04-22 12:39:36
王為念不忍了!狠狠給全紅嬋出了口惡氣,諂媚陳麗華終于真相大白

王為念不忍了!狠狠給全紅嬋出了口惡氣,諂媚陳麗華終于真相大白

幽棠的趣式
2026-04-16 03:21:31
誰也沒能回國乒!兩位前世界冠軍復出,都曾透露被大佬勸退的經(jīng)歷

誰也沒能回國乒!兩位前世界冠軍復出,都曾透露被大佬勸退的經(jīng)歷

三十年萊斯特城球迷
2026-04-21 21:50:39
2026-04-22 21:31:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
8088文章數(shù) 562關(guān)注度
往期回顧 全部

教育要聞

北京“封神”!5人入選國集!

頭條要聞

伊朗扣留兩艘船并強調(diào)"紅線" 責令美國釋放被扣貨船

頭條要聞

伊朗扣留兩艘船并強調(diào)"紅線" 責令美國釋放被扣貨船

體育要聞

網(wǎng)易傳媒再度簽約法國隊和阿根廷隊

娛樂要聞

復婚無望!baby黃曉明陪小海綿零交流

財經(jīng)要聞

醫(yī)院專家號"秒空"!警方牽出黑色產(chǎn)業(yè)鏈

科技要聞

對話梅濤:沒有視頻底座,具身智能走不遠

汽車要聞

純電續(xù)航301km+激光雷達 宋Pro DM-i飛馳版9.99萬起

態(tài)度原創(chuàng)

房產(chǎn)
藝術(shù)
本地
公開課
軍事航空

房產(chǎn)要聞

官宣!今年9月起,廣州中小學“重點班”將成歷史!

藝術(shù)要聞

無花不風景

本地新聞

春色滿城關(guān)不?。座N梅浪漫盛放,吳山藏了一片四月雪

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

特朗普宣布延長?;?伊朗表態(tài)

無障礙瀏覽 進入關(guān)懷版