国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

姚順雨入職騰訊50天后,發(fā)布了首篇署名論文:CL-Bench

0
分享至

前兩天大家都在吐槽被元寶紅包活動(dòng)刷屏了。那一頭,千問又出來整春節(jié)30億紅包的活動(dòng)。

我倒是不介意大廠們?cè)谟脩舾@侠^續(xù)競(jìng)爭(zhēng),卷一卷的。至少我的3塊2毛6今天是領(lǐng)導(dǎo)了~


不過今天小龍哥好像終于打完高爾夫回來看手機(jī)了,微信安全中心出手,認(rèn)定元寶紅包「誘導(dǎo)用戶高頻分享」,直接把鏈接給屏蔽了。


還能這么玩...

全網(wǎng)都在討論這事,不過我倒是真沒興趣寫長(zhǎng)文吃瓜的。

而是我覺得在這個(gè)熱鬧里,騰訊AI團(tuán)隊(duì)發(fā)的一篇還挺有趣,甚至未來可能挺重要的論文可能被忽略了。

這是2月3日,姚順雨加入騰訊后的第一篇署名論文。


這事得從去年說起。

2025年4月,還在OpenAI工作的姚順雨發(fā)了一篇博客,叫《The Second Half》(AI的下半場(chǎng))。


那篇文章里有一句話讓我印象很深:

「下半場(chǎng)將把重心從'解決問題'轉(zhuǎn)向'定義問題'。我們不再只是問'能不能訓(xùn)練出一個(gè)模型解決X問題?',而是要問'我們究竟應(yīng)該讓AI去做什么?又該如何衡量真正的進(jìn)展?'」

當(dāng)時(shí)看完覺得,說得挺對(duì),但有點(diǎn)虛。因?yàn)樗惶岢隽藛栴},但怎么定義?沒說。

現(xiàn)在算是有階段性答案了。

這篇論文叫《CL-bench: A Benchmark for Context Learning》,做了一個(gè)新的benchmark。測(cè)試結(jié)果是:所有前沿模型,平均分17.2%。最強(qiáng)的GPT-5.1也只拿到23.7%。

集體不及格。

先回顧一下《The Second Half》說了什么

去年12月姚順雨入職騰訊的時(shí)候,我寫過一篇文章介紹他的背景和這篇博客。這里再簡(jiǎn)單說一下核心觀點(diǎn)。


姚順雨認(rèn)為,過去幾十年AI的主要精力都放在「上半場(chǎng)」——開發(fā)新的訓(xùn)練方法和模型。從DeepBlue到AlphaGo,從GPT到o-series,歷史性的突破都來自于「如何訓(xùn)練出更好的模型」。

但現(xiàn)在,這個(gè)配方已經(jīng)基本標(biāo)準(zhǔn)化了:大規(guī)模語言預(yù)訓(xùn)練 + 數(shù)據(jù)和算力擴(kuò)展 + 推理與行動(dòng)范式。用這套配方,可以解決軟件開發(fā)、創(chuàng)意寫作、IMO級(jí)數(shù)學(xué)題等各種任務(wù)。

那下半場(chǎng)要做什么?

姚順雨提出了一個(gè)關(guān)鍵概念:效用問題(Utility Problem)。

他說,AI已經(jīng)在國(guó)際象棋和圍棋上擊敗了世界冠軍,在SAT和律師資格考試中超過了大多數(shù)人類??墒澜绮]有發(fā)生太大改變——至少從經(jīng)濟(jì)和GDP的角度來看如此。

為什么?

因?yàn)槲覀兊脑u(píng)估方式和現(xiàn)實(shí)世界存在根本差異。

比如,現(xiàn)有的benchmark假設(shè)任務(wù)是「自動(dòng)運(yùn)行」的——模型接收輸入,自主執(zhí)行,得到結(jié)果。但現(xiàn)實(shí)中,AI必須在任務(wù)過程中持續(xù)與人類互動(dòng)。

再比如,現(xiàn)有的benchmark假設(shè)任務(wù)是「獨(dú)立同分布」的——500個(gè)測(cè)試任務(wù),獨(dú)立運(yùn)行,取平均分。但現(xiàn)實(shí)中,任務(wù)是連續(xù)進(jìn)行的。一個(gè)Google工程師在同一個(gè)代碼庫工作久了,效率會(huì)越來越高;但AI在同一個(gè)代碼庫解決了很多問題,卻無法獲得這種「熟悉度」。

所以姚順雨說,下半場(chǎng)的新玩法是:開發(fā)新的評(píng)估方式,以衡量真實(shí)世界的效用。

CL-Bench就是這個(gè)思路的第一次落地。

CL-Bench測(cè)的是什么?

先說一個(gè)反常識(shí)的現(xiàn)象。

現(xiàn)在的前沿模型(Frontier Model)在各種長(zhǎng)上下文benchmark上表現(xiàn)都很好。標(biāo)準(zhǔn)的「大海撈針」測(cè)試,幾乎所有模型都能拿到接近滿分。LongBench v2這種閱讀理解測(cè)試,模型得分甚至能以兩倍的水平遠(yuǎn)超人類。

但一進(jìn)入Agent干活模式,模型就不行了。

為什么?我琢磨了一下,發(fā)現(xiàn)這里面有個(gè)關(guān)鍵的區(qū)分。

因?yàn)檎鎸?shí)場(chǎng)景需要的不是「從上下文中找到信息」,而是「從上下文中學(xué)會(huì)知識(shí),然后用這些知識(shí)解決問題」。

這是兩回事。

舉個(gè)例子。一個(gè)律師拿到一份新的監(jiān)管文件,需要立即理解其中的條款并為客戶提供建議。一個(gè)工程師閱讀一份剛發(fā)布的產(chǎn)品手冊(cè),需要快速掌握操作流程來排除故障。

這時(shí)候,你需要的知識(shí)就在手頭的材料里。但你必須真正學(xué)會(huì)它,才能正確地用起來。

這種能力,騰訊混元團(tuán)隊(duì)稱之為「上下文學(xué)習(xí)」(Context Learning)。

注意,這和我們更熟悉的「In-Context Learning」(ICL)不是一回事。

ICL是給模型幾個(gè)例子,讓它學(xué)會(huì)一個(gè)簡(jiǎn)單的模式。比如給三個(gè)「英文→中文」的翻譯例子,模型就知道接下來要做翻譯。這是一種淺層的模式匹配。

Context Learning要求更高——模型需要從上下文中學(xué)習(xí)復(fù)雜的、結(jié)構(gòu)化的知識(shí)體系,然后在新的場(chǎng)景中正確應(yīng)用這些知識(shí)。

打個(gè)比方:ICL像是看幾道例題就去做作業(yè),Context Learning像是讀完整本教材再去考試。

四類任務(wù):學(xué)生、數(shù)學(xué)家、操作員、科學(xué)家


CL-Bench設(shè)計(jì)了四類任務(wù),難度遞進(jìn):

1. 知識(shí)獲?。M學(xué)生)

給模型一份虛構(gòu)的百科全書,考察它能不能準(zhǔn)確記住并應(yīng)用這些知識(shí)。

比如給一個(gè)虛構(gòu)國(guó)家的完整法律體系,然后問:在這個(gè)國(guó)家,某種行為是否違法?

這是最基礎(chǔ)的——能不能把知識(shí)「背下來」。

2. 形式推理(模擬數(shù)學(xué)家)

給模型一套陌生的公理系統(tǒng),考察它能不能用這些公理進(jìn)行邏輯推導(dǎo)。

比如創(chuàng)建一個(gè)新的編程語言,有獨(dú)特的語法和語義規(guī)則,讓模型用這套規(guī)則寫代碼。

這考驗(yàn)的是「在一個(gè)封閉的邏輯閉環(huán)里嚴(yán)絲合縫地推導(dǎo)」的能力。

3. 流程任務(wù)執(zhí)行(模擬操作員)

給模型一份復(fù)雜的SOP手冊(cè),考察它能不能嚴(yán)格按照流程執(zhí)行任務(wù)。

比如給一個(gè)無人機(jī)物流系統(tǒng)的詳細(xì)API文檔,讓模型生成操作代碼。手冊(cè)里寫了什么能做、什么不能做,模型必須完全遵守。

這考驗(yàn)的是「長(zhǎng)鏈條的執(zhí)行紀(jì)律」——錯(cuò)一步,滿盤皆輸。

4. 經(jīng)驗(yàn)發(fā)現(xiàn)(模擬科學(xué)家)

這是最難的。給模型一堆雜亂的實(shí)驗(yàn)數(shù)據(jù),讓它自己歸納出背后隱藏的規(guī)律。

比如給一組物理實(shí)驗(yàn)的觀測(cè)結(jié)果,讓模型發(fā)現(xiàn)其中的物理定律。

這是從「應(yīng)用知識(shí)」到「發(fā)現(xiàn)知識(shí)」的跨越。

說實(shí)話,這個(gè)benchmark做得挺重的。500個(gè)復(fù)雜上下文、1899個(gè)任務(wù)、31607個(gè)驗(yàn)證標(biāo)準(zhǔn)。每個(gè)上下文平均對(duì)應(yīng)63.2個(gè)驗(yàn)證條目,每個(gè)任務(wù)平均有16.6個(gè)評(píng)估標(biāo)準(zhǔn)。

為了保證模型不能靠預(yù)訓(xùn)練知識(shí)作弊,采用了「無污染」設(shè)計(jì):所有上下文要么是完全虛構(gòu)的(比如為虛構(gòu)國(guó)家設(shè)計(jì)一套完整的法律體系),要么是對(duì)現(xiàn)有知識(shí)的修改(比如創(chuàng)建具有獨(dú)特語法的新編程語言),要么是極其小眾的長(zhǎng)尾內(nèi)容。

專家平均花了20小時(shí)來標(biāo)注單個(gè)場(chǎng)景。51.1%的任務(wù)有序列依賴關(guān)系——后面的問題依賴前面問題的答案,不能跳著做。


研究團(tuán)隊(duì)做了驗(yàn)證:讓GPT-5.1在不提供上下文的情況下嘗試解答1000個(gè)隨機(jī)任務(wù),成功率只有0.9%。說明沒有上下文,這些任務(wù)對(duì)模型來說幾乎無解。

最慘的發(fā)現(xiàn):模型不會(huì)歸納

測(cè)試結(jié)果挺殘酷的。

模型

任務(wù)成功率

GPT-5.1 (high)

23.7%

Claude Opus 4.5

19.9%

Gemini 3 Pro

18.9%

DeepSeek-R1

16.6%

Llama 4 Maverick

12.9%

平均分17.2%。


而且,模型的錯(cuò)誤很有規(guī)律。論文統(tǒng)計(jì)了三類主要錯(cuò)誤:

  • 漏用上下文:55.3%

  • 誤用上下文:61.5%

  • 格式不遵守:35.3%


論文里有個(gè)具體案例:Gemini 3 Pro被要求為一個(gè)無人機(jī)物流系統(tǒng)生成操作偽代碼。系統(tǒng)文檔提供了詳細(xì)的API說明,用戶的請(qǐng)求故意違反了安全協(xié)議。

Gemini的表現(xiàn)怎么樣?

它正確地拒絕了非法請(qǐng)求——這是對(duì)的。但它沒能生成完整的合規(guī)替代方案:它忽略了文檔中明確要求的替代函數(shù),也沒有綁定任務(wù)中給出的具體參數(shù)。

換句話說,模型「知道什么不能做」,但「不知道應(yīng)該怎么做」。它讀了手冊(cè),但沒學(xué)會(huì)手冊(cè)。

更重要的發(fā)現(xiàn)是:在四類任務(wù)中,模型在「經(jīng)驗(yàn)發(fā)現(xiàn)」(歸納)上的表現(xiàn)最差——任務(wù)成功率通常低于10%。

這個(gè)數(shù)字挺有意思的。

之前寫DeepSeek的Engram論文時(shí),我引用過博爾赫斯的短篇《博聞強(qiáng)記的富內(nèi)斯》。富內(nèi)斯能記住一切,但無法思考——因?yàn)樗伎夹枰橄?,需要忘記差異?/p>

CL-Bench的發(fā)現(xiàn)正好是反過來的:模型能做總結(jié)(一種復(fù)述和組織),但不擅長(zhǎng)歸納(需要建模和泛化)。

總結(jié)是「把已有的東西換個(gè)說法」,歸納是「從已有的東西發(fā)現(xiàn)新規(guī)律」。前者是壓縮,后者是創(chuàng)造。

模型在前者上表現(xiàn)還行,在后者上一塌糊涂。

這個(gè)benchmark不是用來刷的

看到這個(gè)17.2%的平均分,你可能會(huì)想:那接下來各家肯定會(huì)卷這個(gè)分?jǐn)?shù)吧?

但姚順雨可能不這么想。

《晚點(diǎn)》有篇報(bào)道提到,姚順雨在騰訊內(nèi)部會(huì)上說,希望團(tuán)隊(duì)以后不要打榜,也不要盯著榜單做事。

這和他在《The Second Half》里的觀點(diǎn)完全一致。他說過,當(dāng)智能程度較低時(shí),提升智能通常能提升效用。但現(xiàn)在不是了——我們需要重新設(shè)計(jì)評(píng)估框架,以推動(dòng)真實(shí)應(yīng)用突破。

這里有個(gè)更大的背景。

現(xiàn)在很多AI能力benchmark都被刷爆了。MMLU、HumanEval、各種考試,模型動(dòng)輒90多分,早就超過人類水平了。但這些高分并沒有轉(zhuǎn)化成真實(shí)世界的價(jià)值——模型考試厲害,干活還是不行。

問題出在哪?可能不是模型不夠強(qiáng),而是我們問的問題不夠?qū)Α?/p>

CL-Bench的思路是:與其在舊問題上繼續(xù)卷分?jǐn)?shù),不如提出一個(gè)新的、正確的問題。用一個(gè)好的benchmark來驅(qū)動(dòng)模型改進(jìn),而不是讓模型去適應(yīng)一個(gè)已經(jīng)不再有區(qū)分度的benchmark。

這可能就是「下半場(chǎng)」的演進(jìn)方式,咱就先別急著跑分了,而是先比比誰能提出更好的問題。

所以CL-Bench的意義不在于「又一個(gè)可以刷的榜單」,而在于「標(biāo)記出了一個(gè)真正的能力短板」。

這個(gè)短板是什么?

論文最后一段寫得很直接:

「只有當(dāng)模型能夠快速內(nèi)化完全陌生的上下文,并精確地應(yīng)用那些知識(shí)來解決問題時(shí),人工智能才能超越知識(shí)庫的限制,演變成真正的推理Agent?!?/blockquote>

換句話說,現(xiàn)在的模型本質(zhì)上還是「知識(shí)庫的調(diào)用者」。它們能做的,是把預(yù)訓(xùn)練時(shí)學(xué)到的知識(shí)重新組合、輸出。

但真正的Agent需要的是「從上下文中學(xué)習(xí)新知識(shí)」的能力。這個(gè)能力,現(xiàn)在的模型幾乎沒有。

往大了說:誰提供context,誰掌握主動(dòng)權(quán)

論文的Discussion部分給了四條可能的改進(jìn)方向:

  1. 訓(xùn)練數(shù)據(jù)要強(qiáng)上下文學(xué)習(xí)——在預(yù)訓(xùn)練階段就加入需要從上下文學(xué)習(xí)的任務(wù)

  2. 更好的位置編碼——讓模型更好地理解上下文中的結(jié)構(gòu)

  3. 更長(zhǎng)的上下文窗口——但這只是必要條件,不是充分條件

  4. 新的注意力機(jī)制——讓模型更有效地從長(zhǎng)上下文中提取和應(yīng)用知識(shí)

但我覺得更有意思的是論文里的一句話:

「一旦上下文學(xué)習(xí)能力變得可靠,人類將不再是主要的數(shù)據(jù)提供者,而是context提供者。競(jìng)爭(zhēng)的焦點(diǎn)將從'誰能訓(xùn)練出更好的模型'轉(zhuǎn)向'誰能為任務(wù)提供最豐富、最相關(guān)的context'?!?/blockquote>

這個(gè)判斷我覺得挺重要的。

現(xiàn)在的AI競(jìng)爭(zhēng)主要在「模型層」——誰的模型更大、訓(xùn)練數(shù)據(jù)更多、效果更好。但如果context learning問題解決了,競(jìng)爭(zhēng)焦點(diǎn)可能會(huì)轉(zhuǎn)向「context層」。

誰擁有最好的專業(yè)知識(shí)庫?誰能把這些知識(shí)組織成模型能學(xué)會(huì)的形式?誰能在對(duì)的時(shí)機(jī)提供對(duì)的context?

論文還提到一個(gè)更遠(yuǎn)的愿景:模型如何「記憶」,可能成為2026年的另一個(gè)核心主題。

現(xiàn)在的模型有個(gè)問題:學(xué)完就忘。你在一個(gè)session里教會(huì)它某個(gè)規(guī)則,關(guān)掉窗口,下次還得重新教。這在長(zhǎng)期協(xié)作場(chǎng)景里是致命的。

說到這個(gè),最近很火的Clawdbot(OpenClaw)就是個(gè)有意思的案例。很多人覺得它體驗(yàn)特別好——懂你、有人味、能長(zhǎng)期使用、上下文不爆。其實(shí)核心就是他們?cè)趍emory和上下文工程上做了大量工作。

但這是「工程層」的解決方案:通過更聰明的context管理、記憶壓縮、檢索增強(qiáng)來繞過模型本身的限制。

CL-Bench指向的是另一條路——「模型層」的改進(jìn)。讓模型本身學(xué)會(huì)從context中學(xué)習(xí),而不是靠外部系統(tǒng)來補(bǔ)。這條路更難,但可能更本質(zhì)。

長(zhǎng)期來看,兩條路可能都需要。但如果模型層的context learning能力上來了,工程層的很多workaround可能就不需要那么復(fù)雜了。

最后

回到開頭。

2025年4月,姚順雨寫了一篇博客,說AI下半場(chǎng)的重心是「定義問題」和「設(shè)計(jì)評(píng)估」。

2026年2月,他交出了第一個(gè)具體的答案:一個(gè)平均分只有17.2%的benchmark,精確地標(biāo)記出了模型在「上下文學(xué)習(xí)」上的短板。

這個(gè)benchmark某種程度上算是一個(gè)提醒:我們以為模型已經(jīng)很強(qiáng)了,但在這個(gè)能力上,它們還差得很遠(yuǎn)。

姚順雨在入職騰訊之前說過一句話:「真正決定模型價(jià)值的,不是它能在benchmark上刷多高的分,而是它能不能解決真實(shí)世界的問題?!?/p>

CL-Bench算是這句話的一個(gè)注腳。

從博客到論文,從理念到落地,50天時(shí)間。

這可能就是騰訊看中他的原因之一,不只是會(huì)寫論文,更重要的是知道該寫什么論文。這個(gè)時(shí)代正在獎(jiǎng)勵(lì)提出正確問題的人。

參考資料

  • CL-Bench論文:https://arxiv.org/abs/2602.03587

  • CL-Bench代碼與數(shù)據(jù):https://github.com/Tencent-Hunyuan/CL-bench

  • 姚順雨《The Second Half》:https://ysymyth.github.io/The-Second-Half/

  • 騰訊混元技術(shù)博客:https://hy.tencent.com/research

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
伊朗指揮中樞遭團(tuán)滅,數(shù)千名軍官正排隊(duì)投降

伊朗指揮中樞遭團(tuán)滅,數(shù)千名軍官正排隊(duì)投降

西樓飲月
2026-03-02 16:30:15
涉美伊局勢(shì),復(fù)旦教授、人大教授雙雙發(fā)聲,“外網(wǎng)和國(guó)內(nèi)的一些自媒體造謠,這些人臉都不要了”

涉美伊局勢(shì),復(fù)旦教授、人大教授雙雙發(fā)聲,“外網(wǎng)和國(guó)內(nèi)的一些自媒體造謠,這些人臉都不要了”

都市快報(bào)橙柿互動(dòng)
2026-03-02 15:33:41
70歲后要明白,真有一天生活不能自理了,要想好這5條退路

70歲后要明白,真有一天生活不能自理了,要想好這5條退路

風(fēng)起見你
2026-03-03 00:42:09
五角大樓怒了!F-35首席教官去中國(guó)打工,難怪我軍總能逮個(gè)正著

五角大樓怒了!F-35首席教官去中國(guó)打工,難怪我軍總能逮個(gè)正著

書紀(jì)文譚
2026-02-28 16:48:05
王晶大侃萬梓良晚年凄涼!他不懂江湖規(guī)矩,演戲夸張對(duì)手很難接

王晶大侃萬梓良晚年凄涼!他不懂江湖規(guī)矩,演戲夸張對(duì)手很難接

小徐講八卦
2026-02-11 11:40:12
《街頭霸王》春麗大尺度雕像 大粗腿極具沖擊力

《街頭霸王》春麗大尺度雕像 大粗腿極具沖擊力

3DM游戲
2026-03-03 06:58:05
2023年,985女碩士王懿在東京活活餓死,父母拒絕為其收尸

2023年,985女碩士王懿在東京活活餓死,父母拒絕為其收尸

談史論天地
2026-02-18 17:45:40
國(guó)乒澳門名單引爆輿論!樊振東落選懸念拉滿,王勵(lì)勤改革真敢賭

國(guó)乒澳門名單引爆輿論!樊振東落選懸念拉滿,王勵(lì)勤改革真敢賭

卿子書
2026-03-03 09:05:53
09年凱豐兒子參觀南方局舊址,當(dāng)眾質(zhì)問館長(zhǎng):怎么沒我父親的像

09年凱豐兒子參觀南方局舊址,當(dāng)眾質(zhì)問館長(zhǎng):怎么沒我父親的像

新一說史
2026-03-03 03:35:09
回顧探花大神:害人害己,多位女主被親戚認(rèn)出當(dāng)場(chǎng)“社死”

回顧探花大神:害人害己,多位女主被親戚認(rèn)出當(dāng)場(chǎng)“社死”

就一點(diǎn)
2025-10-09 12:19:42
馮小剛春節(jié)后送女兒上學(xué) 臉貼臉說想她 給徐朵開車提行李很舍不得

馮小剛春節(jié)后送女兒上學(xué) 臉貼臉說想她 給徐朵開車提行李很舍不得

離離言幾許
2026-03-02 15:51:46
陳百強(qiáng)自殺真相曝光!王晶揭穿32年豪門謊言:他根本不是為情所困

陳百強(qiáng)自殺真相曝光!王晶揭穿32年豪門謊言:他根本不是為情所困

小徐講八卦
2026-02-25 15:49:57
“一次就能癱瘓整個(gè)美國(guó)!”美專家曾要求中國(guó)立即停止使用該武器

“一次就能癱瘓整個(gè)美國(guó)!”美專家曾要求中國(guó)立即停止使用該武器

阿器談史
2026-01-08 20:36:37
霍爾木茲海峽關(guān)閉!中國(guó)化工全產(chǎn)業(yè)鏈承壓

霍爾木茲海峽關(guān)閉!中國(guó)化工全產(chǎn)業(yè)鏈承壓

新浪財(cái)經(jīng)
2026-03-02 11:48:58
2026暑假檔:周星馳和賈玲對(duì)轟,陳思誠(chéng)手握王炸,3部動(dòng)畫有爆相

2026暑假檔:周星馳和賈玲對(duì)轟,陳思誠(chéng)手握王炸,3部動(dòng)畫有爆相

丁丁鯉史紀(jì)
2026-02-28 18:06:56
《妻子的浪漫旅行2026》四對(duì)夫妻已確定,竟全員自帶“熱度”

《妻子的浪漫旅行2026》四對(duì)夫妻已確定,竟全員自帶“熱度”

楚楚號(hào)
2026-03-03 06:47:23
腦子靈光的人太會(huì)卡bug了!網(wǎng)友:以為總部安排的 躺平領(lǐng)了12年工資

腦子靈光的人太會(huì)卡bug了!網(wǎng)友:以為總部安排的 躺平領(lǐng)了12年工資

夜深愛雜談
2025-12-15 22:53:52
黃巢兵敗被殺,10余名姬妾被俘,唐僖宗報(bào)復(fù)有多狠?史官都不敢寫

黃巢兵敗被殺,10余名姬妾被俘,唐僖宗報(bào)復(fù)有多狠?史官都不敢寫

掠影后有感
2026-03-01 10:09:20
在岸人民幣兌美元較上周五夜盤收盤跌428點(diǎn)

在岸人民幣兌美元較上周五夜盤收盤跌428點(diǎn)

財(cái)聯(lián)社
2026-03-03 03:12:10
曼聯(lián)越來越離不開B費(fèi)!續(xù)約恐需40萬周薪,或用到合同期滿免費(fèi)走

曼聯(lián)越來越離不開B費(fèi)!續(xù)約恐需40萬周薪,或用到合同期滿免費(fèi)走

羅米的曼聯(lián)博客
2026-03-03 07:18:50
2026-03-03 10:27:00
AI進(jìn)化論花生 incentive-icons
AI進(jìn)化論花生
AI博主,AppStore付費(fèi)榜第一的小貓補(bǔ)光燈app開發(fā)者
148文章數(shù) 65關(guān)注度
往期回顧 全部

科技要聞

蘋果iPhone17e發(fā)布:4499元起 升級(jí)A19芯片

頭條要聞

牛彈琴:多國(guó)對(duì)轟炸保持沉默 西班牙首相確實(shí)是條漢子

頭條要聞

牛彈琴:多國(guó)對(duì)轟炸保持沉默 西班牙首相確實(shí)是條漢子

體育要聞

伯納烏8萬人暴怒!高呼78歲老佛爺下課

娛樂要聞

李亞鵬與哥哥和解 只有一條真心話短信

財(cái)經(jīng)要聞

霍爾木茲海峽近乎停擺 布油直逼80美元

汽車要聞

國(guó)民SUV再添一員 瑞虎7L靜態(tài)體驗(yàn)

態(tài)度原創(chuàng)

教育
親子
旅游
公開課
軍事航空

教育要聞

內(nèi)蒙古教育反腐風(fēng)暴!千余人被處分后如何重建公平?

親子要聞

孕吐是胎兒的自我保護(hù)?孕吐越嚴(yán)重,孩子越聰明?聽專家怎么說

旅游要聞

打造沉浸式元宵體驗(yàn) 萬寧推出六大特色活動(dòng)

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

美國(guó)中央司令部透露對(duì)伊朗動(dòng)武全部武器裝備清單

無障礙瀏覽 進(jìn)入關(guān)懷版