国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

廈門大學團隊如何讓AI程序員又聰明又不"忘事"?

0
分享至


這項由廈門大學多媒體可信感知與高效計算教育部重點實驗室聯(lián)合微軟研究人員開展的研究,以預印本形式發(fā)布于2026年4月,論文編號為arXiv:2604.11716,有興趣深入了解的讀者可以通過該編號查詢完整論文。

**一個程序員AI的煩惱**

假設你是一位公司里的高級程序員,每天要幫同事修復代碼錯誤。你的工作方式是這樣的:同事發(fā)來一個問題,你打開代碼庫,翻閱相關文件,思考哪里出了問題,然后動手修改。整個過程可能要來回操作幾十次,查看文件、運行測試、分析報錯信息、再修改……

現(xiàn)在,AI也被訓練來做這種事了。這類任務在學術界被稱為"軟件工程任務"(SWE任務),簡單說就是讓AI自動找到真實代碼倉庫里的Bug并把它修好。這聽起來很酷,但背后有一個長期被忽視的麻煩——AI在做這件事的時候,到底該怎么"思考"?

廈門大學的研究團隊發(fā)現(xiàn),現(xiàn)有的AI程序員普遍存在兩種極端問題,任何一種都會讓它的表現(xiàn)大打折扣。這項研究提出的解決方案叫做**SWE-AGILE**,它的核心是一套被稱為"動態(tài)推理上下文"的工作機制,像給AI裝上了一套高效的記憶管理系統(tǒng)。

**一、AI程序員面臨的兩難困境:要么淺嘗輒止,要么撐爆記憶**

要理解SWE-AGILE解決了什么問題,得先理解AI在多輪工作時的"記憶"是怎么運作的。

你可以把AI的"上下文窗口"理解成一張有限大小的工作桌。AI每次思考,都要把相關的內(nèi)容——歷史操作記錄、代碼片段、工具返回的信息、自己之前寫下的分析——全部攤開放在這張桌子上,才能做出下一步判斷。桌子的面積是有限的,放的東西越多,找到有用信息的難度就越大,甚至會出現(xiàn)"明明放在桌上,卻怎么也找不到"的情況。

現(xiàn)有的AI程序員大致分成兩派來應對這個問題。第一派是"淺思考派",代表是SWE-Dev、SWE-smith這類系統(tǒng)。它們每走一步只寫下簡短的"想法備注",就像一個只會說"我要查這個文件"然后就去查的助手,思考過程非常淺。好處是桌面不會變亂,但壞處同樣明顯:遇到真正復雜的問題,比如一個隱藏在多個文件交互邏輯中的Bug,淺薄的思考根本不夠用,很容易走彎路或做錯判斷。

第二派是"深思考派",也就是近年大熱的推理模型,比如OpenAI o1、DeepSeek-R1。這類模型會在每一步都寫下大量詳細的分析過程——這種方式叫做"鏈式思維"(Chain-of-Thought,CoT)。研究人員發(fā)現(xiàn),越長、越詳細的思考過程往往對應越準確的答案。但把這種方式用到需要幾十輪操作的程序修復任務上,就會遇到一個災難性的問題:每走一步,桌子上就要多擺一大堆思考記錄,很快桌面就會被塞滿。

桌面塞滿之后會發(fā)生什么?一方面,AI處理這么長的內(nèi)容需要消耗巨量的計算資源,訓練速度會急劇下降;另一方面,更致命的是一個被研究人員稱為"迷失在中間"(Lost-in-the-Middle)的現(xiàn)象——當桌上堆滿了東西,AI反而無法準確找到它需要的信息,就像在一張塞滿文件的亂桌子上找一張便利貼,反而比整潔的桌子更難找。

還有第三種做法:允許AI深度思考,但思考完之后立刻把思考記錄丟掉,只保留最終的操作指令。這樣桌面確實保持整潔了,但代價是每走新的一步,AI都得從頭把整個情況重新想一遍——就像一個每次開會都要從零開始熟悉項目背景的工程師,極其低效。

研究團隊用實驗驗證了這個困境的真實性。在基礎測試中,保留完整推理歷史("深思考全留"方案)的成功率只有12.42%,而把推理歷史全丟、每步只保留最新思考("當前步驟思考"方案)的成功率反而達到了15.83%。這個反直覺的結(jié)果清楚地說明:"更多信息"如果沒有被妥善管理,反而是負擔。

**二、SWE-AGILE的解法:給AI裝一套"滑動記憶窗口"**

SWE-AGILE的核心思想,可以用一位經(jīng)驗豐富的偵探處理案件檔案的方式來理解。

偵探每天都在調(diào)查新線索、翻閱文件、走訪證人。他的工作臺面積有限,不可能把所有卷宗都攤開。他的做法是:最近幾天的調(diào)查筆記完整保留在桌面,隨時可以翻看;更早的筆記則被整理成一份簡明摘要——"第三天:走訪了嫌疑人A,確認了其不在場證明,排除嫌疑"——只保留關鍵結(jié)論,不保留完整思考過程。這樣,偵探既能回顧最近的調(diào)查細節(jié),保持思路連貫,又不會被遠古卷宗淹沒。

SWE-AGILE就是這樣運作的。每一個工作步驟,AI都被要求生成三個嚴格有序的部分:首先是詳細的推理過程(用``標簽包裹),這是AI真正"動腦筋"的地方;其次是一份對這次推理的壓縮摘要,叫做"推理摘要"(Reasoning Digest);最后才是實際的工具調(diào)用操作,比如"查看這個文件的第50到80行"。

關鍵在于這三個部分如何進入"歷史記錄"。推理摘要和操作記錄會被永久保存;而詳細的推理過程,只有最近N步(N是一個隨機設置在2到5之間的數(shù))的完整內(nèi)容會留著,更早的詳細推理會被其對應的摘要替代,從歷史上"消失"。這個N步的范圍就是"滑動推理窗口",它保證AI在做下一步?jīng)Q策時,既能看到最近幾步自己完整的思考脈絡,又不會被幾十步之前的冗長分析淹沒。

這個設計產(chǎn)生了一種被研究團隊形象地稱為"鋸齒形"的上下文增長模式。在窗口內(nèi),每步都有完整的深度推理,上下文快速增長;當某步的推理滑出窗口范圍,它就被壓縮成摘要,上下文隨之收縮——增長與壓縮交替出現(xiàn),形成像心電圖一樣的鋸齒形曲線,而不是像"全留方案"那樣一路直線飆升直到撐爆。

**三、訓練的難題:如何讓AI真正學會"按規(guī)則記憶"**

設計出這套記憶管理機制只是第一步,更難的問題是:怎么訓練AI去真正掌握這套規(guī)則?

通常訓練AI的方式,是把它做過的所有操作記錄排成一條長序列,讓AI從頭到尾學習。但這種訓練方式和SWE-AGILE的實際工作方式之間存在一個根本矛盾:訓練時AI能看到所有歷史推理細節(jié),但工作時窗口外的推理細節(jié)已經(jīng)被替換成摘要,根本不存在了。用這種方式訓練出來的AI,就像一個人在考試時能查書,但實際工作時卻沒有書——它學到的是一種在現(xiàn)實中不存在的條件下的行為。

為了解決這個矛盾,研究團隊發(fā)明了"軌跡快照訓練"(Trajectory Snapshot Training)。做法是把一條完整的工作軌跡拆分成若干"快照",每個快照代表AI在某個特定步驟時的視角——在那個視角下,窗口外的歷史推理已經(jīng)被替換成摘要。每個快照就是一個獨立的訓練樣本,AI要學的只是"在這個視角下,如何生成正確的推理、摘要和操作"。

具體來說,每個快照由兩部分組成。一部分是"凍結(jié)的背景"(計算損失時被屏蔽),它完整模擬了推理時的動態(tài)上下文狀態(tài),包含窗口內(nèi)的完整歷史推理和窗口外被壓縮成摘要的歷史;另一部分是"主動學習目標",也就是AI在當前步驟需要生成的完整三件套:詳細推理、推理摘要、操作指令。這樣,每一條完整軌跡被拆成T個快照,每個快照都精確還原了AI在那個時刻應該"看到什么"和"生成什么",訓練與推理之間的鴻溝就被填平了。

**四、讓AI學會"深度思考":反填數(shù)據(jù)合成流水線**

訓練這套系統(tǒng)還面臨另一個現(xiàn)實困難:現(xiàn)有的成功軌跡數(shù)據(jù),比如開源數(shù)據(jù)集SWE-Dev里的記錄,里面的"思考過程"都非常淺薄——大多數(shù)只是簡單的一句話說明意圖,完全沒有SWE-AGILE所需要的那種深度分析。拿這種淺薄的數(shù)據(jù)去訓練,不僅無法教會AI深度推理,實驗還證明這反而會損害AI的能力(成功率從基礎的15.83%掉到了14.83%)。

為了解決這個數(shù)據(jù)問題,研究團隊設計了一套"事后反填"(Hindsight Backfill)數(shù)據(jù)合成流水線。這個方法的靈感來自于一個很有趣的思路:如果你已經(jīng)知道了答案,回過頭來"解釋為什么這個答案是對的",要比從零開始推導容易得多,而且質(zhì)量更高。

具體操作是這樣的:拿一條原始的淺薄成功軌跡,在每個步驟上,用一個能力強大的推理模型(研究團隊使用了Qwen3-235B)來"補寫"詳細推理和推理摘要。補寫時,這個強大模型會拿到三樣東西作為參考:第一是那個步驟對應的正確操作(也就是"答案"),確保補寫出來的推理必然朝著正確結(jié)論走;第二是原始軌跡中那一步的淺薄想法,作為"語義提示",確保新推理和原始意圖保持一致;第三是模擬了動態(tài)上下文約束的歷史信息,也就是窗口外的部分已經(jīng)被替換成摘要——這保證了合成的推理不僅格式正確,而且與運行時的實際條件完全匹配。

最終,每個步驟的淺薄記錄就被"升級"成了包含詳細推理和摘要的完整三元組,而不用從零收集新軌跡。這種方式在數(shù)據(jù)效率上極具優(yōu)勢——研究團隊僅用了2200條軌跡(來自SWE-Dev原始19300條中的精選高質(zhì)量子集),就完成了冷啟動階段的訓練,省去了大量從零探索的環(huán)境執(zhí)行開銷。

另外,研究團隊還補充收集了200條通過拒絕采樣得到的新軌跡,這些軌跡從一開始就按照SWE-AGILE的完整格式生成,用來進一步減少后續(xù)強化學習階段的分布偏移。

**五、強化學習階段:用"壓縮獎勵"讓AI學會精練表達**

完成了監(jiān)督微調(diào)之后,研究團隊還引入了強化學習階段進一步優(yōu)化,算法采用的是DAPO(一種開源的大規(guī)模強化學習框架)。

強化學習的核心是設計一個好的"獎勵函數(shù)"——也就是告訴AI什么是好的表現(xiàn)、什么是差的表現(xiàn)。這里研究團隊設計了一個聰明的獎勵函數(shù),它同時考慮了兩件事:任務有沒有成功,以及上下文壓縮得怎么樣。

壓縮率的計算方式很直觀:假設所有推理細節(jié)都完整保留在歷史里,總共需要占用L_full個token;而在SWE-AGILE實際機制下,窗口外的推理已經(jīng)被摘要替代,實際占用的是L_hybrid個token。壓縮率R_comp就等于1減去(L_hybrid除以L_full),代表節(jié)省了多少比例的上下文空間。

最終的獎勵函數(shù)是:如果任務成功(I_success=1),則獎勵等于1加上β乘以min(R_comp, γ);如果任務失?。↖_success=0),則獎勵為零。這個設計有幾個精妙之處值得細說。

獎勵里用了"乘法門控":只有任務成功了,壓縮獎勵才會被加上去。這防止了AI為了追求壓縮分數(shù)而犧牲正確率——如果AI把推理寫得極短,摘要也超級簡潔,但任務失敗了,它什么獎勵都得不到。

同時,獎勵里對壓縮率設了一個上限γ(設定值為0.55):如果壓縮率已經(jīng)達到了55%,繼續(xù)提升就不會再帶來更多獎勵了。這防止了另一種作弊方式——AI可能會故意把推理寫得極長,這樣即使摘要也很長,"壓縮率"看起來還是很高(分母變大了),但實際上并沒有節(jié)省上下文。設了上限之后,這種"膨脹分母"的把戲就沒有意義了。

研究團隊還特別解釋了為什么使用"全局軌跡壓縮率"而不是"每步壓縮率的平均值"。原因在于,有些步驟(比如"按計劃執(zhí)行剛才決定的腳本")本來就是簡單的例行操作,推理本身就很短,摘要和推理差不多長,本地壓縮率近乎零。如果用每步壓縮率,AI會被激勵在這些簡單步驟上"水推理"以提高分母,這是沒有意義的。而全局壓縮率天然對這類簡單步驟的貢獻不敏感,把優(yōu)化重心集中在了那些推理又長、又確實可以大幅壓縮的"深度思考步驟"上,引導AI在復雜問題上充分展開、在簡單操作上精練表達。

**六、實驗結(jié)果:數(shù)字背后的真實意義**

研究團隊在SWE-Bench Verified基準測試上評估了SWE-AGILE,這個基準包含500個來自12個真實GitHub代碼倉庫的軟件問題。

從結(jié)果來看,僅經(jīng)過監(jiān)督微調(diào)的SWE-AGILE(SFT版本)使用Qwen3-8B模型,在只有2200條訓練軌跡的情況下,成功率達到了21.45%。這個數(shù)字有幾個值得關注的維度:相比基礎的Qwen3-8B模型(15.83%),這是35.5%的相對提升;而同樣規(guī)模的7B/8B級別競爭對手中,R2EGym用了3300條軌跡達到19%,SWE-Dev用了19300條軌跡達到23.4%——SWE-AGILE用少得多的數(shù)據(jù)超過了前者,并接近了后者。

加入強化學習階段后,SWE-AGILE(SFT+RL)的成功率進一步提升到24.05%,超過了所有同等規(guī)模的基線。更值得一提的是,這個8B模型的成績甚至超過了基于14B參數(shù)模型的SkyRL-Agent-v0(21.6%)。在可擴展性驗證上,將SWE-AGILE的SFT流水線應用于Qwen3-14B,成功率躍升至30.06%,大幅領先現(xiàn)有14B基線。SWE-Bench Lite上,SWE-AGILE-8B的成功率為14.77%,同樣超過了SWE-smith-7B(11.7%)和R2EGym(11.0%)。

研究團隊還仔細分析了模型的"每步平均推理長度"。實驗發(fā)現(xiàn),"當前步驟思考"的基線方法平均每步需要約1075個token的推理,因為每步都要從頭重建狀態(tài);SWE-AGILE(SFT+RL完整版)的平均每步推理降低到了約819.6個token,減少了約28%。這驗證了推理摘要和滑動窗口確實起到了"認知緩存"的作用——AI不再需要每次都從原始觀察重新推導,而是能從摘要中快速獲取歷史狀態(tài),把推理資源集中在真正需要的新問題上。

在壓縮獎勵的效果驗證上,對比有無壓縮獎勵的RL版本可以發(fā)現(xiàn),加入壓縮獎勵后,推理摘要(dt)的平均長度從41個token降低到了27.3個token,減少了33.4%,而任務成功率幾乎沒有變化(23.45%對比24.05%)。每步節(jié)省13.7個token看起來不多,但考慮到一條軌跡平均有二十多步,并且未來還可以將這一機制擴展到壓縮工具輸出(工具執(zhí)行結(jié)果往往占據(jù)大量上下文),節(jié)省效果會顯著放大。

**七、與同類方法的區(qū)別:為什么不用現(xiàn)成的壓縮技術?**

有人可能會問:現(xiàn)在不是已經(jīng)有很多"壓縮推理"的技術了嗎?比如LightThinker、InftyThink,為什么還要專門設計SWE-AGILE?

這是一個好問題,研究團隊在論文中也給出了解釋。LightThinker和InftyThink等技術解決的是"單輪內(nèi)的推理壓縮"問題——就是如何在一次對話中,把過于冗長的內(nèi)部思考過程壓縮得更短。但SWE-AGILE面對的是另一個維度的挑戰(zhàn):如何在幾十輪來回交互的過程中,保持認知連貫性的同時不讓歷史積累的推理拖垮整個系統(tǒng)。這兩個問題本質(zhì)上是正交的(互不干擾的),SWE-AGILE實際上可以和這些單輪壓縮技術疊加使用,潛力更大。

與LangChain的對話摘要緩存(ConversationSummaryBufferMemory)和MemGPT的工作上下文相比,SWE-AGILE也有兩點關鍵區(qū)別。前者是對整體對話歷史做增量摘要,生成一個不斷生長的摘要段落;后者是維護一塊固定大小的非結(jié)構化文本塊。而SWE-AGILE的壓縮目標是"推理過程"本身而非通用的交互內(nèi)容,而且每步生成一個獨立的結(jié)構化摘要條目,而非滾動更新一個大摘要——這種結(jié)構化的方式更符合大語言模型的預訓練行為模式,也降低了摘要之間層層傳遞可能帶來的錯誤累積風險。

**八、未來的方向與局限**

研究團隊在論文末尾坦誠地指出了當前版本的局限?;瑒哟翱诘拇笮在整個流程中都被設定為2到5之間的隨機整數(shù),這種設定雖然證明了系統(tǒng)的魯棒性(它能適應不同窗口大?。?,但關于"最優(yōu)窗口大小是多少"以及"窗口大小是否應該根據(jù)任務復雜度動態(tài)調(diào)整",目前還沒有系統(tǒng)性分析。

此外,論文提到了一個很有前景的未來方向:當前的機制能隱式地減少冗余狀態(tài)重建(推理變短了),但還沒有辦法顯式地檢測和懲罰冗余推理。未來可以通過計算相鄰步驟推理的語義相似度,或者用"AI評判者"來識別重復分析,進而直接過濾掉冗余的SFT軌跡,或者設計專門針對重復分析的RL懲罰項,把認知效率優(yōu)化推向一個新的邊界。

歸根結(jié)底,SWE-AGILE解決的是一個在AI走向?qū)嵱没^程中繞不開的基礎問題:當一個AI系統(tǒng)需要在復雜的現(xiàn)實任務中持續(xù)工作幾十輪,它的記憶該如何管理,思考該如何保持深度而不失控。廈門大學的這項研究給出了一個結(jié)構清晰、實驗扎實的答案:不是"全記",也不是"全忘",而是用一個精心設計的滑動窗口,讓近期的深度思考完整保留,讓遠期的歷史思考凝練成摘要——這樣的AI才能既聰明又持久。對于人工智能走向更復雜、更長程的實際任務場景,這或許是一個值得深入探索的方向。你可能會好奇:隨著這類技術不斷進步,有一天AI程序員會不會真的能獨立處理一個完整軟件項目的全部Bug,而不僅僅是一個孤立問題?這個問題,也許在不久之后就會有答案。希望追蹤這一方向的讀者可以通過arXiv:2604.11716查閱原論文。

Q&A

Q1:SWE-AGILE中的"推理摘要"和普通的對話摘要有什么不同?

A:普通對話摘要(比如LangChain的方案)是把所有歷史對話內(nèi)容滾動壓縮成一段越來越長的摘要段落,壓縮對象是通用交互內(nèi)容。SWE-AGILE的推理摘要專門針對AI的"思考過程"本身,而不是操作記錄。而且每一步獨立生成一個結(jié)構化的摘要條目,不會層層疊加,降低了錯誤累積的風險,也更符合大語言模型的處理習慣。

Q2:軌跡快照訓練為什么有必要,直接用普通訓練方式不行嗎?

A:不行。普通訓練會把整條軌跡作為一個連續(xù)序列,讓AI學習時能看到所有歷史推理細節(jié)。但SWE-AGILE在實際運行時,窗口外的推理細節(jié)已經(jīng)被摘要替換掉了。用普通方式訓練出來的AI,學到的是一種"訓練時能看到、運行時看不到"的條件下的行為,會造成訓練和推理之間的根本錯位,軌跡快照訓練正是為了消除這個錯位。

Q3:反填數(shù)據(jù)合成為什么要提供"正確操作"給推理合成模型?

A:這是"事后反填"(Hindsight Backfill)的核心思路。知道答案之后再"補寫推理過程",能確保合成的推理必然指向正確結(jié)論,質(zhì)量更高、格式更可控。如果不提供答案,推理模型只能從當前狀態(tài)自由生成,可能得出錯誤結(jié)論,甚至和實際執(zhí)行的操作相互矛盾,這樣的數(shù)據(jù)反而會誤導訓練。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
綜合ROI時代,這些高速增長的商家做對了什么?

綜合ROI時代,這些高速增長的商家做對了什么?

刀法研究所
2026-04-16 15:00:13
G2湖人101-94戰(zhàn)勝火箭 球員評價:4人優(yōu)秀,3人及格,2人低迷

G2湖人101-94戰(zhàn)勝火箭 球員評價:4人優(yōu)秀,3人及格,2人低迷

籃球資訊達人
2026-04-22 13:27:16
注意!6月1日起大醫(yī)院不再隨意接診,看病不按規(guī)矩可能白跑

注意!6月1日起大醫(yī)院不再隨意接診,看病不按規(guī)矩可能白跑

夜深愛雜談
2026-04-21 07:45:20
iPhone Fold 國內(nèi)售價1.4萬元?散熱方案曝光,這次信息量有點大

iPhone Fold 國內(nèi)售價1.4萬元?散熱方案曝光,這次信息量有點大

數(shù)碼Antenna
2026-04-22 11:47:48
建國后外逃級別最高的貪官!至今未落網(wǎng),23年來逃跑方式仍是謎

建國后外逃級別最高的貪官!至今未落網(wǎng),23年來逃跑方式仍是謎

老范談史
2026-04-22 16:45:31
段睿悲痛萬分,深夜發(fā)布訃告:他走了,再也沒有人等我回去了!

段睿悲痛萬分,深夜發(fā)布訃告:他走了,再也沒有人等我回去了!

米果說識
2026-04-22 14:41:50
到賬230億,賈躍亭起飛!

到賬230億,賈躍亭起飛!

鳴金網(wǎng)
2026-04-21 19:58:22
華為乾崑的3次“死磕”舉動,成了車圈最難抄的作業(yè)

華為乾崑的3次“死磕”舉動,成了車圈最難抄的作業(yè)

金錯刀
2026-04-21 14:22:17
炸裂!網(wǎng)傳寧波某豪宅業(yè)主群夫妻大戰(zhàn),虎狼之詞流出,444人圍觀

炸裂!網(wǎng)傳寧波某豪宅業(yè)主群夫妻大戰(zhàn),虎狼之詞流出,444人圍觀

火山詩話
2026-04-22 17:56:13
拼多多暴力抗法震驚全網(wǎng),市值萬億巨頭為何如此囂張

拼多多暴力抗法震驚全網(wǎng),市值萬億巨頭為何如此囂張

燕梳樓頻道
2026-04-20 21:12:04
你寫的Skill,正在拖慢模型?策略式Gene才是正確答案

你寫的Skill,正在拖慢模型?策略式Gene才是正確答案

機器之心Pro
2026-04-21 18:54:52
5月1日起正式嚴打!8類灰色行為直接入刑,所有人務必警惕

5月1日起正式嚴打!8類灰色行為直接入刑,所有人務必警惕

另子維愛讀史
2026-04-22 07:39:03
曾高喊打敗美帝:如今卻全家跑去美國,84歲活成這樣,引人熱議!

曾高喊打敗美帝:如今卻全家跑去美國,84歲活成這樣,引人熱議!

小莜讀史
2026-04-20 22:58:35
演員王大陸一審被判刑

演員王大陸一審被判刑

極目新聞
2026-04-22 12:35:08
情侶約會求“刺激”,雙雙被抓,審訊時互相甩鍋

情侶約會求“刺激”,雙雙被抓,審訊時互相甩鍋

深圳晚報
2026-04-22 10:11:17
讓華北的地下水上一次熱搜吧!

讓華北的地下水上一次熱搜吧!

細雨中的呼喊
2026-04-22 13:29:31
2013年,江青拍攝的照片以34萬元的高價拍出,毛澤東曾稱贊并題詞

2013年,江青拍攝的照片以34萬元的高價拍出,毛澤東曾稱贊并題詞

南書房
2026-04-21 07:25:06
俄羅斯為什么刪除20年法院數(shù)據(jù):審判記錄一夜清空

俄羅斯為什么刪除20年法院數(shù)據(jù):審判記錄一夜清空

律法刑道
2026-04-22 08:53:34
把 DeepSeek、Kimi、智譜和 MiniMax 拉進群聊

把 DeepSeek、Kimi、智譜和 MiniMax 拉進群聊

愛范兒
2026-04-21 22:36:25
出海更難了!俄朝圖們江公路大橋合攏,預計今年6月正式通車

出海更難了!俄朝圖們江公路大橋合攏,預計今年6月正式通車

全城探秘
2026-04-22 16:41:13
2026-04-22 19:39:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
8088文章數(shù) 562關注度
往期回顧 全部

科技要聞

對話梅濤:沒有視頻底座,具身智能走不遠

頭條要聞

朝鮮發(fā)聲痛批日本 要求日本向中國道歉

頭條要聞

朝鮮發(fā)聲痛批日本 要求日本向中國道歉

體育要聞

網(wǎng)易傳媒再度簽約法國隊和阿根廷隊

娛樂要聞

復婚無望!baby黃曉明陪小海綿零交流

財經(jīng)要聞

伊朗拒絕出席 特朗普宣布延長?;鹌谙?/h3>

汽車要聞

純電續(xù)航301km+激光雷達 宋Pro DM-i飛馳版9.99萬起

態(tài)度原創(chuàng)

數(shù)碼
旅游
藝術
本地
公開課

數(shù)碼要聞

Beats發(fā)布3米USB-C數(shù)據(jù)線:售229元 最高240W快充

旅游要聞

江蘇兩地入選!蘇州再登“2025年游客滿意十佳城市”

藝術要聞

無花不風景

本地新聞

春色滿城關不?。座N梅浪漫盛放,吳山藏了一片四月雪

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版