国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

堆推理鏈全錯了!林俊旸離職首曝:曾在阿里 Qwen 踩中一個“致命”技術誤區(qū)

0
分享至


作者 | 允毅

在外界圍繞“Harness Engineer”討論得熱火朝天之際,阿里千問技術負責人林俊旸在離職后首次公開發(fā)聲。

昨天深夜,他發(fā)布了一篇長文《From “Reasoning” Thinking to “Agentic” Thinking》(從“推理”思維到“智能體思維”),對 AI 下一波能力躍遷作出了一次系統(tǒng)性的判斷:大模型的未來,不是繼續(xù)把推理鏈拉得更長,而是轉(zhuǎn)向一種為了行動而思考、在環(huán)境中思考、并通過反饋閉環(huán)持續(xù)修正的“智能體思維”

在這篇文章中,林俊旸罕見復盤了Qwen 在訓練過程中的一次關鍵嘗試,以及他為何最終改變了判斷。

他在文中提到,2025 年初,團隊曾試圖挑戰(zhàn)一件事:把 thinking 和 Instruct 模式合并到同一個模型中。在他的理想設定里,一個真正先進的模型,不應只有“會不會思考”這一個開關,而應該能夠根據(jù)提示詞和上下文,自動判斷該投入多少推理計算:什么問題可以直接回答,什么問題需要多想一會兒,什么問題又值得顯著增加計算量。

Qwen3 正是這一方向的一次大膽嘗試,它首次引入了混合思維模式。但在林俊旸看來,結(jié)果并不理想。

合并之后,thinking 往往變得更啰嗦、更猶豫,而 Instruct 模式 也不再像過去那樣干脆、穩(wěn)定、低成本。問題的根源不在模型開關,而在數(shù)據(jù)本身:兩種模式對應的數(shù)據(jù)分布不同、行為目標不同,如果缺乏精細化的融合與校準,最終往往不是“取長補短”,而是“兩頭都受損”。

這也是為什么,盡管 OpenAI 的 o1 和 DeepSeek-R1 已經(jīng)證明推理能力可以被訓練、被復現(xiàn),并在 2025 年上半年將行業(yè)帶入“推理模型時代”,大家都在思考如何讓模型在推理階段投入更多計算、如何用更強獎勵信號訓練它們、如何控制額外的推理開銷時,林俊旸卻開始追問另一個更根本的問題:大模型最好的思考方式,到底應該是什么樣子?

他給出的答案是,單純延長推理鏈并不是終點。真正更有效的方向,是讓模型為了行動而思考。

在這一判斷上,Anthropic 給了他重要啟發(fā)。林俊旸注意到,Anthropic 在 Claude 3.7 和 Claude 4 上,始終強調(diào)“思考應該由目標工作負載來塑造”

Claude 3.7 被定義為一個帶有可控預算的混合式推理模型;Claude 4 則更進一步,允許推理過程與工具使用交錯進行。這種思路背后的關鍵,不是讓模型輸出更長的思維鏈,而是讓思考真正服務于編碼、工具調(diào)用、長時任務和智能體工作流。

由此,林俊旸重新審視了自己此前的實驗,也重新界定了“合并”這件事的真正含義。在他看來,理想中的統(tǒng)一,并不是把 thinking 和 Instruct 模式 粗暴塞進同一個 checkpoint,而是讓模型擁有一個更平滑的推理光譜:它既能表達不同層級的推理強度,也能在理想情況下根據(jù)任務難度自適應地做出選擇。

這也構成了他對 AI 下一階段最核心的判斷:從“推理思維”走向“智能體思維”。

如果說推理思維的典型形態(tài),是靜態(tài)的、內(nèi)部的、偏獨白式的長推理鏈;那么智能體思維則完全不同。它不是在封閉的模型內(nèi)部“想得更久”,而是在與環(huán)境持續(xù)互動的過程中思考,在行動中調(diào)用工具、獲取反饋、修正策略,并把思考真正嵌入到執(zhí)行過程之中。

這意味著,未來更強的模型不只是“更會解題”,還必須能夠處理一系列純推理模型很難解決的問題:

  • 決定什么時候該停止思考并采取行動

  • 選擇調(diào)用哪個工具,以及調(diào)用順序

  • 吸收來自環(huán)境的噪聲觀測或不完整觀測

  • 在失敗之后修訂計劃

  • 在多輪交互、多個工具調(diào)用之間保持一致性

這與最近被頻繁討論的Harness Engineering正相對應。

按照林俊旸的理解,未來智能體能力的核心,越來越不只來自模型本身,也來自圍繞模型搭建的那套“腳手架”——也就是環(huán)境、工具、約束、反饋循環(huán),以及多智能體協(xié)同機制。Harness Engineering 的價值,正是在于把一個“裸模型”變成一個能夠在現(xiàn)實任務中持續(xù)行動、持續(xù)修正、持續(xù)完成工作的 Agent。

在推理時代,領先主要來自更強的強化學習算法、更穩(wěn)定的反饋信號和更可擴展的訓練流水線;而在智能體時代,領先將越來越取決于誰能構建出更好的環(huán)境、更緊密的訓推協(xié)同、更強的 harness engineering,以及誰能真正把模型的決策與現(xiàn)實后果閉環(huán)起來。

以下是林俊旸全文展現(xiàn):

從“推理”思維到“智能體思維”

過去兩年,重塑了我們評估模型的方式,也重塑了我們對模型的期待。OpenAI 的 o1 表明,“思考”可以成為一項核心能力:它既可以被專門訓練,也可以被直接呈現(xiàn)給用戶。DeepSeek-R1 則證明,以推理為中心的后訓練范式并非原始實驗室獨有,它可以在外部被復現(xiàn)并進一步擴展。OpenAI 將 o1 描述為一個通過強化學習訓練、能夠“先思考再作答”的模型;DeepSeek 則將 R1 定位為一個可與 o1 競爭的開源推理模型。

那個階段當然重要。但 2025 年上半年,行業(yè)主要關注的仍然是“推理式思維”:如何讓模型在推理階段投入更多計算,如何用更強的獎勵信號來訓練它們,以及如何展示或控制這部分額外的推理開銷。現(xiàn)在的問題是,下一步會是什么?我認為答案是:智能體思維。也就是為了行動而思考,在與環(huán)境互動的過程中思考,并根據(jù)來自外部世界的反饋不斷調(diào)整計劃。

1. o1 和 R1 的興起,究竟教會了我們什么

第一波推理模型告訴我們:如果想在語言模型上擴展強化學習,就需要確定、穩(wěn)定、可擴展的反饋信號。數(shù)學、代碼、邏輯以及其他可驗證領域因此變得格外關鍵,因為這些場景下的獎勵信號遠強于一般性的偏好監(jiān)督。它們讓強化學習優(yōu)化的是“正確性”,而不是“看起來合理”。基礎設施也因此變得至關重要。

一旦模型被訓練到能夠處理更長的推理軌跡,強化學習就不再只是監(jiān)督微調(diào)上的一個輕量附加模塊,而會變成一個系統(tǒng)工程問題。你需要大規(guī)模 rollout 生成、高吞吐驗證、穩(wěn)定的策略更新以及高效的采樣。推理模型的出現(xiàn),既是模型層面的故事,也是基礎設施層面的故事。OpenAI 將 o1 描述為一條通過強化學習訓練出來的推理模型路線;而 DeepSeek R1 隨后進一步強化了這一方向,展示了基于推理的強化學習對專門算法和基礎設施投入有多高。第一個重要轉(zhuǎn)變,就是從擴展預訓練,轉(zhuǎn)向擴展面向推理的后訓練。

2. 真正的問題,從來不只是“把思考模式和 Instruct 模式 合并”

在 2025 年初,Qwen 團隊中的許多人腦海里都有一個頗具野心的愿景。理想中的系統(tǒng),應當統(tǒng)一思考模式與 Instruct 模式。它應支持可調(diào)節(jié)的推理難度或推理光譜,類似 low 、 medium、high 這樣的推理檔位。更理想的是,它還能根據(jù)提示詞和上下文自動判斷合適的推理強度,讓模型自己決定:什么時候可以立即回答,什么時候需要多想一會兒,什么時候又值得為真正困難的問題投入更多計算。

從概念上看,這個方向是對的。Qwen3 可以說是其中最清晰的公開嘗試之一。它提出了“混合思考模式”,支持同一模型家族同時具備思考與非思考兩種行為,強調(diào)可控的思考預算,并描述了一個四階段的后訓練流程,其中在長鏈思維冷啟動和推理強化學習之后,明確包含了“思考模式融合”。

但“合并”說起來容易,真正做好卻很難。難點在于數(shù)據(jù)。人們談到合并思考模式與 Instruct 模式 時,往往首先想到的是模型側(cè)的兼容性:一個 checkpoint 能不能同時支持兩種模式,一個聊天模板能不能在二者之間切換,一套服務棧能不能暴露合適的開關。可更深層的問題在于,這兩種模式對應的數(shù)據(jù)分布和行為目標本身就有明顯差異。

在試圖平衡模型合并與提升后訓練數(shù)據(jù)質(zhì)量、數(shù)據(jù)多樣性的過程中,我們并不是每一步都做得盡善盡美。在那輪調(diào)整中,我們也格外關注了用戶究竟是如何使用思考模式和 Instruct 模式 的。一個強大的 Instruct 模式 模型,通常因其直接、簡潔、格式遵循度高,以及在重寫、標注、模板化客服、結(jié)構化抽取、運營問答等高頻高吞吐企業(yè)任務上的低延遲表現(xiàn)而受到獎勵。一個強大的思考模型,則會因其在難題上愿意投入更多 token、能維持連貫的中間結(jié)構、能探索備選路徑,并保留足夠的內(nèi)部計算以切實提升最終正確率而受到獎勵。

這兩種行為畫像天然存在拉扯。如果合并數(shù)據(jù)沒有經(jīng)過足夠精細的篩選和設計,結(jié)果往往是兩邊都做不好:“思考”行為會變得嘈雜、臃腫、猶疑不決;而“Instruct 模式”行為則會失去應有的利落、可靠和成本優(yōu)勢,不再符合商業(yè)用戶的實際需求。

因此,在實踐中,“分開做”依然很有吸引力。2025 年稍晚些時候,在 Qwen3 最初提出混合框架之后,2507 系列推出了彼此獨立的 Instruct 和 Thinking 更新,其中包括分別獨立的 30B 和 235B 版本。在商業(yè)部署中,大量客戶依然需要的是高吞吐、低成本、強可控的 Instruct 模式 行為,用于批量化操作。對這些場景來說,合并并不一定帶來明確收益。將產(chǎn)品線拆開,反而能讓團隊更清晰地分別解決兩種模式各自對應的數(shù)據(jù)和訓練問題。

其他實驗室則選擇了相反的道路。Anthropic 公開主張一種一體化模型哲學:Claude 3.7 Sonnet 被定義為一個混合式推理模型,用戶既可以選擇普通回答,也可以選擇擴展思考;API 用戶還可以設置思考預算。Anthropic 明確表示,他們相信推理應當是一種集成能力,而不是一個單獨的模型。GLM-4.5 也公開將自己定位為混合式推理模型,同時支持思考與非思考模式,并統(tǒng)一了推理、編碼和智能體能力;DeepSeek 后來在 V3.1 上也朝類似方向邁進,推出了“Think & Non-Think”的混合推理。

關鍵問題在于,這種融合是否是“自然長出來的”。如果思考模式和 Instruct 模式 只是被塞進同一個 checkpoint 里,但表現(xiàn)出來仍像兩個生硬拼接的人格,那么產(chǎn)品體驗依然不會自然。真正成功的融合,要求推理投入是一個平滑連續(xù)的譜系。模型應能夠表達多個層級的推理強度,并且理想情況下,還能自適應地做出選擇。GPT 風格的 effort control 正指向這個方向:它不是一個二元開關,而是一套關于計算投入的策略。

3. 為什么 Anthropic 的方向是一種有益的糾偏

Anthropic 圍繞 Claude 3.7 和 Claude 4 的公開表述是相當克制的。他們強調(diào)的是一體化推理、用戶可控的思考預算、真實世界任務、代碼質(zhì)量,以及后續(xù)在擴展思考過程中使用工具的能力。Claude 3.7 被描述為一個帶有可控預算的混合式推理模型;Claude 4 則在此基礎上更進一步,允許推理過程與工具使用交錯進行。與此同時,Anthropic 還將編碼、長時任務和智能體工作流明確放在核心目標位置上。

更長的推理軌跡,并不會自動讓模型變得更聰明。很多時候,過度外顯的推理反而暴露了資源分配不當。如果模型試圖用同樣冗長的方式去“思考”所有問題,它可能其實是在優(yōu)先級判斷上出了問題,沒能有效壓縮信息,也沒能及時采取行動。Anthropic 的路線傳達出一種更克制、更有紀律性的看法:思考應當由目標工作負載來塑造。如果目標是編碼,那么思考就應當幫助模型進行代碼庫導航、任務規(guī)劃、問題拆解、錯誤恢復和工具編排;如果目標是智能體工作流,那么思考就應當提升模型在長時間尺度上的執(zhí)行質(zhì)量,而不是產(chǎn)出一段看起來很厲害的中間推理文本。

這種對“目標效用”的強調(diào),實際上指向了一個更大的變化:我們正在從“訓練模型”的時代,邁向“訓練智能體”的時代。我們在 Qwen3 的博客里也明確寫過:“我們正在從一個專注于訓練模型的時代,轉(zhuǎn)向一個以訓練智能體為中心的時代。”同時,我們也把未來強化學習的推進方向,與依賴環(huán)境反饋的長時程推理聯(lián)系在了一起。一個智能體,是那種能夠制定計劃、決定何時行動、使用工具、感知環(huán)境反饋、修正策略,并在較長時間范圍內(nèi)持續(xù)推進任務的系統(tǒng)。它的本質(zhì),在于與世界之間的閉環(huán)交互。

4. “智能體思維”到底意味著什么

智能體思維對應的是一個完全不同的優(yōu)化目標。推理式思維通??粗氐氖牵耗P驮诮o出最終答案之前,內(nèi)部思考的質(zhì)量如何——它能不能解出定理、寫出證明、產(chǎn)出正確代碼,或者通過基準測試。智能體思維關注的則是:模型在與環(huán)境交互的過程中,能否持續(xù)推進問題的解決。

核心問題也因此從“模型能不能想得足夠久”,轉(zhuǎn)變?yōu)椤澳P湍懿荒芤砸环N能夠支撐有效行動的方式去思考”。智能體思維必須處理若干純推理模型往往可以回避的問題:

  • 決定什么時候該停止思考并采取行動

  • 選擇調(diào)用哪個工具,以及調(diào)用順序

  • 吸收來自環(huán)境的噪聲觀測或不完整觀測

  • 在失敗之后修訂計劃

  • 在多輪交互、多個工具調(diào)用之間保持一致性

智能體思維,本質(zhì)上是一種圍繞行動展開、在環(huán)境中運作、并依賴反饋閉環(huán)不斷修正自身的思維能力。它不是為了生成更長的中間過程而思考,而是為了讓行動持續(xù)有效地推進。

5. 為什么智能體強化學習的基礎設施更難

一旦目標從“解基準題”變成“解交互任務”,強化學習的整套技術棧就會發(fā)生變化。用于經(jīng)典推理強化學習的基礎設施已經(jīng)不夠用了。在推理強化學習里,你通常還能把 rollout 生成視為相對自包含的軌跡,配合相對干凈的評估器。而在智能體強化學習里,策略是被嵌入在一個更大的執(zhí)行框架中的:工具服務器、瀏覽器、終端、搜索引擎、模擬器、執(zhí)行沙箱、API 層、記憶系統(tǒng),以及各種編排框架。環(huán)境不再只是一個靜態(tài)驗證器,而成為訓練系統(tǒng)本身的一部分。

這就帶來了一個新的系統(tǒng)要求:訓練與推理必須更徹底地解耦。如果做不到這一點,rollout 生成的吞吐會迅速崩掉。設想一個編碼智能體,它需要把自己生成的代碼放到實時測試環(huán)境里執(zhí)行:推理側(cè)會因為等待執(zhí)行反饋而卡住,訓練側(cè)又會因為拿不到完成的軌跡而“斷糧”,整條流水線的 GPU 利用率會遠低于經(jīng)典推理強化學習中的水平。再疊加工具延遲、部分可觀測性和有狀態(tài)環(huán)境,這些低效只會被進一步放大。最終,實驗會在離目標能力還很遠的時候,就已經(jīng)變得緩慢、痛苦且難以擴展。

環(huán)境本身,也因此成了一類一等研究對象。在 SFT 時代,我們癡迷的是數(shù)據(jù)多樣性;在智能體時代,我們應該癡迷的是環(huán)境質(zhì)量:穩(wěn)定性、真實性、覆蓋面、難度、狀態(tài)多樣性、反饋豐富度、抗利用能力,以及 rollout 生成的可擴展性。環(huán)境構建已經(jīng)開始從“順手做的副項目”,變成一個真正的創(chuàng)業(yè)賽道。如果智能體的目標是在接近生產(chǎn)環(huán)境的設置中運行,那么環(huán)境本身就是核心能力棧的一部分。

6. 下一個前沿,是更“可用”的思考

我的判斷是,智能體思維會成為未來最主要的思考形態(tài)。我甚至認為,它最終可能替代掉大量舊式的、靜態(tài)獨白式的推理:那種冗長、孤立的內(nèi)部思維軌跡,試圖通過輸出越來越多文本來彌補無法交互的缺陷。即便面對非常困難的數(shù)學題或編碼任務,一個真正先進的系統(tǒng)也應該有權去搜索、模擬、執(zhí)行、檢查、驗證和修正。目標應當是穩(wěn)健、高效地解決問題,而不是單純展示一段很長的“思考過程”。

訓練這類系統(tǒng)時最棘手的挑戰(zhàn),是 reward hacking。一旦模型獲得了真正有用的工具訪問權限,reward hacking 就會變得危險得多。一個帶搜索能力的模型,可能會在強化學習過程中學會直接搜索答案;一個編碼智能體,可能會利用代碼倉庫里的未來信息、濫用日志,或者發(fā)現(xiàn)一些讓任務本身失效的捷徑。一個存在隱蔽泄漏的環(huán)境,會讓策略看起來像“超人”,而實際上它學到的只是作弊。這正是為什么智能體時代要比推理時代微妙得多。更強的工具當然會讓模型更有用,但也同時擴大了偽優(yōu)化的攻擊面。我們應當預期,下一批真正嚴肅的研究瓶頸,將來自環(huán)境設計、評估器魯棒性、反作弊協(xié)議,以及策略與世界之間更原則化的接口設計。盡管如此,方向是明確的:能夠借助工具進行思考,顯然比孤立思考更有用,也更有機會真正提升生產(chǎn)力。

智能體思維也意味著 harness engineering 會變得越來越重要。未來的核心智能,將越來越多地體現(xiàn)在多個智能體的組織方式上:一個負責規(guī)劃與分發(fā)工作的協(xié)調(diào)器,一些扮演領域?qū)<业膶S弥悄荏w,以及一些處理更窄任務范圍的子智能體;這些子智能體不僅負責執(zhí)行,也有助于控制上下文、避免污染,并維持不同推理層級之間的隔離。未來的演進路徑,將是從訓練模型,走向訓練智能體,再走向訓練系統(tǒng)。

結(jié) 論

推理浪潮的第一階段,確立了一件重要的事:當反饋信號足夠可靠、基礎設施足以支撐時,在語言模型之上施加強化學習,能夠帶來質(zhì)量層面顯著更強的認知能力。

而更深層的變化,是從“推理式思維”走向“智能體思維”:從“想得更久”,轉(zhuǎn)向“為了行動而思考”。訓練的核心對象已經(jīng)改變了。它不再只是模型本身,而是“模型 + 環(huán)境”組成的系統(tǒng);更具體地說,是智能體及其周邊的執(zhí)行框架。這也改變了哪些研究產(chǎn)物最重要:模型架構和訓練數(shù)據(jù)當然依舊重要,但環(huán)境設計、rollout 基礎設施、評估器魯棒性,以及多智能體協(xié)同所依賴的接口,同樣變得關鍵。它還改變了“好的思考”到底意味著什么:真正有價值的,不是最長、最顯眼的思維軌跡,而是在現(xiàn)實約束下最能支撐持續(xù)行動、最能在環(huán)境中有效運作、并能通過反饋閉環(huán)不斷修正的那種思考。

這也改變了競爭優(yōu)勢將來自哪里。在推理時代,優(yōu)勢主要來自更好的強化學習算法、更強的反饋信號,以及更可擴展的訓練流水線。而在智能體時代,優(yōu)勢將更多來自更好的環(huán)境、更緊密的訓推協(xié)同、更強的 harness engineering,以及把模型決策與其后果真正閉環(huán)起來的能力。

https://x.com/justinlin610/status/2037116325210829168?s=46

聲明:本文為 AI 前線整理,不代表平臺觀點,未經(jīng)許可禁止轉(zhuǎn)載。

會議推薦

OpenClaw 出圈,“養(yǎng)蝦”潮狂熱,開年 Agentic AI 這把火燒得不可謂不旺。在這一熱潮下,自托管 Agent 形態(tài)迅速普及:多入口對話、持久記憶、Skills 工具鏈帶來強大生產(chǎn)力。但這背后也暴露了工程化落地的真實難題——權限邊界與隔離運行、Skills 供應鏈安全、可觀測與可追溯、記憶分層與跨場景污染、以及如何把 Agent 納入團隊研發(fā) / 運維流程并形成穩(wěn)定收益。

針對這一系列挑戰(zhàn),在 4 月 16-18 日即將舉辦的 QCon 北京站上,我們特別策劃了「OpenClaw 生態(tài)實踐」專題,將聚焦一線實踐與踩坑復盤,分享企業(yè)如何構建私有 Skills、制定安全護欄、搭建審計與回放機制、建立質(zhì)量 / 效率指標體系,最終把自托管 Agent 從可用的 Demo 升級為可靠的生產(chǎn)系統(tǒng)。

今日薦文

你也「在看」嗎?

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
中日關系正在發(fā)生改變:日本表面動作不斷,實則開始另眼看中國

中日關系正在發(fā)生改變:日本表面動作不斷,實則開始另眼看中國

陳漎侃故事
2026-05-07 10:06:51
GPT-5.5 Instant 突然全員免費了!

GPT-5.5 Instant 突然全員免費了!

新浪財經(jīng)
2026-05-07 04:41:37
王清海教授:山楂的3個黃金組合,掃清血管“垃圾”,便宜又好用

王清海教授:山楂的3個黃金組合,掃清血管“垃圾”,便宜又好用

蠟筆小小子
2026-04-21 14:43:37
張才仁侵犯徐杰違體了嗎?專家:誰說這個球不違體的?懸賞100萬

張才仁侵犯徐杰違體了嗎?專家:誰說這個球不違體的?懸賞100萬

南海浪花
2026-05-07 09:48:10
林芳兵現(xiàn)狀:低調(diào)定居北京,61歲知性優(yōu)雅,丈夫兒子都是她的驕傲

林芳兵現(xiàn)狀:低調(diào)定居北京,61歲知性優(yōu)雅,丈夫兒子都是她的驕傲

喜歡歷史的阿繁
2026-05-07 10:59:33
哈佛研究發(fā)現(xiàn):人要有旺盛的生命力,必須有一項運動愛好

哈佛研究發(fā)現(xiàn):人要有旺盛的生命力,必須有一項運動愛好

觀星賞月
2026-05-06 01:42:29
岳陽摩托車飆車后續(xù),現(xiàn)場慘不忍睹2老人當場死亡,肇事者是慣犯

岳陽摩托車飆車后續(xù),現(xiàn)場慘不忍睹2老人當場死亡,肇事者是慣犯

觀察鑒娛
2026-05-07 09:50:00
“白骨精”扮演者楊春霞,一生拒談西游記,至今不肯原諒導演楊潔

“白骨精”扮演者楊春霞,一生拒談西游記,至今不肯原諒導演楊潔

歷史龍元閣
2026-04-30 10:15:20
印巴空戰(zhàn)一周年,巴基斯坦已經(jīng)蛻變

印巴空戰(zhàn)一周年,巴基斯坦已經(jīng)蛻變

觀察者網(wǎng)
2026-05-07 08:48:02
你們都是什么時候?qū)δ信麻_竅的?網(wǎng)友:果然還是攔不住有心人

你們都是什么時候?qū)δ信麻_竅的?網(wǎng)友:果然還是攔不住有心人

夜深愛雜談
2026-02-21 21:37:02
陳思誠這次賠大了!歐神喝酒上位富婆姐!

陳思誠這次賠大了!歐神喝酒上位富婆姐!

八卦瘋叔
2026-05-07 11:33:07
馬光遠高呼深圳房地產(chǎn)爆發(fā),拐點已至!網(wǎng)友:買房人開始著急了…

馬光遠高呼深圳房地產(chǎn)爆發(fā),拐點已至!網(wǎng)友:買房人開始著急了…

火山詩話
2026-05-07 09:59:19
晉祠景區(qū)五一臨時將男廁改女廁,網(wǎng)友:夯爆了!

晉祠景區(qū)五一臨時將男廁改女廁,網(wǎng)友:夯爆了!

黃河新聞網(wǎng)呂梁
2026-05-06 10:18:16
世界級港口被20國爭搶,美國直接叫價千億!可投資方卻只認準中國

世界級港口被20國爭搶,美國直接叫價千億!可投資方卻只認準中國

大運河時空
2026-05-06 13:00:03
倫敦世乒場外暖心一幕!馬龍偶遇奧恰洛夫,場上宿敵也是場下好友

倫敦世乒場外暖心一幕!馬龍偶遇奧恰洛夫,場上宿敵也是場下好友

丹妮觀
2026-05-07 11:01:39
毛主席遺體至今仍面色紅潤,但防腐費用每年需上億元,是真是假?

毛主席遺體至今仍面色紅潤,但防腐費用每年需上億元,是真是假?

歷史龍元閣
2026-05-05 10:15:14
心理學上有個詞叫:螃蟹效應。永遠要記住,和周圍人搞好關系的秘訣就是,不分享喜悅、不炫耀成功、不說三道四、不假裝聰明

心理學上有個詞叫:螃蟹效應。永遠要記住,和周圍人搞好關系的秘訣就是,不分享喜悅、不炫耀成功、不說三道四、不假裝聰明

德魯克博雅管理
2026-04-28 17:04:30
“自由計劃”僅一天就暫停!6日0點后,俄軍仍在大規(guī)模轟炸烏克蘭

“自由計劃”僅一天就暫停!6日0點后,俄軍仍在大規(guī)模轟炸烏克蘭

鷹眼Defence
2026-05-06 16:42:01
中美之間似乎正在復制美日廣場協(xié)議,美元繼續(xù)升值對美國是災難

中美之間似乎正在復制美日廣場協(xié)議,美元繼續(xù)升值對美國是災難

掉了顆大白兔糖
2026-05-05 15:18:03
奧利賽變奧利給,孔帕尼還是太年輕,不是紅牌估計連皇馬都過不去

奧利賽變奧利給,孔帕尼還是太年輕,不是紅牌估計連皇馬都過不去

穆里尼奧主義者
2026-05-07 12:45:34
2026-05-07 13:11:00
AI前線 incentive-icons
AI前線
面向AI愛好者、開發(fā)者和科學家,提供AI領域技術資訊。
1476文章數(shù) 149關注度
往期回顧 全部

科技要聞

凌晨突發(fā)!馬斯克租22萬塊GPU給“死敵”

頭條要聞

北京三位女大學生青海自駕游2死1傷 傷者一審獲刑4年

頭條要聞

北京三位女大學生青海自駕游2死1傷 傷者一審獲刑4年

體育要聞

阿森納巴黎會師歐冠決賽!5月31日開戰(zhàn)

娛樂要聞

小S阿雅重返大S母校,翻看大S畢業(yè)照

財經(jīng)要聞

特朗普:美伊“很有可能”達成協(xié)議

汽車要聞

理想為什么不做轎車,有了解釋……

態(tài)度原創(chuàng)

藝術
本地
健康
旅游
公開課

藝術要聞

這位老教授筆下的青年,活力滿滿

本地新聞

用青花瓷的方式,打開西溪濕地

干細胞治燒燙傷面臨這些“瓶頸”

旅游要聞

“五一”假期盤點:文旅消費亮點紛呈

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版