国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

通研院提出NPR框架,讓智能體進化出原生的并行推理大腦

0
分享至



近年來,大語言模型在「寫得長、寫得順」這件事上進步飛快。但當任務(wù)升級到真正復(fù)雜的推理場景 —— 需要兵分多路探索、需要自我反思與相互印證、需要在多條線索之間做匯總與取舍時,傳統(tǒng)的鏈式思維(Chain-of-Thought)往往就開始「吃力」:容易被早期判斷帶偏、發(fā)散不足、自我糾錯弱,而且順序生成的效率天然受限。

北京通用人工智能研究院(BIGAI)語言交互實驗室(NLCo)最新工作Native Parallel Reasoner(NPR,原生并行推理器),瞄準的正是這類瓶頸:

讓智能體在一次思考中同時衍生并維護多條候選推理路徑,并在關(guān)鍵節(jié)點「分支 + 聚合」,最終像拼圖一樣匯總線索,合成最優(yōu)解。

更重要的是,NPR 的突破點不只是「并行生成的工程技巧」,而是提出了一套「自蒸餾 + 并行強化學(xué)習(xí)」三階段訓(xùn)練范式,并配套專門的并行推理引擎,目標是讓并行推理從外掛變?yōu)槟P偷脑J知能力。



  • 論文標題:Native Parallel Reasoner: Reasoning in Parallelism via Self-Distilled Reinforcement Learning
  • 論文連接:https://arxiv.org/pdf/2512.07461
  • 展示頁面:https://bigai-nlco.github.io/Native-Parallel-Reasoner

人們對語言智能體(Language Agent)的研究已經(jīng)把關(guān)注從「單一思維鏈擴展」推廣到了「多步深度推理」。模型能夠進行更深層次的推理令人興奮,但未來的超級智能真正需要的,是能更廣泛地并行探索多條可能思考路徑—— 也就是在一次推理過程中同時嘗試多種解法,然后再把結(jié)果合并校驗。類似 MapReduce 的分而治之思路對進一步擴展智能體的測試時計算的能力邊界至關(guān)重要,但想把它天然地整合進一個智能體中,存在巨大的挑戰(zhàn)。

1. 算法與架構(gòu)不匹配

現(xiàn)有推理引擎和 RL 算法很難原生地支持「分支 + 聚合」操作。推理引擎通常無法有效調(diào)度并行分支;常用的 RL 技術(shù)又會截斷或削弱那些觸發(fā)并行結(jié)構(gòu)的特殊詞元的梯度,阻礙模型學(xué)習(xí)嚴格的并行控制邏輯。

2. 低效的手工并行機制

早期把并行思路內(nèi)化的嘗試多依賴于手工設(shè)計的分治規(guī)則,無法充分復(fù)用共享的 KV Cache 狀態(tài),導(dǎo)致每個分支重復(fù)計算,時間復(fù)雜度退化到線性 O (N),難以滿足實時或大規(guī)模部署的效率要求。

3. 對強監(jiān)督蒸餾的依賴

像 Multiverse 這類方法雖能實現(xiàn)并行,但高度依賴于強教師模型蒸餾出的示例,無法通過自舉的方式擴展自身的智能邊界。學(xué)生模型不過是在模仿教師的串行拓撲并把它「塞入」并行格式,結(jié)果是把教師的局限也一并繼承,短時間內(nèi)難以產(chǎn)生新的、模型本身固有的并行策略 —— 達到了目前的「智能瓶頸」。

背景與痛點:為什么我們迫切需要并行推理?


人們對智能體的期待,正在從「能多想一步」的單一思維鏈,升級到「能多維思考」的深度推理。未來更強的智能體,必須具備廣泛探索多條思考路徑的能力 —— 這很像經(jīng)典的 MapReduce 思想:把復(fù)雜問題拆開并行處理,再聚合結(jié)果完成全局最優(yōu)的決策。

但要讓模型真正學(xué)會這種「分身術(shù)」,現(xiàn)實里往往卡在三座大山:

1)并行思考數(shù)據(jù)極難獲得:對強教師蒸餾的過度依賴

現(xiàn)有不少并行推理工作需要強教師模型提供高質(zhì)量并行軌跡(如 Multiverse [4] 類方法)。問題在于學(xué)生模型更多是在模仿教師的串行拓撲再「塞進并行格式」,結(jié)果是把教師的局限一并繼承,難以自舉式擴展智能邊界,很難真正涌現(xiàn)出「模型自身固有的并行策略」,形成新的智能瓶頸。

2)低效的手工并行機制:分支之間難共享、重復(fù)計算嚴重

早期模型并行常依賴手工設(shè)計的分治規(guī)則:每條路徑按既定模式推理或生成。由于缺乏對共享步驟的有效復(fù)用,常常出現(xiàn)每個分支都重復(fù)計算公共前綴的情況,效率很難滿足實時推理和大規(guī)模部署需求。

3)基礎(chǔ)設(shè)施與算法對并行架構(gòu)支持不足:分支 + 聚合「學(xué)不會」

現(xiàn)有推理引擎、強化學(xué)習(xí)算法對「分支 — 聚合」結(jié)構(gòu)往往缺乏原生支持:推理引擎難以高效調(diào)度并行分支;常用 RL 技術(shù)可能會截斷或削弱觸發(fā)并行結(jié)構(gòu)的特殊控制詞元梯度,從而阻礙模型學(xué)習(xí)嚴格的并行控制邏輯。

NPR 的核心理念:把「并行性」升維成模型的原生能力


NPR 的關(guān)鍵詞在「原生」二字:研究團隊試圖在零外部監(jiān)督(不依賴強教師并行軌跡)的條件下,探索一條讓模型自我進化出并行推理能力的路徑。

整體思路是一個漸進式的三階段訓(xùn)練范式,讓模型從「會用并行格式寫出來」,逐步過渡到「計算圖層面真的并行執(zhí)行」。

三階段訓(xùn)練范式:從「并行外形」到「并行大腦」


階段一:并行格式學(xué)習(xí) —— 先學(xué)會「怎么寫成并行」

第一步不追求一步到位「真的并行」,而是讓模型先掌握并行推理的表達結(jié)構(gòu):如何標記分支、如何組織多條候選路徑、如何定義聚合點。

階段二:自蒸餾 —— 內(nèi)化「并行思考邏輯」,擺脫外部老師

在具備并行表達能力后,NPR 用自蒸餾方式讓模型用自己的生成結(jié)果反過來訓(xùn)練自己:通過篩選與沉淀,讓模型逐步內(nèi)化「多分支探索 — 相互印證 — 匯總收斂」 的推理規(guī)律,而不是照搬教師的串行偏好與局限。

階段三:并行感知強化學(xué)習(xí) —— 從「模仿并行」邁向「執(zhí)行并行」

最后一步是關(guān)鍵躍遷:利用并行感知的強化學(xué)習(xí),讓模型學(xué)到什么時候該分叉、分叉多少、如何在聚合點進行比較與合并,使并行不再停留在文本表面,而是真正成為推理過程可執(zhí)行的控制邏輯。

這一步把「并行性」從工程技巧,推進到模型的原生能力層面。

如下圖所示,經(jīng)過三個階段的訓(xùn)練,NPR 準確率從約 17% 持續(xù)爬升,最終達到 50.4%(中間兩條學(xué)習(xí)曲線分別對應(yīng)第一階段的格式學(xué)習(xí)與第三階段的并行強化學(xué)習(xí));與傳統(tǒng)推理方式相比,NPR 實現(xiàn)了約 4.6 倍生成加速(右側(cè)柱狀圖)。



NPR 具體實現(xiàn)細節(jié)

NPR 訓(xùn)練范式

Stage 1:Format-following Reinforcement Learning(NPR-ZERO)

  • 目標:在無任何外部并行示例 / 教師情況下,讓模型學(xué)會生成結(jié)構(gòu)化的并行格式(如
  • 等結(jié)構(gòu)化標簽),并盡量保證答案正確性。
  • 方法:以格式合規(guī)與答案正確為獎勵信號,對初始指令微調(diào)模型進行 DAPO 風(fēng)格的強化學(xué)習(xí),從而得到能產(chǎn)出并行格式軌跡的生成器(NPR-ZERO)。這一步為后續(xù)自蒸餾提供原始候選軌跡。

Stage 2:Rejection Sampling + Parallel Warmup(NPR-BETA)

  • 目標:把 Stage 1 的 “格式化產(chǎn)物” 變?yōu)楦哔|(zhì)量的訓(xùn)練數(shù)據(jù)并讓模型在并行語義上穩(wěn)定。
  • 方法:對 NPR-ZERO 進行拒絕采樣并應(yīng)用嚴格的篩選器(必須同時滿足「格式合規(guī)」與「答案正確」),保留自蒸餾的并行推理軌跡,然后在此之上做冷啟動的并行 SFT 預(yù)熱微調(diào),同時引入并行注意力掩碼(Parallel Attention Mask)與并行位置編碼(Parallel Positional Encoding),讓模型內(nèi)部能夠支持并行分支的獨立計算(并實現(xiàn) KV Cache 重用以避免重復(fù)計算)。

Stage 3:Native-Parallel RL(PAPO)

  • 目標:在并行執(zhí)行引擎上用強化學(xué)習(xí)直接優(yōu)化并行分支策略,使其不僅會「寫」并行格式,也會「算」并行結(jié)果。
  • 方法:提出并實現(xiàn)Parallel-Aware Policy Optimization (PAPO)—— 對并行語義做專門修改的策略優(yōu)化方法:使用并行 Rollout 的 NPR-Engine 推理引擎以保證結(jié)構(gòu)正確性、在批次層級進行優(yōu)勢歸一化、保留特殊結(jié)構(gòu)化 Token 的梯度并放棄重要性采樣以維持穩(wěn)定的 On-Policy 同策略梯度更新。PAPO 能直接在并行計算圖內(nèi)優(yōu)化分支策略,從不斷地試錯中學(xué)會有效的問題拆解與合并策略。



關(guān)鍵技術(shù)細節(jié)

1. 自蒸餾與嚴格篩選(Rejection Sampling)

從 NPR-ZERO 生成大量并行格式的候選軌跡后,采用兩條硬性篩選規(guī)則只保留高質(zhì)量樣本進入 D_accept:

  • Outcome Correctness:模型生成的候選軌跡的解析答案與 Ground Truth 一致。
  • Structured Parallelism:輸出嚴格遵循并行格式的 Schema(標簽、塊邊界等)。

當且僅當同時滿足以上兩條規(guī)則的采樣軌跡被接受用于冷啟動并行 SFT(NPR-BETA),此策略顯著減少噪聲并保證訓(xùn)練語料的并行性與可學(xué)習(xí)性。

2. 并行注意力掩碼與并行位置編碼

為在單次前向傳遞中同時存在多條 Reasoning Path,NPR 采用 Multiverse 風(fēng)格的并行注意力掩碼與專門設(shè)計的并行位置編碼(對應(yīng)論文給出的 Algorithm 2 偽代碼),保證不同分支互相隔離但共享上下文 KV Cache,從而實現(xiàn)KV Cache 重用并避免每條分支重復(fù)計算上下文代價。該編碼亦允許通過標簽 Token 標明分支 / 步驟 / 指南塊,便于引擎解析。

3. Parallel-Aware Policy Optimization(PAPO)

并行語義下直接套用經(jīng)典 PPO 或 DAPO 會遇到特殊 Token 被剪裁掉、重要性采樣不穩(wěn)定等問題。PAPO 的主要設(shè)計包括:

  • 并行 Rollout:使用 NPR-Engine 產(chǎn)生嚴格遵守并行 Schema 的軌跡,保證樣本合法。
  • 結(jié)構(gòu)化過濾:格式違規(guī)樣本在進入優(yōu)化前被剔除,獎勵退化為純準確性(+1 / ?1)。
  • 批次級優(yōu)勢歸一化(Batch-level Normalization):由于格式違規(guī)樣本被移除,組內(nèi)方差塌縮,因此用更大范圍(batch 內(nèi)多組)統(tǒng)計標準差來穩(wěn)定優(yōu)勢估計。
  • 保留特殊 Token 的梯度 & 放棄重要性采樣:為防止觸發(fā)并行結(jié)構(gòu)的特殊標簽被裁剪掉,PAPO 在 Token 級別保留梯度流;同時放棄重要性采樣,采用嚴格的 On-policy Objective,避免重采樣比帶來的不穩(wěn)定。



4. AI Infra 工程化改進:NPR-Engine

實驗證明:把并行語義放到生產(chǎn)環(huán)境的并行 RL,會暴露出大量的工程問題(KV Cache 重復(fù)釋放導(dǎo)致的內(nèi)存泄漏、并行 Token 計數(shù)導(dǎo)致的超長生成、非法并行 schema 導(dǎo)致的未定義狀態(tài)等)。論文在引擎層面做了幾項關(guān)鍵修復(fù):

  • 預(yù)算感知的 KV 回收:避免 Radix-Tree KV 路徑的 Opportunistic Recycling 導(dǎo)致 Double-Free,引入預(yù)算感知的確定性回收機制與 Memory Flush 策略。
  • 分支感知的 Token 累積策略:把全局 Token 預(yù)算從 “只看最長分支” 改為 “按活躍分支因子累計”,避免超出 max_new_tokens。
  • 格式預(yù)檢與輕量不變性:在分支展開前加一層格式合法性檢查,快速拒絕潛在非法分支以保證 Determinism。

這些工程改進和實現(xiàn)是確保能穩(wěn)定 Parallel RL 的訓(xùn)練,進而獲得并行思考智能體的前提。

主要實驗與結(jié)論

評測基準與度量

在 8 個推理型基準上評測:AIME24/25、HMMT25、OlympiadBench、Minerva-Math、ZebraLogic、AMC23、MATH500 等。對小規(guī)模競賽類數(shù)據(jù)使用 avg@8(采樣 8 條解答的平均正確率),對大規(guī)?;騿未鹪O(shè)置使用 avg@1。

訓(xùn)練數(shù)據(jù)優(yōu)勢:性能提升的關(guān)鍵在于用自行提煉的數(shù)據(jù)集(NPR-BETA 的 ORZ-8k)替換了 Multiverse 的訓(xùn)練語料庫(MV-4B 的 s1.1-8k)。盡管兩個流程在實現(xiàn)細節(jié)上略有不同,但都依賴于并行式的 SFT,因此比較結(jié)果具有意義。數(shù)據(jù)替換的影響清晰且一致:AIME24 的性能從 46.7 提升至 50.8(+4.1),ZebraLogic 從 60.2 提升至 76.1(+15.9),AMC23 從 75.0 提升至 85.9(+10.9),MATH500 從 81.6 提升至 91.6(+10.0)。總體而言,平均得分從 50.1 提升至 59.0(+8.9)。

并行 SFT 的優(yōu)勢:從順序 SFT(例如 SR-BETA)切換到并行 SFT 方法(NPR-BETA)能夠顯著提升各種推理基準測試的性能。順序 SFT 引入了較強的步驟依賴性先驗,限制了任務(wù)分解的靈活性。相比之下,并行 SFT 在訓(xùn)練過程中使模型能夠接觸到結(jié)構(gòu)上并行的軌跡,從而實現(xiàn)更獨立的子問題探索。具體而言,AIME25 從 37.1 提升至 42.9 (+5.8),OlympiadBench 從 56.3 提升至 60.1 (+3.8),HMMT25 從 22.5 提升至 23.3 (+0.8),ZebraLogic 從 72.8 提升至 76.1 (+3.3)。整體性能從 58.2 提升至 59.0 (+0.8),僅在少數(shù)基準測試中出現(xiàn)輕微退步。

并行強化學(xué)習(xí)優(yōu)勢:基于 NPR-BETA,應(yīng)用并行強化學(xué)習(xí)算法可獲得進一步的性能提升,并始終優(yōu)于順序強化學(xué)習(xí)(NPR 與 SR 相比)。這些改進是廣泛而系統(tǒng)的:AIME24 從 57.1 提升至 63.3(+6.2),HMMT25 從 26.3 提升至 30.8(+4.5),Minerva-Math 從 38.2 提升至 43.0(+4.8)。其他基準測試也顯示出穩(wěn)步提升,AIME25(+1.2)、OlympiadBench(+1.5)、ZebraLogic(+2.8)、AMC23(+2.2)和 MATH500(+0.8)??傮w而言,平均得分從 62.0 提升至 65.0(+3.0)。



Multiverse-32B 在不同數(shù)據(jù)集上的并行率差異顯著,表明其并行推理的采用高度依賴于數(shù)據(jù)集。尤其是在 ZebraLogic 等邏輯密集型任務(wù)上,其性能明顯低于多個數(shù)學(xué)競賽數(shù)據(jù)集,這表明從順序行為逐步過渡到并行行為的 Multiverse 訓(xùn)練范式,導(dǎo)致并行策略的內(nèi)化不一致,并且對領(lǐng)域特征非常敏感。相比之下,NPR 模型在所有八個數(shù)據(jù)集上均達到了 100.0% 的并行觸發(fā)率。這種一致性意味著端到端的 NPR 訓(xùn)練流程能夠更可靠地將并行推理作為模型的默認問題解決模式,而不受數(shù)據(jù)集領(lǐng)域或復(fù)雜性的影響。實際上,這意味著 NPR 不僅能更頻繁地觸發(fā)并行推理,而且能夠在不同的評估數(shù)據(jù)集上穩(wěn)健地實現(xiàn)這一點。



NPR 在所有五個基準測試中均取得了最佳效率,始終優(yōu)于 Multiverse(1.3 倍至 2.4 倍)和自回歸基線,這表明該方法具有穩(wěn)健的泛化能力。重要的是,加速比隨任務(wù)難度而增加:NPR 在較難的問題(AIME25:4.6 倍;HMMT25:4.1 倍)上觀察到的加速比在較容易的問題(AMC23:2.9 倍)上更大,這表明當需要更深入地探索解路徑時,NPR 優(yōu)勢日益凸顯。證明了 NPR 既能提高準確率,而且在可以并行探索多種解策略時尤其有效。



案例解析

論文給了若干具體題目的并行解法示例,典型模式為:

1.

:并行產(chǎn)生若干獨立 plan(每個 plan 一句戰(zhàn)術(shù));

2.

:每個 plan 獨立并行展開具體推理步驟;

3.

:整合與交叉驗證,得出最終結(jié)論并給出簡短答案(boxed answer)。

舉例:對于域函數(shù)或幾何題,某些 plan 會分別做不同的分解(代數(shù)、數(shù)值檢驗、幾何角度關(guān)系),最后

將各分支結(jié)果比對、剔除不一致項并輸出最終答案。這種「多角度并行 + 匯總」能顯著減少因單一路徑假設(shè)錯導(dǎo)致的花費。





結(jié)語


本文提出了一種簡單且可擴展的框架,用于構(gòu)建原生并行推理器。該推理器無需依賴外部教師模型即可學(xué)習(xí)自適應(yīng)分解、多樣化的并行規(guī)劃和可靠的聚合。通過將自提煉的并行 SFT 與智能體并行 RL 相結(jié)合,NPR 能夠生成真正的并行推理策略,而非模擬或腳本化的策略。在八個推理基準測試上的實驗表明,與 Multiverse 數(shù)據(jù)集、自回歸訓(xùn)練和直接強化學(xué)習(xí)相比,該方法均有顯著的改進。論文中的分析進一步證明了該方法能夠顯著加速推理、增強測試時的可擴展性,并且不存在偽并行行為。案例研究展示了該模型如何根據(jù)問題難度調(diào)整其并行性,從而實現(xiàn)結(jié)構(gòu)化探索和穩(wěn)健的驗證。這些結(jié)果表明,原生并行推理是實現(xiàn)更通用、可擴展智能的一個有前景的方向。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
香煙熱度榜!煙民貢獻萬億稅收,年度銷冠竟是這個品牌…

香煙熱度榜!煙民貢獻萬億稅收,年度銷冠竟是這個品牌…

慧翔百科
2025-12-24 09:14:14
釘在恥辱柱上!國家文物局出手,這三個跳梁小丑,真的徹底涼涼了

釘在恥辱柱上!國家文物局出手,這三個跳梁小丑,真的徹底涼涼了

戶外阿嶄
2025-12-28 17:07:24
沉默五天,蔡英文重磅發(fā)文,臺北全城已警戒,國民黨揪出罪惡根源

沉默五天,蔡英文重磅發(fā)文,臺北全城已警戒,國民黨揪出罪惡根源

歷史有些冷
2025-12-28 18:55:03
幸虧中國沒中標!泰國高鐵選擇日本人建設(shè),建成后讓泰國欲哭無淚

幸虧中國沒中標!泰國高鐵選擇日本人建設(shè),建成后讓泰國欲哭無淚

說歷史的老牢
2025-12-29 11:28:27
澤連斯基稱未見中方有意愿協(xié)助推動和平,外交部:中方的努力國際社會有目共睹

澤連斯基稱未見中方有意愿協(xié)助推動和平,外交部:中方的努力國際社會有目共睹

澎湃新聞
2025-12-29 15:46:26
苦主實錘!35勝12負+12勝2負,勝率僅23%啊,德羅贊太慘了

苦主實錘!35勝12負+12勝2負,勝率僅23%啊,德羅贊太慘了

球童無忌
2025-12-29 19:21:53
悲催!孕檢時才發(fā)現(xiàn)老婆曾7次流產(chǎn),老婆矢口否認并報警!

悲催!孕檢時才發(fā)現(xiàn)老婆曾7次流產(chǎn),老婆矢口否認并報警!

閑侃閑侃
2025-12-28 09:37:50
成都男子炸4S店最新!1死4傷現(xiàn)場慘烈,知情人曝猛料,都是被逼的

成都男子炸4S店最新!1死4傷現(xiàn)場慘烈,知情人曝猛料,都是被逼的

云景侃記
2025-12-29 14:19:49
元旦,別再說“元旦快樂”,太土!試試這20句,一看就是文化人

元旦,別再說“元旦快樂”,太土!試試這20句,一看就是文化人

狼小妖
2025-12-27 00:13:54
突發(fā)大逆轉(zhuǎn)!白銀、黃金,直線暴跌!

突發(fā)大逆轉(zhuǎn)!白銀、黃金,直線暴跌!

中國基金報
2025-12-29 08:38:10
吃他汀猝死的人增多?醫(yī)生含淚告誡:天冷吃他汀,必須多關(guān)注8點

吃他汀猝死的人增多?醫(yī)生含淚告誡:天冷吃他汀,必須多關(guān)注8點

全球軍事記
2025-12-27 17:24:58
影后辛芷蕾,這張照片攝影師得加雞腿,抓拍的太到位了

影后辛芷蕾,這張照片攝影師得加雞腿,抓拍的太到位了

徐幫陽
2025-12-23 18:33:38
美國務(wù)院發(fā)火:46年沒受過這種氣,鄭麗文喊話大陸,一個時代結(jié)束

美國務(wù)院發(fā)火:46年沒受過這種氣,鄭麗文喊話大陸,一個時代結(jié)束

科普100克克
2025-12-28 17:32:32
12月25日,公安部經(jīng)偵局終于把話挑明了:嚴打金融“黑灰產(chǎn)”。

12月25日,公安部經(jīng)偵局終于把話挑明了:嚴打金融“黑灰產(chǎn)”。

南權(quán)先生
2025-12-29 16:53:24
哪座城市,壓軸2025?

哪座城市,壓軸2025?

星球研究所
2025-12-28 11:54:31
歐美聯(lián)手貶值逼人民幣升值?中國將計就計反殺:他們不得不買

歐美聯(lián)手貶值逼人民幣升值?中國將計就計反殺:他們不得不買

現(xiàn)代小青青慕慕
2025-12-28 20:21:57
廣東天氣即將大反轉(zhuǎn)!

廣東天氣即將大反轉(zhuǎn)!

金灣通
2025-12-29 14:29:10
中方斡旋促成此次柬泰?;??外交部回應(yīng)

中方斡旋促成此次柬泰?;??外交部回應(yīng)

新京報政事兒
2025-12-29 16:18:50
演員閆學(xué)晶“哭窮”引爭議!稱兒子年入不到40萬,卻需負擔家庭年開支80-100萬元,否則家庭無法運轉(zhuǎn)

演員閆學(xué)晶“哭窮”引爭議!稱兒子年入不到40萬,卻需負擔家庭年開支80-100萬元,否則家庭無法運轉(zhuǎn)

大象新聞
2025-12-29 16:45:02
吳越公開84歲父親中風(fēng)沒去養(yǎng)老院,在家請護工,自己53歲還未育

吳越公開84歲父親中風(fēng)沒去養(yǎng)老院,在家請護工,自己53歲還未育

銀河史記
2025-12-17 01:26:27
2025-12-29 20:04:49
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12016文章數(shù) 142523關(guān)注度
往期回顧 全部

科技要聞

肉搏非洲,傳音不想只當個賣手機的

頭條要聞

美報告承認:檢查了92臺中國起重機 安全得很

頭條要聞

美報告承認:檢查了92臺中國起重機 安全得很

體育要聞

“史上最貴”的世界杯,球迷成了韭菜

娛樂要聞

張杰謝娜跨年風(fēng)波升級!張杰被吐槽贅婿

財經(jīng)要聞

翁杰明:宏觀數(shù)據(jù)與居民微觀感受存在差距

汽車要聞

“路”要越走越深,猛士的智能越野時代來了

態(tài)度原創(chuàng)

旅游
健康
藝術(shù)
親子
公開課

旅游要聞

以體育為媒串起多元業(yè)態(tài),復(fù)興島從工業(yè)遺址蛻變?yōu)槿诤习l(fā)展活力新熱土

這些新療法,讓化療不再那么痛苦

藝術(shù)要聞

克里姆特風(fēng)格的女性人物畫,太美了!

親子要聞

冰淇淋疊疊樂糖果食玩

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版