国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

清華大學:用最簡單的方法讓小AI模型在數(shù)學推理上大放異彩

0
分享至


這項由清華大學何丙祥、曲澤凱、劉澤遠等研究團隊聯(lián)合伊利諾伊大學香檳分校錢程以及上海人工智能實驗室崔贛渠共同完成的研究發(fā)表于2025年12月,展現(xiàn)了一個令人驚訝的發(fā)現(xiàn):在人工智能訓練領域,有時候最簡單的方法反而能取得最好的效果。這項名為"JustRL"的研究挑戰(zhàn)了當前AI訓練中越來越復雜化的趨勢,證明了用最基礎的方法就能讓小型AI模型在數(shù)學推理任務上達到頂尖水平。

當前的AI訓練就像烹飪界的分子料理革命,每個廚師都在使用越來越復雜的技術和設備,試圖創(chuàng)造出完美的菜品。多階段訓練管道、動態(tài)參數(shù)調整、課程學習策略,這些聽起來高大上的技術被廣泛應用,讓整個訓練過程變得像精密的化學實驗一樣復雜。然而,清華團隊提出了一個根本性的問題:這種復雜性真的必要嗎?

研究團隊決定回到最基礎的方法,就像一個經(jīng)驗豐富的老廚師放棄所有花哨的工具,只用最簡單的鍋碗瓢盆來證明自己的廚藝。他們使用單階段訓練和固定的參數(shù)設置,在兩個15億參數(shù)的推理模型上進行實驗。結果令人震驚:這種簡單方法不僅達到了當前最先進的性能水平,在九個數(shù)學基準測試中平均準確率達到54.9%和64.3%,而且使用的計算資源比那些復雜方法少了整整一半。

更重要的是,相同的參數(shù)設置可以直接應用到不同的模型上,無需任何調整,訓練過程表現(xiàn)出平穩(wěn)、單調的改進趨勢,在4000多個訓練步驟中沒有出現(xiàn)通常需要人工干預的崩潰或停滯現(xiàn)象。這就像發(fā)現(xiàn)了一個萬能的烹飪秘方,不管是做川菜還是粵菜,都能保證出色的效果。

研究團隊進行了深入的分析,發(fā)現(xiàn)那些被認為是"標準技巧"的復雜方法,比如明確的長度懲罰和強大的驗證器,實際上可能會通過限制探索而降低性能。這個發(fā)現(xiàn)暗示,該領域可能正在添加復雜性來解決那些在穩(wěn)定、擴展的基線方法下根本不存在的問題。

一、從模仿到突破的轉變

在人工智能的發(fā)展歷程中,大型語言模型如OpenAI的o1和DeepSeek-R1已經(jīng)證明了大規(guī)模強化學習在數(shù)學和編程等具有挑戰(zhàn)性的推理任務中的卓越效果。但是,當涉及到較小的輕量級模型時,業(yè)界走上了一條不同的道路。

主流公司更傾向于使用蒸餾技術,這本質上是一種監(jiān)督微調方法,讓小模型學習大型教師模型的輸出。這種做法從實用角度來看很有意義:蒸餾技術效率高、穩(wěn)定,能夠立即帶來性能提升。Qwen3的強弱蒸餾技術和DeepSeek-R1都證明了這種策略對小型語言模型的有效性。

然而,蒸餾技術有一個根本性的限制:它受到教師模型能力的約束。當研究人員依賴蒸餾來改進較小模型的性能時,他們會遇到一個上限,特別是當教師模型的更新不頻繁時。即使增加數(shù)據(jù)量和延長訓練時間,一旦教師模型的性能達到平臺期,進一步的性能提升也變得非常困難。

相比之下,強化學習可以在蒸餾過程達到飽和后提供進一步的改進,使其在這種情況下成為關鍵方法。與此同時,針對小型模型的強化學習卻獲得了不穩(wěn)定和困難的聲譽,需要越來越復雜的技術才能可靠地工作。

過去一年中,我們看到了大量試圖穩(wěn)定和改進小模型強化學習訓練的方法激增:多階段訓練管道、動態(tài)參數(shù)調度、自適應溫度控制、響應長度懲罰,以及各種形式的數(shù)據(jù)整理和過濾技術。這種技術的激增提出了一個重要問題:這種復雜性真的必要嗎?

當不同的工作結合不同的方法子集并報告不同的結果時,很難確定真正驅動性能的因素。更令人擔憂的是,許多最近的工作都引用訓練不穩(wěn)定性,如獎勵崩潰、熵漂移和長度爆炸,作為其技術的動機,但卻將這些技術應用在已經(jīng)復雜的基線之上。這使得無法知道新方法是否提供了真正的好處,還是僅僅補償了之前復雜性引入的問題。

累積的"最佳實踐"可能是相互斗爭,而不是對抗強化學習的根本挑戰(zhàn)。研究團隊決定探索是否可以通過更簡單的方法實現(xiàn)穩(wěn)定、競爭性的訓練。他們將最小化設置應用于兩個流行的15億參數(shù)推理模型,使用基于常見實踐的單階段訓練和固定參數(shù)。

二、簡單配方的威力

研究團隊的方法刻意保持簡單,將自己限制在強化學習的基礎要素上,避免了在最近工作中變得常見的多階段管道、動態(tài)調度和專門技術。

他們使用veRL中GRPO的默認實現(xiàn),采用二元結果獎勵。獎勵信號來自DAPO的輕量級基于規(guī)則的驗證器,沒有使用像SymPy這樣可能增加計算開銷的符號數(shù)學庫。研究團隊保持了極致的簡單性:采用單階段訓練,沒有漸進式上下文延長、課程切換或階段轉換,從開始到結束連續(xù)訓練;使用固定參數(shù),沒有自適應溫度調度、動態(tài)批量大小調整或訓練中期參考模型重置;使用標準數(shù)據(jù),在DAPO-Math-17k上訓練,沒有離線難度過濾或在線動態(tài)采樣策略;使用基本提示,采用簡單的后綴提示而不進行調優(yōu):"請逐步推理,并將你的最終答案放在\boxed{}中";進行長度控制,簡單地將最大上下文長度設置為16K標記,而不是使用明確的長度懲罰項。

研究團隊確實使用了一種技術:"剪切更高",這是長時間強化學習訓練中穩(wěn)定性的一個成熟實踐。他們將此視為基線的一部分,而不是附加技術。他們使用veRL在兩個15億推理模型上訓練了這個配方:DeepSeek-R1-Distill-Qwen-1.5B和OpenMath-Nemotron-1.5B,每個都使用32個A800-80GB GPU訓練約15天。相同的參數(shù)對兩者都有效,無需逐模型調優(yōu),并在整個訓練過程中保持固定。

在評估方面,研究團隊評估了九個具有挑戰(zhàn)性的數(shù)學推理任務,包括AIME 2024、AIME 2025、AMC 2023、MATH-500、Minerva Math、OlympiadBench、HMMT Feb 2025、CMIMC 2025和BRUMO 2025。他們報告Pass@1準確率,對每個問題平均N個采樣響應(MATH-500、Minerva Math和OlympiadBench使用N=4;其他使用N=32)。他們使用溫度0.7、top-p 0.9,并允許生成最多32K標記。

為了解決基于規(guī)則的驗證器的假陰性問題,他們用CompassVerifier-3B增強現(xiàn)有系統(tǒng),這是一個輕量級的基于模型的驗證器。

三、突破性實驗結果

研究團隊將JustRL應用于兩個流行的15億參數(shù)推理模型,展示了他們的最小配方在具有顯著穩(wěn)定訓練動力學的情況下實現(xiàn)競爭性能。

從較弱基礎開始的擴展實驗顯示了令人矚目的成果。研究團隊使用簡單的單階段配方訓練DeepSeek-R1-Distill-Qwen-1.5B 4380步。他們的模型JustRL-DeepSeek-1.5B在各基準測試中實現(xiàn)了54.87%的平均成績,超過了ProRL-V2的53.08%,盡管ProRL-V2使用了九階段訓練管道和動態(tài)參數(shù)以及更復雜的技術。他們在九個基準測試中的六個上領先,展示了廣泛的改進而不是對單個任務的過度擬合。

然而,真正的問題是他們的簡單性是否會帶來計算成本。答案是否定的。計算成本比較顯示,他們匹配了ProRL-V2計算預算的一半,同時使用固定參數(shù)的單階段配方。BroRL通過將每個例子的rollout增加到512個,基本上詳盡地探索解決方案空間,需要4.9倍的計算量。他們的方法在沒有這種計算開銷的情況下實現(xiàn)了競爭性能。

值得注意的是,使用動態(tài)采樣的模型過濾示例。按照POLARIS的做法,研究團隊為使用動態(tài)采樣的DeepSeek-R1-Distill-Qwen-1.5B估計了50%的過濾比率,因為rollout經(jīng)常包含許多瑣碎或困難的情況。即使假設沒有過濾,他們的計算使用仍然是可比較的甚至更低的,使他們的估計保守。

訓練穩(wěn)定性方面的表現(xiàn)同樣令人印象深刻。JustRL-DeepSeek-1.5B的訓練曲線顯示了平穩(wěn)和單調的改進,沒有通常需要干預的振蕩或平臺期。穩(wěn)定性本身表明他們沒有與訓練設置作斗爭。

更強基礎的擴展實驗進一步驗證了方法的有效性。研究團隊使用完全相同的配方訓練OpenMath-Nemotron-1.5B 3440步,沒有參數(shù)變化。他們實現(xiàn)了64.32%的平均成績,略微超過QuestA的63.81%,在九個基準測試中的五個上領先。差距很小,這是有道理的,因為兩種方法都在推動15億規(guī)??蓪崿F(xiàn)的界限。關鍵區(qū)別在于如何到達那里。

QuestA引入了一種創(chuàng)新的課程學習方法,將問題與部分思維鏈解決方案作為提示進行增強,將訓練階段分為不同難度。這不僅需要基礎真值答案,還需要更大模型生成的完整推理軌跡用于課程構建,帶來額外的數(shù)據(jù)要求和工程復雜性。他們的方法僅使用標準問題-答案對,沒有增強或課程設計。

在計算效率方面,他們使用的計算量減少了一半,同時實現(xiàn)了稍好的平均性能,沒有設計QuestA使用的復雜課程。另一條平滑的訓練曲線表明,相同配方在兩個模型上都有效,無需參數(shù)調優(yōu),這表明了真正的魯棒性而不是對單個模型的幸運優(yōu)化。

這些結果并不貶低QuestA的貢獻,問題增強是一種明顯有幫助的聰明技術。相反,它們表明通過更簡單的方法也可以實現(xiàn)競爭性能。

四、訓練動態(tài)的深入分析

訓練配方的終極測試不僅僅是最終數(shù)字,而是是否能夠可靠地達到目標。復雜技術通常作為訓練不穩(wěn)定性的響應而出現(xiàn):振蕩獎勵、策略崩潰或失控的響應長度。如果更簡單的方法可以完全避免這些失敗模式,那么這表明我們可能一直在治療癥狀而不是原因。

研究團隊詳細檢查了JustRL-DeepSeek-1.5B的訓練動態(tài),在4000個訓練步驟中跟蹤三個關鍵動態(tài):平均訓練獎勵、策略熵和平均響應長度。這些動態(tài)揭示了模型是穩(wěn)定學習還是需要持續(xù)干預。

策略熵在訓練后期步驟中在1.0和1.6之間振蕩,沒有系統(tǒng)性的向上漂移(探索崩潰)或向下漂移(過早收斂),表明簡單的"剪切更高"技術在大規(guī)模強化學習中表現(xiàn)良好。平均獎勵顯示從大約-0.6到+0.4的平均獎勵攀升。曲線有噪音,但趨勢明顯向上。更重要的是,沒有會在多階段方法中通常觸發(fā)干預的擴展平臺期或突然下降。信號足夠一致,模型可以持續(xù)學習。

模型開始時冗長,生成平均約8000標記的響應。沒有任何明確的長度懲罰,它自然地壓縮到1000步時的4000-5000標記,并保持在這個范圍內。這種有機壓縮可能比明確的懲罰更魯棒,明確的懲罰可能創(chuàng)造模型學會利用的對抗性壓力。

與典型強化學習的對比非常明顯。雖然研究團隊沒有計算資源來運行廣泛的對照比較,但文獻提供了背景。許多最近的工作明確引用訓練不穩(wěn)定性作為其技術的動機:ProRL-v2在觀察到長度漂移后引入了調度長度懲罰;BroRL在遇到平臺期后將rollout增加到數(shù)百個;多個工作在KL散度增長過大時應用KL正則化和重置參考模型,這限制了訓練上界。他們的訓練沒有表現(xiàn)出任何激發(fā)干預的病態(tài)。

當然,這些平滑曲線并不證明更簡單的方法總是更穩(wěn)定,或者技術永遠不會有幫助。他們無法分離哪些特定復雜技術導致不穩(wěn)定性,哪些解決了它。但對比是明顯的:最小配方產生的訓練動態(tài)根本不需要已成為標準實踐的干預。

五、消融研究的意外發(fā)現(xiàn)

研究團隊從JustRL-DeepSeek-1.5B的基礎配方開始,進行了兩項消融研究,都訓練了3000多步,結果令人意外。

第一個修改是添加明確的長度懲罰項,針對最后4k標記(如DAPO中使用的)。第二個修改是進一步添加來自DeepScaleR的更復雜驗證器,以減少假陰性。結果顯示,兩種修改都降低了性能:添加超長懲罰在50% AIME 2024處平臺化(相對于55%基線),添加兩種修改在45%處平臺化。

關于超長懲罰的發(fā)現(xiàn)尤其有啟發(fā)性。研究團隊假設明確懲罰冗長響應可能通過更快地推動模型走向簡潔來改善訓練效率。相反,性能顯著降低作為權衡。熵圖揭示了原因:明確懲罰崩潰探索,將熵驅動到0.5-0.6,與他們基礎方法的1.2-1.4范圍相比。明確懲罰似乎創(chuàng)造了與學習目標沖突的壓力,迫使模型在探索實際有效方法之前過早收斂到更短的響應。

關于魯棒驗證器的實驗也產生了有趣的結果。研究團隊進一步假設減少假陰性(正確解決方案標記錯誤)會提供更清潔的學習信號。然而,即使在規(guī)范化獎勵尺度后,其使用導致更差的最終性能,在45% AIME 2024處平臺化。

研究團隊提供了兩種可能的解釋。首先,更嚴格的基礎驗證器通過減少"完美"分數(shù)創(chuàng)建了更豐富的學習信號頻譜,而魯棒驗證器的寬容性提供了較少細致的指導。其次,更嚴格驗證器對精確格式的依賴可能迫使模型發(fā)展更魯棒的內部計算,當驗證器在外部糾正錯誤時失去了這種激勵。因此,寬容的驗證器可能無法鼓勵最佳泛化所需的精確性。

這些結果揭示了兩個重要教訓。首先,并非所有"標準技巧"都能跨環(huán)境遷移。超長懲罰在DAPO的設置中有效,但在他們的設置中降低了性能,表明技術以復雜和有時不可預測的方式與其他設計選擇交互。其次,更簡單的方法并不總是更容易改進。他們測試了兩個看似合理的修改,但都使情況變得更糟,表明他們的基礎配方實現(xiàn)了容易被額外干預破壞的微妙平衡。

研究團隊明確說明了這些消融的局限性。他們測試了兩個特定修改,但許多其他技術仍未探索:課程學習、自適應溫度調度、參考模型重置、不同驗證器設計和各種形式的數(shù)據(jù)增強。其中一些可能改進他們的基線。他們的觀點不是額外技術永遠不會有幫助,而是應該經(jīng)驗性驗證而不是假設有益。

六、現(xiàn)實意義與局限性

這項研究帶來的啟示是多層面的。平滑的訓練曲線伴隨著健康的熵、單調獎勵和自然長度收斂,與經(jīng)常被引用作為復雜技術動機的不穩(wěn)定性形成對比。他們的負面消融顯示,添加"改進"實際上主動降低了性能。這表明復雜性有時可能解決由其他設計選擇創(chuàng)造的癥狀,而不是根本的強化學習挑戰(zhàn)。

然而,研究團隊承認他們不知道的內容。他們證明了簡單強化學習效果很好,但無法分離原因。是參數(shù)嗎?訓練數(shù)據(jù)集?驗證器設計?三者之間的相互作用?他們的結果也僅限于數(shù)學推理中15億規(guī)模的兩個骨干。推廣到其他領域、模型大小和任務仍然是開放問題。

復雜性在某些情況下可能有幫助。在極端計算約束下,遇到他們沒有面臨的特定失敗模式時,推動超越當前性能上限時,或在具有更嘈雜獎勵信號的領域中,額外技術可能是有價值的。他們的論點是方法論的:首先建立簡單基線,然后僅在識別出它解決的特定問題時才添加復雜性。

研究團隊的工作存在幾個限制。首先,他們的結果僅限于15億參數(shù)規(guī)模的數(shù)學推理任務,推廣到其他領域(如編程、一般問答)和模型大小仍未探索。其次,雖然他們證明了簡單性有效,但無法明確分離哪些特定組件(參數(shù)、驗證器設計、訓練數(shù)據(jù))對成功最關鍵。第三,他們的計算預算雖然低于一些復雜方法,但對資源受限的研究人員來說可能仍然過高。最后,他們沒有探索當推向更長訓練時間時他們的方法是否保持優(yōu)勢,或者在規(guī)模上額外技術是否變得必要。

七、簡單之道的深遠意義

關于小模型強化學習的辯論一直被復雜性對穩(wěn)定性和性能必要的假設所籠罩。研究團隊著手回答一個直接問題:如果我們在沒有已成為標準實踐的專門技術的情況下將強化學習應用于小型語言模型,會發(fā)生什么?

通過退回到更簡單的方法,他們的發(fā)現(xiàn)提供了清晰的答案:具有穩(wěn)定基礎的適當規(guī)??梢云ヅ鋸碗s技術。從兩個基礎模型開始,他們使用單階段訓練和固定參數(shù)實現(xiàn)了可比較或更好的性能,匹配或超越了采用多階段訓練和課程學習的方法,同時使用了一半的計算量。

比最終數(shù)字更引人注目的是路徑:數(shù)千步的平滑、穩(wěn)定改進,沒有通常需要防止訓練崩潰的干預。這項研究倡導方法論轉變:從簡單開始,擴大規(guī)模,只有當簡單、魯棒的基線明顯失敗時才添加復雜性。如果簡單性比當前實踐假設的更頻繁地足夠,那似乎值得關注。

這種發(fā)現(xiàn)對整個人工智能研究領域都有重要意義。在追求更好性能的過程中,研究社區(qū)往往傾向于添加越來越多的技巧和復雜機制。但正如這項研究所展示的,有時最有效的解決方案可能就是最簡單的那一個。這不僅能夠節(jié)省計算資源,降低實施難度,還能提供更好的可復現(xiàn)性和可理解性。

對于實際應用而言,這項研究為那些資源有限但希望訓練高性能小模型的研究者和開發(fā)者提供了新的選擇。他們不再需要實施復雜的多階段訓練系統(tǒng)或動態(tài)參數(shù)調整策略,只需要按照研究團隊提供的簡單配方,就可能獲得出色的結果。這大大降低了強化學習在小模型訓練中的門檻,讓更多人能夠參與到這個領域的研究和應用中來。

說到底,這項研究提醒我們,在科學研究中,簡單往往比復雜更有力量。正如法國作家安托萬·德·圣??颂K佩里所說:"完美的實現(xiàn),不是當沒有更多東西可以添加時,而是當沒有更多東西可以去除時。"清華大學團隊的JustRL正是這種哲學的完美體現(xiàn),它用最簡潔的方法達到了最優(yōu)秀的效果,為未來的AI研究指明了一個值得深思的方向。有興趣了解更多技術細節(jié)的讀者可以通過論文編號arXiv:2512.16649v1查詢完整研究內容。

Q&A

Q1:JustRL是什么樣的AI訓練方法?

A:JustRL是清華大學研究團隊開發(fā)的一種極簡強化學習方法,專門用于訓練小型AI模型進行數(shù)學推理。它的核心特點是使用單階段訓練和固定參數(shù),避免了復雜的多階段訓練管道和動態(tài)參數(shù)調整,就像用最簡單的烹飪方法做出最美味的菜肴一樣。

Q2:JustRL相比復雜方法有什么優(yōu)勢?

A:JustRL最大的優(yōu)勢是用一半的計算資源就能達到甚至超越復雜方法的性能。在數(shù)學推理任務中,它讓15億參數(shù)的模型達到了54.9%和64.3%的平均準確率,同時訓練過程非常穩(wěn)定,不需要人工干預來防止訓練崩潰。

Q3:普通研究者能使用JustRL方法嗎?

A:可以的,這正是JustRL的一大優(yōu)勢。研究團隊已經(jīng)開源了代碼和模型,普通研究者不需要復雜的技術實施就能使用這種方法。相同的參數(shù)設置可以直接應用到不同模型上,大大降低了強化學習訓練的技術門檻。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
80歲老太感染上艾滋,女兒查看監(jiān)控后瞠目結舌,連捅男保姆43刀

80歲老太感染上艾滋,女兒查看監(jiān)控后瞠目結舌,連捅男保姆43刀

民間精選故事匯
2025-05-12 08:01:12
多地醫(yī)院開始降薪!

多地醫(yī)院開始降薪!

黯泉
2025-12-28 14:36:43
西安男子電梯墜亡細節(jié):從十幾層踩空,前兩天小孩被困,剛做保養(yǎng)

西安男子電梯墜亡細節(jié):從十幾層踩空,前兩天小孩被困,剛做保養(yǎng)

鋭娛之樂
2025-12-28 13:49:32
話題|從LG杯到棋仙戰(zhàn) 中國棋手已逆韓國頂流

話題|從LG杯到棋仙戰(zhàn) 中國棋手已逆韓國頂流

北青網(wǎng)-北京青年報
2025-12-28 15:31:06
俄首款完成進口替代的民用飛機圖-214獲型號大改批準

俄首款完成進口替代的民用飛機圖-214獲型號大改批準

界面新聞
2025-12-27 21:46:59
1956年毛主席罕見發(fā)問:東來順羊肉咋回事?陳云一查,根子不在師傅,問題出在“新規(guī)矩”

1956年毛主席罕見發(fā)問:東來順羊肉咋回事?陳云一查,根子不在師傅,問題出在“新規(guī)矩”

歷史回憶室
2025-12-23 10:19:17
錢再多有啥用?身價上億美金的貝克漢姆現(xiàn)狀,給所有運動員提了醒

錢再多有啥用?身價上億美金的貝克漢姆現(xiàn)狀,給所有運動員提了醒

人間無味啊
2025-12-24 19:34:17
摩根士丹預測:2026年1季度汽車銷量 下跌30%-35%

摩根士丹預測:2026年1季度汽車銷量 下跌30%-35%

網(wǎng)上車市
2025-12-26 15:38:06
雅魯藏布江水電站有多牛?印度網(wǎng)友看完集體沉默,真相太震撼

雅魯藏布江水電站有多牛?印度網(wǎng)友看完集體沉默,真相太震撼

老特有話說
2025-12-27 14:41:57
2012年,廣東老板參加宴請后失蹤,13年后托夢妻子:車庫里找我

2012年,廣東老板參加宴請后失蹤,13年后托夢妻子:車庫里找我

農村情感故事
2025-12-06 07:32:53
林強涉案989億被抓!生活奢華超過中東富豪,妻子、父母也有責任

林強涉案989億被抓!生活奢華超過中東富豪,妻子、父母也有責任

動漫里的童話
2025-12-28 15:59:37
1988年,一位臺籍老者回大陸探親,說出名字的瞬間驚動中央,很快便獲批復:恢復黨籍,享受相關優(yōu)待

1988年,一位臺籍老者回大陸探親,說出名字的瞬間驚動中央,很快便獲批復:恢復黨籍,享受相關優(yōu)待

文史明鑒
2025-12-25 18:02:17
臺海一旦爆發(fā)戰(zhàn)爭,9國或將卷入混戰(zhàn),中俄朝將對陣“七國聯(lián)軍”

臺海一旦爆發(fā)戰(zhàn)爭,9國或將卷入混戰(zhàn),中俄朝將對陣“七國聯(lián)軍”

起喜電影
2025-12-28 17:02:23
6000萬主力客群“消失”:困在商場里的餐飲店,正迎來一場大“清洗”

6000萬主力客群“消失”:困在商場里的餐飲店,正迎來一場大“清洗”

職業(yè)餐飲網(wǎng)
2025-12-18 21:06:32
“店才開一個月就倒閉”!盤點2025 年 6大餐飲“短命爆款”

“店才開一個月就倒閉”!盤點2025 年 6大餐飲“短命爆款”

職業(yè)餐飲網(wǎng)
2025-12-27 20:26:28
山西省司法廳原一級巡視員周濤接受審查調查

山西省司法廳原一級巡視員周濤接受審查調查

界面新聞
2025-12-28 11:31:42
超??ㄩT:77歲被騙光積蓄,83歲仍有性生活,91歲雙腿依舊迷人

超??ㄩT:77歲被騙光積蓄,83歲仍有性生活,91歲雙腿依舊迷人

豐譚筆錄
2025-12-11 11:41:19
2-0,尤文4連勝反超那不勒斯+追平AC米蘭,43歲吉拉迪諾率隊6輪不勝

2-0,尤文4連勝反超那不勒斯+追平AC米蘭,43歲吉拉迪諾率隊6輪不勝

凌空倒鉤
2025-12-28 08:00:57
他比黎智英更“毒”!潛伏30年,用510萬策劃香港暴亂,結局如何

他比黎智英更“毒”!潛伏30年,用510萬策劃香港暴亂,結局如何

云舟史策
2025-12-22 07:04:23
1977 年李敏見親姐楊月花,姐姐提特殊要求,舅舅嘆如母性格

1977 年李敏見親姐楊月花,姐姐提特殊要求,舅舅嘆如母性格

嘮叨說歷史
2025-12-24 09:40:23
2025-12-28 20:04:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
6680文章數(shù) 544關注度
往期回顧 全部

科技要聞

特斯拉將在華布局自動駕駛?記者求證→

頭條要聞

臺媒體人:賴清德彈劾案通過 對賴是一個很大的侮辱

頭條要聞

臺媒體人:賴清德彈劾案通過 對賴是一個很大的侮辱

體育要聞

83分鐘絕殺!曼城2-1年度收官:英超6連勝狂飆

娛樂要聞

白敬亭現(xiàn)身冰雪大世界 拍視頻還翻車了

財經(jīng)要聞

英偉達的收購史

汽車要聞

理想的2026:L9不容有失,i9再戰(zhàn)純電?

態(tài)度原創(chuàng)

房產
教育
時尚
旅游
本地

房產要聞

降維打擊!三亞CBD驚現(xiàn)“豪宅新王”,高端局要變天了!

教育要聞

低情商校長的5種行為,希望你一個也沒有

瑞典拉普蘭:凜冽北境的萬物平衡之道

旅游要聞

自貢地區(qū)現(xiàn)存有多少座南華宮,你了解嗎?

本地新聞

云游安徽|踏訪池州,讀懂山水間的萬年史書

無障礙瀏覽 進入關懷版