国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

ZPedia|一文讀懂 DeepSeek V4:Agent 能力加冕開源新王,94%幻覺率是暗雷,價格優(yōu)勢不再

0
分享至


DeepSeek V4 的橫空出世,再次攪動了全球開源大模型的格局。

在 Artificial Analysis 最新的 Intelligence Index(AII)評測中,DeepSeek 憑借 V4 Pro 與 V4 Flash 的組合,強勢回歸第一梯隊。其中,V4 Pro 以 52 分的成績位列開源權重推理模型第二,僅次于 Kimi K2.6,宣告了 DeepSeek 在經(jīng)歷一段激烈的行業(yè)追趕后,重新回到了全球開源競技的舞臺中央。

以下是Artificial Analysis 測評的核心觀點。

1. 智能指數(shù)大幅提升 10 分

DeepSeek V4 Pro(Max)在 Artificial Analysis Intelligence Index 中得分 52,較 V3.2 的 42 分提升 10 分,成為僅次于 Kimi K2.6 的第二大開源推理模型。需要補充的是,如果 MiMo-V2.5-Pro 后續(xù)像小米其他模型一樣開源,它將擠入第二位,DeepSeek V4 Pro 則會位列第三。

V4 Flash(Max)得分 47,低于 V4 Pro,但高于 DeepSeek V3.2。這意味著它雖然仍落后于最前沿模型,但智能水平已經(jīng)接近 Claude Sonnet 4.6(Max)。


2. 開源模型中領先的 Agent 任務表現(xiàn)

在更接近真實世界工作的智能體任務評測中,DeepSeek V4 Pro(Max)表現(xiàn)領先開源模型。它在 GDPval-AA 測試中獲得 1554 分,高于 Kimi K2.6 的 1484 分、GLM-5.1 的 1535 分、GLM-5 的 1402 分,以及 MiniMax-M2.7 的 1514 分。這說明 V4 Pro 的優(yōu)勢并不只體現(xiàn)在抽象推理或問答能力上,也開始延伸到更接近真實工作流的 Agent 執(zhí)行任務中。


3. 知識能力提升,但幻覺率同步上升

DeepSeek V4 Pro(Max)在 AA-Omniscience 測試中得分 -10,相比 V3.2 Reasoning 的 -21 提升 11 分,主要受益于準確率提升。V4 Flash(Max)得分 -23,整體與 V3.2 接近。

但問題在于,V4 Pro 和 V4 Flash 的幻覺率都非常高,分別達到 94% 和 96%。這意味著當模型不知道答案時,它們幾乎總是會繼續(xù)給出回答,而不是明確承認「不知道」。對于面向 Agent 的模型來說,這一點尤其值得警惕,因為幻覺不再只是回答錯誤,還可能演變成錯誤的工具調(diào)用、代碼修改或業(yè)務操作。


4. 比前沿閉源模型便宜,但高于多數(shù)開源模型,且較 V3.2 成本明顯上升

運行 Artificial Analysis Intelligence Index 時,DeepSeek V4 Pro 的成本為 1071 美元。這使它比 Claude Opus 4.7 的 4811 美元便宜 4 倍以上。

但與此同時,它仍然比多款開源模型更貴,包括 Kimi K2.6 的 948 美元、GLM-5.1 的 544 美元、DeepSeek V3.2 的 71 美元,以及 gpt-oss-120B 的 67 美元。相比之下,DeepSeek V4 Flash 的成本低得多,僅為 113 美元。

因此,V4 Pro 的價格優(yōu)勢主要體現(xiàn)在對比閉源前沿模型時;如果放在開源模型內(nèi)部比較,它并不算便宜。

5. Token 使用量偏高,是總成本上升的重要原因

DeepSeek V4 Pro 在運行 Artificial Analysis Intelligence Index 時使用了 1.9 億個輸出 token,是目前測試模型中 token 消耗最高的一批。DeepSeek V4 Flash 的輸出 token 消耗量更高,達到 2.4 億個。

這也解釋了為什么 V4 Pro 雖然單 token 價格較低,但總運行成本相較其他開源模型仍然偏高。換句話說,大模型的真實成本不能只看 API 單價,還要看模型為了完成任務實際消耗了多少 token。


6. Flash 明顯弱于Pro,但在同等體量下表現(xiàn)突出

DeepSeek V4 Flash(Max)在 Artificial Analysis Intelligence Index 中得分 47,明顯低于 V4 Pro。但考慮到它只有 284B 參數(shù),模型體量遠小于 V4 Pro,因此在「智能水平與模型規(guī)?!沟臋嗪馍媳憩F(xiàn)不錯,位置接近 MiniMax-M2.7。


作為 DeepSeek 自 V3 以來的架構(gòu)躍遷,V4 系列明確開啟了“雙軌并進”的產(chǎn)品策略:V4 Pro 聚焦性能巔峰,以 1.6T 總參數(shù)(激活參數(shù)約 49B)沖擊能力上限;V4 Flash 則主打極致效率,通過 284B 總參數(shù)(激活參數(shù)約 13B)實現(xiàn)高頻場景下的低延遲與低成本。兩款模型雖皆支持“思考”與“非思考”模式,但側(cè)重點已然分明。

這一戰(zhàn)略拆分,是 DeepSeek 對行業(yè)競爭邏輯的一次深刻重構(gòu)。一年前,DeepSeek R1 系列曾領跑榜單,但隨著 Kimi、GLM、MiniMax 等實驗室的群雄逐鹿,開源賽道已陷入激烈競爭。

V4 的發(fā)布,標志著 DeepSeek 徹底告別了單一維度的模型比拼。

第一印象:DeepSeek V4 是一個明顯偏向「工程閉環(huán)」的模型

從體驗預期上看,DeepSeek V4 不像一個單純?yōu)榱奶靸?yōu)化的模型。

過去很多模型升級,用戶最容易感知的是三件事:回答更順、推理更強、幻覺更少。但 V4 的重點不完全在這里。它更像是為長任務、多輪工具調(diào)用、代碼工程、復雜資料處理和 Agent 執(zhí)行鏈條設計的模型。

官方給 V4-Pro 的核心標簽是:Agentic Coding 開源 SOTA、世界知識在開源模型中領先、數(shù)學/STEM/代碼推理超過現(xiàn)有開源模型并接近頂級閉源模型。V4-Flash 則主打接近 Pro 的推理能力、簡單 Agent 任務上接近 Pro,以及更小參數(shù)、更快響應和更低 API 成本。

這意味著 V4 的產(chǎn)品邏輯不是「一個模型包打天下」,而是非常明確地拆成了兩層:

  • Pro 是重型任務模型,適合復雜代碼庫理解、長文檔分析、多步工具調(diào)用、科研/數(shù)學/工程推理。

  • Flash 是日常高頻模型,適合問答、摘要、輕量代碼、普通 Agent 流程,以及大規(guī)模低成本調(diào)用。

這個拆分很關鍵。因為 Agent 時代的大模型不只拼智商,還拼「單位任務成本」。V4 想證明開源模型也可以成為 Agent 基礎設施,而不是只在 benchmark 上做「閉源替代品」。


V4 最強的不是聊天,而是長程任務

DeepSeek V4 最明顯的升級,是它對長上下文的重新處理。

大模型正在從聊天工具變成工作系統(tǒng)。早期模型主要處理短問短答,現(xiàn)在卻要寫代碼、讀論文、分析財報、拆解項目、調(diào)用工具、連續(xù)推理。任務越復雜,模型面對的信息量越大。代碼助手需要理解整個倉庫,科研助手需要比較多篇論文,企業(yè)知識助手需要串聯(lián)制度文件、會議紀要、合同和歷史決策。這些場景的共同點是:信息很長,任務也不是一次性的。

過去,很多復雜任務依賴 RAG,也就是先從外部知識庫中檢索幾個相關片段,再交給模型回答。RAG 很有用,但它也有天然限制:如果檢索漏掉關鍵材料,模型后面再強也沒用;如果片段之間缺少全局結(jié)構(gòu),模型容易只看到局部證據(jù),看不到整體脈絡。對于代碼倉庫、法律合同、科研綜述和長期 Agent 任務來說,僅靠幾個片段往往不夠。

但長上下文不是免費的。傳統(tǒng) Transformer 的 attention 機制在長序列下會帶來巨大的計算壓力。上下文越長,KV cache 越龐大,對顯存、帶寬和推理系統(tǒng)的壓力越大。所以,支持百萬 token 和高效支持百萬 token 是兩件事。前者只是窗口變大,后者才決定它能不能真正進入產(chǎn)品。


DeepSeek-V4 的核心價值就在這里。它不是單純宣稱模型可以接收一百萬 token,而是試圖回答一個更工程化的問題:如何讓百萬 token 上下文在計算上更可承受。它反復強調(diào) FLOPs 和 KV cache 的下降。對于企業(yè)部署、Agent 系統(tǒng)、代碼助手和科研工具來說,長上下文能力只有在成本可控時才有意義。

Hugging Face 對 V4 的技術解讀中提到,V4 的關鍵不只是 1M 上下文窗口,而是通過新的注意力機制顯著降低長上下文推理成本。在 1M token 場景下,V4-Pro 的單 token 推理 FLOPs 約為 DeepSeek-V3.2 的 27%,KV cache 內(nèi)存約為 10%;V4-Flash 則進一步降到 10% FLOPs 和 7% KV cache。相較于常見 grouped query attention 架構(gòu),V4 的 KV cache 大約只需要 2% 的緩存規(guī)模。


這句話翻譯成普通用戶能感知的體驗,就是:V4 不只是「能塞進很多材料」,而是更有機會在塞進很多材料之后,仍然保持可用的速度、成本和穩(wěn)定性。

架構(gòu)看點:DeepSeek V4 把長上下文做成了 Agent 的基礎能力

DeepSeek-V4 并不是推倒重來。它仍然基于 Transformer 和 MoE,繼承 DeepSeekMoE 與 Multi-Token Prediction,同時引入三項關鍵升級:混合注意力機制、mHC 殘差連接和 Muon優(yōu)化器,attention 層采用 CSA 或 HCA,前饋層使用 DeepSeekMoE,殘差路徑通過 mHC 增強。


其中最關鍵的是 CSA 和 HCA。CSA 是 Compressed Sparse Attention,思路是先壓縮,再選擇:先把連續(xù) token 的 KV 信息壓縮成更少的 entry,再通過輕量 indexer 選擇最相關的 top-k 壓縮塊進行 attention。HCA 是 Heavily Compressed Attention,壓縮得更激進,把更長一段歷史合并成更少的記憶單元。簡單說,CSA 更像精準檢索,HCA 更像長期壓縮記憶。二者結(jié)合后,模型既能訪問長程信息,又能控制計算成本。

為了避免長程壓縮帶來近期信息損失,DeepSeek-V4 并沒有只依賴 CSA/HCA 這類壓縮注意力,而是額外加入了sliding window attention分支,用來保留近鄰 token 的高分辨率表示。這樣做的意義在于,模型在處理百萬 token 級上下文時,不需要對所有歷史信息都用同一種精度保存。距離當前問題較遠的內(nèi)容,可以通過壓縮和稀疏選擇降低計算成本;而最近的上下文通常包含指令約束、局部推理步驟、代碼細節(jié)或正在展開的對話狀態(tài),因此需要保留更完整的 token 級信息。簡單說,長程信息靠壓縮與選擇來降低成本,近程信息靠滑動窗口來保留細節(jié),這構(gòu)成了 DeepSeek-V4 處理超長上下文的基本邏輯。

mHC則主要解決深層模型訓練中的穩(wěn)定性問題。隨著模型層數(shù)加深,普通 Transformer 的殘差連接雖然能幫助信息傳遞,但殘差流本身仍可能出現(xiàn)信號累積、尺度失衡或?qū)娱g交互不足的問題。mHC 的思路是把原本單一路徑的殘差流擴展為多個通道,讓不同層之間的信息可以通過可學習方式進行混合。這樣一來,模型不僅能保留淺層信息,也能更靈活地調(diào)配不同深度的表示。為了進一步避免深層網(wǎng)絡中信號被不斷放大,DeepSeek-V4 還將殘差映射矩陣約束在雙隨機矩陣流形上,使信息混合過程更加穩(wěn)定,從而提升大規(guī)模模型訓練和長鏈推理時的可靠性。

Muon優(yōu)化器則對應訓練效率和收斂穩(wěn)定性的提升。DeepSeek-V4 并沒有完全放棄 AdamW,而是采用混合優(yōu)化策略:對部分對穩(wěn)定性更敏感或更適合 AdamW 的模塊繼續(xù)使用 AdamW,對大部分矩陣參數(shù)則使用 Muon。Muon 的核心思想,是對參數(shù)更新矩陣進行近似正交化,讓更新方向更加穩(wěn)定,減少不同維度之間的冗余和干擾。與此同時,它還結(jié)合了 Nesterov trick、weight decay 和 update RMS rescaling 等機制,用來改善大規(guī)模訓練中的收斂速度、尺度控制和泛化表現(xiàn)。

換句話說,Muon 不是單純?yōu)榱恕坝柧毟臁保?strong>是為了讓超大規(guī)模MoE模型在長上下文、高參數(shù)量和復雜數(shù)據(jù)分布下更穩(wěn)定地學到有效能力。

Agent 能力:V4 的主戰(zhàn)場不是「問答」,而是「連續(xù)執(zhí)行」

官方明確表示,V4 已經(jīng)集成到 Claude Code、OpenClaw、OpenCode 等 AI Agent 工具中,也被用于 DeepSeek 內(nèi)部的 agentic coding。

更關鍵的是,V4 對 Agent 的優(yōu)化不是簡單的「支持工具調(diào)用」。它在訓練和交互范式上做了更深的調(diào)整。

Hugging Face 文章提到,V4 在帶工具調(diào)用的多輪流程中,會跨用戶消息保留 reasoning content,使模型在長程 Agent 工作流里能夠維持累計推理狀態(tài);同時,V4 引入|DSML|特殊 token 和 XML 風格工具調(diào)用格式,以減少 JSON-in-string 工具調(diào)用中常見的轉(zhuǎn)義錯誤和參數(shù)解析失敗。

很多 Agent 的失敗,并不是因為模型「不聰明」,而是因為工程鏈路太脆弱:參數(shù)格式錯了、字符串轉(zhuǎn)義壞了、工具返回讀錯了、前一步計劃丟了、后一步不知道為什么執(zhí)行。模型越頻繁調(diào)用工具,這類小錯誤就越容易累計成任務失敗。

V4 的設計思路是,把 Agent 的易錯點提前納入模型訓練與接口設計中。

代碼能力:V4-Pro 已接近「開源 Agentic Coding 第一梯隊」

從公開基準看,V4-Pro 的 Agent 和軟件工程表現(xiàn)相當突出。

Hugging Face 的數(shù)據(jù)稱,V4-Pro-Max 在 Terminal Bench 2.0 上為 67.9,領先 GLM-5.1 和 K2.6,但落后于 GPT-5.4-xHigh 與 Gemini-3.1-Pro;在 SWE Verified 上解決率為 80.6,幾乎與 Opus-4.6-Max 和 Gemini-3.1-Pro 持平;在 MCPAtlas Public 上為 73.6,僅略低于 Opus-4.6-Max;Toolathlon 得分 51.8,高于 K2.6、GLM-5.1 和 Gemini-3.1-Pro。

這組成績透露出一個清晰信號:V4-Pro 在傳統(tǒng)知識問答上未必全面擊穿閉源巨頭,但在 Agentic Coding 這類更接近真實工作流的任務里,已經(jīng)進入非??壳暗奈恢?。

這對開發(fā)者的意義不小。

過去國產(chǎn)開源模型在代碼場景里經(jīng)常有一個問題:寫小函數(shù)可以,解釋代碼可以,但一進入復雜 repo、跨文件修改、運行測試、修復回歸,就明顯弱于 Claude、GPT 或 Gemini。

V4 如果能在真實項目中穩(wěn)定接住這類任務,就不只是「會寫代碼」,而是開始具備「參與工程流程」的能力。

當然,這里也要保持克制。Benchmark 不等于真實生產(chǎn)環(huán)境。復雜工程任務中,模型還會面對依賴安裝、私有代碼規(guī)范、模糊需求、測試不完整、歷史包袱和安全約束。

V4 能否在企業(yè)真實代碼庫里替代一線閉源模型,還需要更多長期使用反饋。但至少從方向上看,V4 已經(jīng)不是一個只會刷 HumanEval 的模型了。

價格測評:DeepSeek 最熟悉的刀,還是成本

DeepSeek 的殺傷力一直不只是性能,而是性能和價格的組合。

官方 API 價格顯示,V4-Flash 每 1M input tokens 緩存命中價格為 0.028 美元,緩存未命中為 0.14 美元,輸出為 0.28 美元;V4-Pro 每 1M input tokens 緩存命中為 0.145 美元,緩存未命中為 1.74 美元,輸出為 3.48 美元。兩個模型均支持 1M 上下文,最大輸出為 384K。

尤其是 V4-Flash,它不是一個傳統(tǒng)意義上的「縮水版」。如果它在普通推理、簡單 Agent、長文檔處理和日常代碼任務上能接近 Pro,那么它會成為大量應用開發(fā)者的默認選擇。

對企業(yè)來說,V4-Pro 負責復雜任務,V4-Flash 負責高頻任務,二者組合起來,會形成一套非常實用的成本結(jié)構(gòu)。

V4 的另一層意義,挑戰(zhàn) CUDA 的默認規(guī)則

DeepSeek V4 還有一個不能忽略的背景:國產(chǎn)算力。

Reuters 報道稱,DeepSeek V4 Preview 被適配到華為 Ascend AI 芯片上,V4 分為 Pro 和 Flash 兩個版本,其中 Pro 面向復雜任務,F(xiàn)lash 更快且更具成本效益。這被視為中國在降低對外國 AI 技術依賴、構(gòu)建自給自足生態(tài)方面的重要一步。

這件事的意義,超過模型本身。

過去開源大模型生態(tài)有一個隱含前提:最優(yōu)先適配 CUDA,最核心的訓練和推理優(yōu)化都圍繞英偉達生態(tài)展開。即便模型是開源的,真正跑起來的基礎設施也高度依賴英偉達。

DeepSeek V4 如果能在華為昇騰生態(tài)上形成穩(wěn)定高效的訓練與推理路徑,就意味著中國大模型產(chǎn)業(yè)第一次更認真地嘗試「模型—框架—芯片—應用」的閉環(huán)。

這不是說國產(chǎn)算力已經(jīng)完全替代英偉達?,F(xiàn)實情況仍然復雜,軟件生態(tài)、開發(fā)體驗、性能穩(wěn)定性、集群規(guī)模、工具鏈成熟度都需要時間。但 V4 至少釋放了一個信號:未來中國大模型公司的競爭,可能不只是模型參數(shù)和榜單排名,而是整個算力底座的協(xié)同能力。

短板與風險:V4 仍然不是完美模型

DeepSeek V4 的優(yōu)勢很明顯,但它的短板也需要寫清楚。

第一,V4 仍然主要是文本與代碼模型,并不具備音頻、視頻等完整多模態(tài)能力。相較于 OpenAI、Google、Anthropic 乃至阿里、字節(jié)在全模態(tài)方向上的推進,DeepSeek V4 的產(chǎn)品邊界仍然更偏語言、代碼、推理和 Agent。

第二,V4 的長上下文能力需要真實場景驗證。1M token 是上限,但不是所有任務都能從 1M 上下文中受益。長上下文模型常見問題包括中段信息衰減、引用錯位、局部細節(jié)遺忘、成本不可控。Hugging Face 引用的 MRCR 8-needle 結(jié)果顯示,V4-Pro-Max 在 256K 以內(nèi)保持較高準確率,但到 1M 時準確率下降到 0.59。


第三,V4 的 Agent 能力很依賴工具生態(tài)適配。它引入新的工具調(diào)用格式與 reasoning 管理方式,這對官方生態(tài)是優(yōu)勢,但對第三方框架也意味著適配成本。Hugging Face 也指出,一個開放問題是社區(qū)工具 harness 如何適配|DSML|schema,以及 interleaved thinking 的收益能否遷移到域外 Agent 框架。

大模型競爭正轉(zhuǎn)向上下文效率與系統(tǒng)工程競爭

DeepSeek 的技術演進,始終圍繞一個核心目標展開:用更高效率獲得更強能力。早期 DeepSeek LLM 奠定了通用大模型基礎,DeepSeek-Coder 強化了代碼能力,DeepSeekMath 將能力拓展到數(shù)學推理;隨后,DeepSeekMoE 通過專家混合架構(gòu)提升參數(shù)利用效率,DeepSeek-V2/V3 進一步把MoE、MLA、多 token 預測和低成本訓練推向系統(tǒng)化階段

到了 DeepSeek-R1,技術主線從預訓練效率延伸到強化學習推理能力,模型開始通過長鏈推理提升復雜問題求解表現(xiàn)。而 DeepSeek-V4 則可以看作這條路線的繼續(xù)推進:在已有 MoE、推理和工程優(yōu)化基礎上,把重點進一步轉(zhuǎn)向長上下文效率、KVcache 壓縮和系統(tǒng)級可部署性。

DeepSeek-V4 的行業(yè)意義,不只是發(fā)布了一個更強模型,而是提示大模型競爭正在換賽道。過去外界討論模型,常常圍繞參數(shù)規(guī)模和榜單分數(shù)。但當模型進入真實工作流,問題會變得更工程化:它能不能讀完整個代碼倉庫,能不能處理復雜文檔,能不能在長任務里保持狀態(tài),能不能把推理成本壓到可接受范圍。

DeepSeek-V4 的路線說明,未來長上下文模型不會只是把窗口越做越大。更現(xiàn)實的路線,是把長上下文拆解為壓縮、索引、稀疏選擇、局部窗口、KVcache 管理和硬件友好計算。科研助手可以從單篇論文總結(jié)走向多論文綜合分析,代碼助手可以從函數(shù)級補全走向倉庫級理解,企業(yè)知識庫可以從片段式問答走向跨文檔推理,Agent 系統(tǒng)則可以擁有更長的任務鏈和更穩(wěn)定的歷史狀態(tài)。

這并不意味著 RAG 會消失。更可能出現(xiàn)的是新分工:RAG 負責從外部知識庫粗篩材料,長上下文模型負責深度閱讀和跨材料推理,模型內(nèi)部的壓縮注意力負責降低計算成本。

同時,DeepSeek-V4 也說明,大模型公司越來越像系統(tǒng)公司。模型結(jié)構(gòu)只是其中一環(huán),訓練框架、并行策略、kernel、量化、KVcache、推理調(diào)度和硬件適配同樣重要。官方報告中提到的 MoE 通信計算重疊、TileLang、確定性 kernel、FP4 量化感知訓練、異構(gòu) KV cache 和 on-disk KV cache storage,都說明百萬 token 背后是完整計算棧的競爭。

加入ZF討論群,請先添加小助手微信

我們相信認知能夠跨越階層,

致力于為年輕人提供高質(zhì)量的科技和財經(jīng)內(nèi)容。

稿件經(jīng)采用可獲邀進入Z Finance內(nèi)部社群,優(yōu)秀者將成為簽約作者,00后更有機會成為Z Finance的早期共創(chuàng)成員。

我們正在招募新一期的實習生

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
5小時扣押!普京硬剛以色列,劃紅線力挺伊朗,美以收到危險信號

5小時扣押!普京硬剛以色列,劃紅線力挺伊朗,美以收到危險信號

涼羽亭
2026-04-29 18:05:08
去銀行注銷銀行卡,柜員問銷卡還是銷戶?一字之差后果完全不一樣

去銀行注銷銀行卡,柜員問銷卡還是銷戶?一字之差后果完全不一樣

復轉(zhuǎn)這些年
2026-04-16 12:15:01
隨著廣東男籃不敵廣州,杜峰和教練組,有可能做出以下3大改變

隨著廣東男籃不敵廣州,杜峰和教練組,有可能做出以下3大改變

阿晞體育
2026-04-29 12:32:42
最后的瘋狂:許家印被抓捕的失控三秒鐘

最后的瘋狂:許家印被抓捕的失控三秒鐘

財經(jīng)保探長
2026-04-09 22:30:38
八大軍區(qū)司令員對調(diào),中央開會氣氛很緊張,毛主席:先開個玩笑吧

八大軍區(qū)司令員對調(diào),中央開會氣氛很緊張,毛主席:先開個玩笑吧

春秋硯
2026-04-29 06:45:13
除了登貝萊還有他!10球5助攻巴黎25歲邊鋒攔不住,他已是頂級

除了登貝萊還有他!10球5助攻巴黎25歲邊鋒攔不住,他已是頂級

里芃芃體育
2026-04-29 15:00:06
許家印拿錢開路:5千萬簽女明星 送幾十瓶茅臺 沒他搞不定的人?

許家印拿錢開路:5千萬簽女明星 送幾十瓶茅臺 沒他搞不定的人?

念洲
2026-04-29 14:46:42
水聲工程專家田坦逝世,曾參與“東風五號”落點定位系統(tǒng)研制

水聲工程專家田坦逝世,曾參與“東風五號”落點定位系統(tǒng)研制

澎湃新聞
2026-04-29 11:00:27
蔣萬安發(fā)出強硬警告,"中國臺灣省"走向國際,10國選擇明智應對

蔣萬安發(fā)出強硬警告,"中國臺灣省"走向國際,10國選擇明智應對

混沌錄
2026-04-29 20:17:16
阿聯(lián)酋為什么退出歐佩克及“歐佩克+”?

阿聯(lián)酋為什么退出歐佩克及“歐佩克+”?

新京報
2026-04-29 08:16:37
今日最慘股,從38跌到了2.7,觸底反彈一天后,現(xiàn)又2個20cm跌停!

今日最慘股,從38跌到了2.7,觸底反彈一天后,現(xiàn)又2個20cm跌停!

丁丁鯉史紀
2026-04-29 10:43:52
上海兩女子地鐵打架續(xù):真相曝光 老人先挑事動手 女子工作恐不保

上海兩女子地鐵打架續(xù):真相曝光 老人先挑事動手 女子工作恐不保

小鋭有話說
2026-04-29 08:41:27
2026年4月北京各區(qū)老破小房價最新出爐!

2026年4月北京各區(qū)老破小房價最新出爐!

說故事的阿襲
2026-04-29 18:34:02
“二女兒長大得多恨你們!”家長否認重男輕女,名字卻暴露了私心

“二女兒長大得多恨你們!”家長否認重男輕女,名字卻暴露了私心

妍妍教育日記
2026-04-28 16:14:08
奧尼爾談文班亞馬:兩年后他會和約基奇并肩成為聯(lián)盟最佳內(nèi)線

奧尼爾談文班亞馬:兩年后他會和約基奇并肩成為聯(lián)盟最佳內(nèi)線

懂球帝
2026-04-29 10:32:07
醪糟再次被關注!醫(yī)生發(fā)現(xiàn):高血脂患者喝醪糟,不用多久4大變化

醪糟再次被關注!醫(yī)生發(fā)現(xiàn):高血脂患者喝醪糟,不用多久4大變化

芹姐說生活
2026-04-19 15:52:53
澤連斯基指責以色列接收烏克蘭被盜糧食,以色列暗示烏克蘭說謝謝

澤連斯基指責以色列接收烏克蘭被盜糧食,以色列暗示烏克蘭說謝謝

山河路口
2026-04-28 23:32:52
鳳崗鎮(zhèn)黨委原書記黃樂瑜被查,曾在東莞多地任職

鳳崗鎮(zhèn)黨委原書記黃樂瑜被查,曾在東莞多地任職

南方都市報
2026-04-29 12:41:07
香港頂級富二代共進早餐,何超瓊李澤楷坐中間,霍啟剛鄭志雯也在

香港頂級富二代共進早餐,何超瓊李澤楷坐中間,霍啟剛鄭志雯也在

漫婷侃娛樂
2026-03-29 19:37:50
美股盤前要聞一覽:美聯(lián)儲利率決議在即;馬斯克天價薪酬方案曝光;全球央行一季度增儲黃金244噸

美股盤前要聞一覽:美聯(lián)儲利率決議在即;馬斯克天價薪酬方案曝光;全球央行一季度增儲黃金244噸

財聯(lián)社
2026-04-29 20:50:04
2026-04-29 21:27:00
ZFinance
ZFinance
Z世代的一站式AI、科技和財經(jīng)資訊
174文章數(shù) 15關注度
往期回顧 全部

科技要聞

今晨庭審紀實|馬斯克當庭講述OpenAI被偷走

頭條要聞

男子詐騙熟人350萬 朋友圈發(fā)文"我跑路了 你們報案吧"

頭條要聞

男子詐騙熟人350萬 朋友圈發(fā)文"我跑路了 你們報案吧"

體育要聞

一場九球狂歡,各路神仙批量下凡

娛樂要聞

馬頔一句話,孫楊媽媽怒罵節(jié)目組2小時

財經(jīng)要聞

蘇州,率先進入牛市

汽車要聞

技術天花板再摸高 全能型的奕境X9首秀

態(tài)度原創(chuàng)

健康
房產(chǎn)
家居
公開課
軍事航空

干細胞治燒燙傷能用了么?

房產(chǎn)要聞

80億投資!浙商總部基地+海口北站,金沙灣這是要起飛??!

家居要聞

寂然無界 簡潔風格

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

美國參議院否決限制特朗普對古巴動武的決議

無障礙瀏覽 進入關懷版