国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

突破一億Token:EverMind MSA架構,實現(xiàn)大模型高效端到端長時記憶

0
分享至



機器之心發(fā)布

人的智能能力主要由推理能力和長期記憶能力構成。近年來,大模型的推理能力一直處于快速發(fā)展過程,但大模型的長期記憶能力一直受限于上下文長度,無法取得突破。在歷史上,曾經(jīng)有多種路線進行嘗試,但都無法突破擴展性(Scalability)精度(Precision)效率(Efficiency)的不可能三角。近期,《MSA: Memory Sparse Attention for Efficient End-to-End Memory Model Scaling to 100M Tokens》的工作進入我們的視野。

文章中提出了一種新的記憶架構,MSA(Memory Sparse Attention),通過記憶稀疏注意力機制、實現(xiàn)超長上下文外推的文檔級旋轉位置編碼(Document-wise RoPE)KV 緩存壓縮與內(nèi)存并行,以及支持復雜推理的記憶交錯(Memory Interleave)機制,實現(xiàn)了 100M 長度的大模型長時記憶框架,在主流的長文本問答、大海撈針等評測上,取得了業(yè)界領先的結果。并且,當長度由 16K 增加到 100M 時,模型的得分只下降了 9%,體現(xiàn)了非常強的擴展能力。

這個方法可以看作是大模型的一個記憶插件,為我們解決長期記憶問題提供了一個新的思路和方向。在今天 OpenClaw 引發(fā)的 Agent 爆發(fā)時代到來之際,這篇文章有望成為開啟 “記憶即服務”(Memory-as-a-Service)新紀元的里程碑。



  • GitHub 鏈接:https://github.com/EverMind-AI/MSA
  • 論文鏈接:https://zenodo.org/records/19103670



圖 1 MSA-4B 的長文本問答得分隨上下文長度衰減顯著優(yōu)越(論文原圖)

1. LLM 長時記憶的 “不可能三角”

近年來,大型語言模型(LLM)的能力邊界不斷拓寬,但在模擬人生(Life Long)級別的長時、細粒度記憶方面,始終面臨著一道難以逾越的鴻溝。無論是需要通讀并理解長篇小說的文學分析,還是要求在多輪對話中保持人格一致性的數(shù)字孿生,抑或是需要追溯漫長歷史記錄的 Agent 系統(tǒng),都對模型的有效上下文長度提出了近乎苛刻的要求。然而,主流 LLM 受限于全注意力機制(Full Attention)的二次方復雜度,其有效上下文窗口長期被限制在百萬(1M)Token 左右,與人類一生約數(shù)億 Token 的記憶容量相去甚遠。

為了突破這一瓶頸,學界和業(yè)界探索了三條主要的技術路線,但每條路線都在試圖解決問題的同時,陷入了新的困境,形成了一個難以調(diào)和的 “不可能三角”:

1.參數(shù)化記憶(Parameter-Based Memory):通過持續(xù)訓練或微調(diào)將知識 “燒錄” 進模型參數(shù)。此方法精度高,但擴展性差,更新成本高昂且易發(fā)生災難性遺忘。

2.外部存儲記憶(External Storage-Based Memory):以檢索增強生成(RAG)為代表,將記憶外置于向量數(shù)據(jù)庫。此方法擴展性好,但其 “檢索 - 生成” 兩階段分離的非端到端特性,導致檢索精度成為性能瓶頸,難以進行深度語義對齊。

3.潛狀態(tài)記憶(Latent State-Based Memory):利用模型內(nèi)部的隱藏狀態(tài)(如 KV 緩存)作為工作記憶。此方法語義保真度高,但面臨著效率與容量的直接沖突?;?KV 緩存局部保留的方法(如利用 Attention Sinks 機制的 StreamingLLM)精度高但擴展性受限;而基于線性注意力的方法(如 RWKV, DeltaNet)雖然實現(xiàn)了線性復雜度,卻因有損壓縮而在超長上下文中精度嚴重下降。

正是在這一背景下,《MSA》一文提出了一個極具雄心的目標:設計一個端到端可訓練的、能以線性復雜度擴展至億級 Token、同時保持高精度的潛狀態(tài)記憶框架。MSA 的出現(xiàn),旨在正面挑戰(zhàn)并打破上述 “不可能三角”,為 LLM 賦予真正意義上的 “終身記憶”。

2. MSA 架構深度剖析:四大創(chuàng)新支柱

MSA 的革命性并非源于單一技術的突破,而是一套環(huán)環(huán)相扣、系統(tǒng)性的架構創(chuàng)新。這套 “創(chuàng)新棧” 協(xié)同工作,共同構成了其高性能的基石。

2.1 核心基石:記憶稀疏注意力 (Memory Sparse Attention)

MSA 的核心思想是在 Transformer 的注意力層引入一種可微分的、基于內(nèi)容的稀疏化機制。它不再讓模型在推理時關注所有歷史記憶,而是設計了一個高效的 “路由”(Routing)模塊,動態(tài)選擇最相關的記憶子集參與計算。



圖 2:記憶稀疏注意力架構 Memory Sparse Attention layer(論文原圖 )

這張圖是 MSA 技術實現(xiàn)的核心,展示了一個高度優(yōu)化的 Transformer 層如何將海量外部記憶(Docs)與當前查詢(Query)高效融合。其流程可分解為左右兩個協(xié)同工作的模塊。

左側是標準的 Transformer 外殼。 整體上,MSA 層被包裹在一個標準的 Pre-Norm Transformer 模塊中。它取代了傳統(tǒng)的自注意力(Self-Attention)層,其輸出與輸入通過殘差連接(Residual Connection,圖中的⊕符號)相加,隨后經(jīng)過 RMSNorm 歸一化和 FFN(前饋網(wǎng)絡)層處理。這一設計確保了 MSA 可以作為即插即用的模塊,無縫集成到現(xiàn)有的大模型架構中,無需對整體架構進行顛覆性改造。

右側是 MSA 的"雙重路由" 稀疏注意力機制。 這是創(chuàng)新的核心,通過一個精巧的 "雙重路由" 機制,實現(xiàn)了從海量文檔中 "優(yōu)中選優(yōu)" 的過程,避免了對所有記憶進行暴力全量計算。

  • 首先是輸入與投影階段:模型接收外部知識庫(Docs)和當前上下文的查詢(Query)。知識庫被投影成四份獨立的表征:Q(查詢)、K(鍵)、V(值),以及一個專門用于路由的鍵 K^R(Routing Key)。
  • 其次是第一重路由(Topic-level,主題級篩選):模型首先對整個知識庫進行粗粒度的 "主題篩選"。它通過一個注意力機制(圖中的 Multi-head Attention)和 Token-wise mean pooling 操作,計算出當前 Query 與所有文檔 "主題"(由 K^R 代表)的關聯(lián)度,輸出一個主題概率分布,決定哪些文檔在宏觀上與當前查詢最相關。同時,輔助損失 L_aux 在此處被計算,以確保路由的稀疏性和有效性,防止所有查詢都涌向少數(shù)幾個熱門文檔,保證記憶的均衡利用。
  • 然后是第二重路由(Token-level,詞元級精篩):在第一步鎖定的相關文檔內(nèi)部,模型進行更精細的 "內(nèi)容篩選"。通過 Pooling 和 Top-k 操作,在詞元級別上計算查詢與具體內(nèi)容塊的相似度,從相關文檔中進一步挑選出最關鍵的句子或段落(圖中綠色高亮的小方塊)。
  • 最后是最終注意力計算階段:經(jīng)過 "雙重路由" 后,只有被選中的、最精華的 K 和 V 向量才會被加載到注意力計算中。這些經(jīng)過稀疏化處理的記憶 K/V,與原始的 Query 的 K/V 進行拼接(Concat),共同進入最終的 Multi-head Attention 層,生成最終輸出。

這一機制的獨創(chuàng)性在于,它將 RAG 系統(tǒng)中的 "檢索" 步驟,內(nèi)化為了一個可端到端訓練的神經(jīng)網(wǎng)絡模塊。與依賴外部、固定的相似性度量(如向量余弦距離)的 RAG 不同,MSA 的路由器是在訓練過程中與生成任務共同優(yōu)化的(通過一個輔助的對比學習損失 L_aux),這意味著它能學會一種更符合模型內(nèi)部 "世界觀" 的、與最終任務目標更對齊的檢索策略。這從根本上解決了 RAG"檢索" 與 "生成" 目標不一致的核心痛點,是其實現(xiàn)高精度的關鍵。

2.2 擴展性關鍵:文檔級旋轉位置編碼 (Document-wise RoPE)

要實現(xiàn)從較短的訓練文本(如 64k)到億級推理文本的成功外推,一個核心挑戰(zhàn)是如何處理位置信息。如果采用傳統(tǒng)的全局位置編碼,當推理時的文檔數(shù)量遠超訓練時,位置索引會發(fā)生劇烈偏移,導致模型 “水土不服”,性能急劇下降。

MSA 為此提出了一個簡潔而高效的解決方案:為每個獨立的文檔(或記憶單元)分配一套獨立的旋轉位置編碼(RoPE)。這意味著,無論記憶庫中有多少文檔,模型在 “閱讀” 每個文檔時,其內(nèi)部的 “坐標系” 都是從 0 開始的、穩(wěn)定不變的。這種設計將文檔的內(nèi)部相對位置與其在全局記憶中的絕對位置解耦,使得模型在訓練時學到的位置感知能力,可以無損地泛化到包含海量文檔的推理場景中。這正是 MSA 能夠?qū)崿F(xiàn)驚人外推能力(Extrapolation)的理論基礎。

2.3 工程化落地:KV 緩存壓縮與內(nèi)存并行 (KV Cache Compression & Memory Parallel)

理論上的可行性必須通過工程實現(xiàn)才能轉化為現(xiàn)實。在億級 Token 的尺度下,即便經(jīng)過壓縮,KV 緩存的存儲需求也高達上百 GB,遠超單個 GPU 節(jié)點的顯存容量。MSA 通過一套精巧的 “內(nèi)存并行” 策略解決了這一物理瓶頸。

  • 分層存儲(Tiered Storage):MSA 敏銳地觀察到,在路由階段,模型僅需要體積相對較小的路由鍵 KR 來進行快速匹配;而體積龐大的內(nèi)容鍵值 K 和 V,只有在 Top-k 選擇完成后才需要。因此,它設計了一套分層存儲系統(tǒng):
  • GPU 常駐路由鍵:將所有文檔的 KR 分布式地存儲在多張 GPU 的高速顯存中,確保低延遲的全局檢索。
  • CPU 卸載內(nèi)容鍵值:將占據(jù)絕大部分空間的 K 和 V 矩陣存儲在大容量的 CPU 內(nèi)存(DRAM)中。
  • 異步調(diào)度(Asynchronous Fetching):當 GPU 完成路由計算、確定 Top-k 文檔后,系統(tǒng)再異步地從 CPU 內(nèi)存中調(diào)取所需的內(nèi)容 KV 到 GPU,用于最終的生成計算。

這種 “快查(GPU)慢?。–PU)” 的策略,優(yōu)雅地將存儲瓶頸從有限的 GPU 顯存轉移到了海量的 CPU 內(nèi)存,使得在標準硬件(如 2 張 A800 GPU)上運行億級 Token 的推理成為可能。這不僅是工程上的創(chuàng)舉,更是該技術能夠走向?qū)嶋H應用的前提。

2.4 復雜推理能力:記憶交錯 (Memory Interleave)

對于需要整合多個分散在不同文檔中的證據(jù)才能回答的復雜問題(即多跳推理),單次的 “檢索 - 生成” 循環(huán)往往力不從心。為此,MSA 引入了記憶交錯機制

該機制允許模型進行多輪次的 “生成式檢索 → 上下文擴展” 循環(huán)。在第一輪,模型根據(jù)原始問題,首先生成它認為最相關的文檔 ID 序列;隨后,系統(tǒng)獲取這些文檔的原文,并將其追加到原始問題之后,形成一個新的、更豐富的 “中間問題”;在下一輪,模型基于這個新問題,再次生成新的文檔 ID…… 如此循環(huán)往復,直到模型認為積累的證據(jù)足夠充分,便停止生成文檔 ID,轉而生成最終答案。

這種迭代式的推理鏈,模擬了人類偵探辦案時 "發(fā)現(xiàn)線索 A → 順藤摸瓜找到線索 B → 整合 AB 形成完整證據(jù)鏈" 的思考過程。它賦予了 MSA 動態(tài)規(guī)劃其信息搜集路徑的能力,是其在多跳問答(Multi-hop QA)任務上表現(xiàn)出色的重要原因。



圖 3:三階段流程圖 — Three-Stage Inference Process with Memory Interleave(論文原圖)

這張圖以一個具體的多跳問答案例("埃里克?瓦茨的父親何時出生?")為例,完整展示了記憶交錯機制在推理時的三階段工作流程。

第一階段:全局記憶編碼(Global Memory Encoding,圖左)。 這是一個離線預處理步驟。整個知識語料庫(Corpus)被一次性編碼,生成一個龐大的 KV 緩存,即全局 "記憶"(Memory)。這個記憶庫通常存儲在成本更低的 CPU 內(nèi)存或 SSD 中,等待被實時查詢調(diào)用。這一階段的計算成本是一次性的,與后續(xù)的推理次數(shù)無關。

第二階段:路由與上下文組裝(Routing and Context Assembly,圖中)。 這是推理的核心循環(huán),圖中以三步迭代為例展示了完整的證據(jù)鏈構建過程。

第 1 輪迭代中,用戶提出初始問題(埃里克?瓦茨的父親何時出生?)。模型使用這個問題作為 Query,通過 MSA 的路由機制,從全局 Memory 中檢索到第一個最相關的證據(jù)塊:Erik Watts ...... is the son of Bill Watts(埃里克?瓦茨是比爾?瓦茨的兒子)。此時上下文中只有 "誰是埃里克的父親" 這一信息,尚不足以直接回答問題,模型因此生成一個中間引用標記 [4]

,表示已定位到文檔 4,并將其內(nèi)容納入上下文。

第 2 輪迭代中,上下文已擴展,包含了第 1 輪獲取的證據(jù)。模型在內(nèi)部生成一個新的、更具體的查詢需求(即 "比爾?瓦茨何時出生?"),并再次調(diào)用 MSA 路由機制,這次檢索到了包含比爾?瓦茨出生日期的證據(jù)塊:Bill Watts born May 5, 1939(比爾?瓦茨,生于 1939 年 5 月 5 日)。模型再次生成引用標記 [3]

,將文檔 3 的內(nèi)容追加到上下文中。

第三階段:稀疏生成(Sparse Generation)。 當證據(jù)鏈完整后,上下文同時包含了 "埃里克的父親是比爾" 和 "比爾的生日是 1939 年 5 月 5 日" 兩條關鍵證據(jù)。模型在最后一次生成步驟中,輸出特殊標記 < End-of-Retrieve>,宣告證據(jù)搜集結束,隨后整合所有證據(jù),生成最終的、高確定性的答案:The answer to the question is: May 5, 1939(答案是:1939 年 5 月 5 日)。

這張圖直觀地揭示了記憶交錯機制的本質(zhì):它將 "推理" 與 "檢索" 深度交織,使模型能夠像一位經(jīng)驗豐富的研究員一樣,從一個模糊的初始問題出發(fā),通過逐步發(fā)現(xiàn)、逐步聚焦的方式,最終鎖定精確答案。這種能力對于解決真實世界中那些答案分散在多個文檔中的復雜問題,具有不可替代的價值。

3. 實驗數(shù)據(jù)再解讀:MSA 的價值驗證

論文通過一系列詳盡的實驗,從多個維度驗證了 MSA 架構的有效性。我們將核心數(shù)據(jù)可視化并進行解讀。

3.1 驚人的擴展性與魯棒性



圖 4:在 “大海撈針”(NIAH)測試中,MSA 在上下文從 32K 擴展至 1M 時,準確率僅從 99% 下降至 95%,表現(xiàn)出極強的穩(wěn)定性。相比之下,其他長上下文模型則在256K后顯著衰減(論文原圖)。



圖 5:論文原圖,在更極限的 MS MARCO 問答測試中,將記憶規(guī)模從 16K 擴展至 100M(跨越 4 個數(shù)量級),MSA 的性能評分僅從 4.023 下降至 3.669,衰減率不足 9%。這直觀地證明了其架構在抵抗大規(guī)模無關信息(噪聲)干擾方面的卓越魯棒性。

3.2 端到端優(yōu)化的威力



圖 6:在 9 個 QA 基準測試的平均分上,4B 參數(shù)的 MSA 模型(平均分 3.760)顯著優(yōu)于基于同樣 4B 底座構建的、包含重排器(Reranker)的復雜 RAG 系統(tǒng)。甚至在多個數(shù)據(jù)集上,其表現(xiàn)超過了由 SOTA 的 KaLMv2 檢索器和 235B 參數(shù)的 Qwen3 巨無霸模型組成的頂級 RAG 系統(tǒng)。這充分證明了 MSA 端到端優(yōu)化帶來的高精度優(yōu)勢。

3.3 各組件的不可或缺性



圖 7:消融實驗清晰地量化了每個創(chuàng)新點的貢獻。與基線模型 MSA-S1 相比,移除 “記憶交錯” 機制導致在多跳問答任務上性能大幅下降;移除 “持續(xù)預訓練” 中的輔助路由監(jiān)督,則讓模型幾乎喪失了有效的檢索能力;而移除 “原始文本注入” 則造成最嚴重的性能滑坡,說明最終的精確回答仍需依賴原始文本的細節(jié)。這證明了 MSA 是一個設計精巧、各部分缺一不可的有機整體。

4. 總結:MSA 的獨創(chuàng)性與核心價值

綜合上述分析,我們可以總結出 MSA 論文的核心獨創(chuàng)性與價值點:



總而言之,MSA 的真正價值,并不僅僅是發(fā)布了一個性能強大的長上下文模型,而是為 AI 記憶領域提供了一套全新的、被完整驗證過的、兼具擴展性、精度與效率的技術基礎設施。 它證明了,我們不必在 RAG 的 “低精度” 和全注意力的 “高成本” 之間做出痛苦的妥協(xié)。通過將稀疏化思想與神經(jīng)網(wǎng)絡的端到端學習能力巧妙結合,構建一個獨立的、可擴展的、與 LLM 兼容的 “記憶層” 是完全可行的。

這為未來 AI 生態(tài)的發(fā)展描繪了一幅激動人心的藍圖:記憶可以作為一種獨立的、可插拔的服務,與各種推理核心(LLM)自由組合,用戶的數(shù)據(jù)和 “記憶資產(chǎn)” 不再被鎖定在任何單一的模型或廠商中。從這個角度看,MSA 不僅是一篇優(yōu)秀的學術論文,更可能是一個開啟 “記憶即服務”(Memory-as-a-Service)新紀元的里程碑。

5. 背景信息:EverMind 與盛大集團的 “發(fā)現(xiàn)式 AI” 愿景

為完整理解 MSA 研究背后的驅(qū)動力,有必要將其置于出品方 EverMind 及其母公司盛大集團(Shanda Group)的宏觀戰(zhàn)略背景下進行審視。EverMind 是盛大集團創(chuàng)始人陳天橋在 AI 領域深度布局、長期孵化的核心團隊之一,使命是攻克 AI 的長期記憶難題,走向AI的自我演化(Self Evolving)。

根據(jù)近期 Bloomberg 與鈦媒體 對陳天橋的專訪,盛大集團的 AI 戰(zhàn)略并非聚焦于當前主流的 “生成式 AI”,而是旨在構建一個更具開創(chuàng)性的 “發(fā)現(xiàn)式 AI(Discoverative AI)” 生態(tài)。其終極目標是讓 AI 輔助人類發(fā)現(xiàn)新知識、解決如疾病、能源等根本性問題,而非僅僅模仿和重組已有信息。在這一宏大愿景中,兩大技術基石被置于核心地位:

MiroMind:專注于推理(Reasoning)。該團隊致力于通過可驗證推理(Verifiable reasoning)等路徑,讓模型學會像科學家一樣主動向外部世界求證、修正假設,從而實現(xiàn)真正的推理可靠性與洞察發(fā)現(xiàn)。

EverMind:專注于記憶(Memory)。該團隊的使命是為 AI 打造一個可無限擴展、高保真、且獨立于任何特定模型的長期記憶系統(tǒng)。只有當 AI 擁有了穩(wěn)定可靠的記憶底座,才能在其上進行有效的、跨越時空的復雜推理與知識創(chuàng)造,走向AI的自我演化(Self Evolving)。

因此,EverMind 與 MiroMind 共同構成了盛大集團‘發(fā)現(xiàn)式 AI’藍圖的核心驅(qū)動力,分別對應著 “記憶” 與 “推理” 這兩大認知科學的核心支柱。本文所介紹的 MSA 架構,正是 EverMind 團隊踐行‘記憶即服務’理念的核心技術成果。其底層設計與技術路線,不僅是對現(xiàn)有長文本瓶頸的突破,更深刻印證了盛大集團在構建獨立、自主、可控 AI 基礎設施上的長期投入與堅定決心。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
靳磊任廣東省委常委、深圳市委書記

靳磊任廣東省委常委、深圳市委書記

新京報
2026-03-22 12:15:28
一票否決!歐盟內(nèi)部集體暴怒,德國總理當場發(fā)話:這事沒完

一票否決!歐盟內(nèi)部集體暴怒,德國總理當場發(fā)話:這事沒完

策略述
2026-03-21 14:58:28
四千名猶太人定居河南千年,為啥至今養(yǎng)不熟,排隊要回以色列

四千名猶太人定居河南千年,為啥至今養(yǎng)不熟,排隊要回以色列

瘋狂的小歷史
2026-03-21 11:08:01
一滴水放大400萬倍后,99.99%都是空的

一滴水放大400萬倍后,99.99%都是空的

物理系老郭
2026-03-21 20:00:06
網(wǎng)上舉報“民政局女干部母親名下登記有賓利車和10套房產(chǎn)”,女子被判道歉10天;再次發(fā)聲講述舉報原因

網(wǎng)上舉報“民政局女干部母親名下登記有賓利車和10套房產(chǎn)”,女子被判道歉10天;再次發(fā)聲講述舉報原因

大風新聞
2026-03-22 12:54:09
東契奇:比塔澤用塞爾維亞語告訴我“他要搞我全家”

東契奇:比塔澤用塞爾維亞語告訴我“他要搞我全家”

懂球帝
2026-03-22 10:52:07
網(wǎng)傳“梅姨”本人照片系虛假內(nèi)容,非警方發(fā)布!相關部門辟謠

網(wǎng)傳“梅姨”本人照片系虛假內(nèi)容,非警方發(fā)布!相關部門辟謠

南方都市報
2026-03-22 12:58:06
伊朗用霍爾木茲海峽威脅全世界能源安全!特朗普要求48小時內(nèi)必須開放,否則轟炸伊朗重要設施

伊朗用霍爾木茲海峽威脅全世界能源安全!特朗普要求48小時內(nèi)必須開放,否則轟炸伊朗重要設施

爆角追蹤
2026-03-22 10:20:59
越南教科書:廣東,廣西是越南故土,至今未收復,兩千年抗北歷史

越南教科書:廣東,廣西是越南故土,至今未收復,兩千年抗北歷史

長風文史
2026-03-19 20:48:02
銷售幫男子搖中“貴A·A88888”頂級“豹子號”車牌,兩人激動到當場大喊,網(wǎng)友直呼:黃金右手

銷售幫男子搖中“貴A·A88888”頂級“豹子號”車牌,兩人激動到當場大喊,網(wǎng)友直呼:黃金右手

極目新聞
2026-03-21 19:30:27
為何胡塞武裝至今不參戰(zhàn)?這才是伊朗的不參戰(zhàn)!或參與對美地面戰(zhàn)

為何胡塞武裝至今不參戰(zhàn)?這才是伊朗的不參戰(zhàn)!或參與對美地面戰(zhàn)

漫步獨行俠
2026-03-21 11:18:14
上海警方:朱某刑拘!年齡不是"免死金牌"!

上海警方:朱某刑拘!年齡不是"免死金牌"!

黃河新聞網(wǎng)呂梁
2026-03-22 10:28:25
強烈呼吁日本:給卸任首相漲點退休金,太丟人了,連保姆都雇不起

強烈呼吁日本:給卸任首相漲點退休金,太丟人了,連保姆都雇不起

雪中風車
2026-03-22 08:51:54
男子4s店蹭飯260頓后續(xù):被熟人認出,本人發(fā)聲喊冤,妻子被威脅

男子4s店蹭飯260頓后續(xù):被熟人認出,本人發(fā)聲喊冤,妻子被威脅

奇思妙想草葉君
2026-03-20 22:45:31
古巴:古政治制度不容談判

古巴:古政治制度不容談判

財聯(lián)社
2026-03-21 22:48:05
幾十個家庭壟斷一座城:縣城婆羅門的閉環(huán)游戲,正在逼走年輕人

幾十個家庭壟斷一座城:縣城婆羅門的閉環(huán)游戲,正在逼走年輕人

黑噪音
2026-03-21 19:33:08
伊朗5枚彈道導彈“空襲”,卡塔爾成為一片火海,美國七寸被擊中

伊朗5枚彈道導彈“空襲”,卡塔爾成為一片火海,美國七寸被擊中

漫步獨行俠
2026-03-21 11:20:54
后續(xù)!壺口瀑布事件:景區(qū)已上門道歉,內(nèi)部在查投訴人,網(wǎng)友辣評

后續(xù)!壺口瀑布事件:景區(qū)已上門道歉,內(nèi)部在查投訴人,網(wǎng)友辣評

奇思妙想草葉君
2026-03-21 20:56:23
央視點名6款放心醬油!別再瞎買了,看完這篇省下無數(shù)智商稅

央視點名6款放心醬油!別再瞎買了,看完這篇省下無數(shù)智商稅

普陀動物世界
2026-03-22 06:28:39
新加坡推出大規(guī)模生產(chǎn)的自平衡電動摩托車

新加坡推出大規(guī)模生產(chǎn)的自平衡電動摩托車

喜之春
2026-03-22 06:31:26
2026-03-22 13:43:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12555文章數(shù) 142590關注度
往期回顧 全部

科技要聞

OpenAI開啟“人海戰(zhàn)術” 沖刺8000人規(guī)模

頭條要聞

女子舉報干部母親名下有巨額財產(chǎn)被判道歉 當事人發(fā)聲

頭條要聞

女子舉報干部母親名下有巨額財產(chǎn)被判道歉 當事人發(fā)聲

體育要聞

鄭欽文兩盤橫掃前美網(wǎng)冠軍 迎邁阿密站開門紅

娛樂要聞

《澎湖海戰(zhàn)》重啟宣傳 上映時間確定了

財經(jīng)要聞

睡夢中欠債1.2萬?這只“蝦”殺瘋了

汽車要聞

14.28萬元起 吉利銀河星耀8遠航家開啟預售

態(tài)度原創(chuàng)

房產(chǎn)
本地
家居
公開課
軍事航空

房產(chǎn)要聞

全城狂送1000杯咖啡!網(wǎng)易房產(chǎn)【早C計劃】,即刻啟動!

本地新聞

春色滿城關不?。B興春日頂流,這片櫻花海藏不住了

家居要聞

時空交織 空間綺夢

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

伊導彈擊中以核設施附近 爆炸視頻公布

無障礙瀏覽 進入關懷版