国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

阿里媽媽發(fā)布MUSE:搞定十萬級超長行為序列,開源Taobao-MM數(shù)據(jù)集

0
分享至





機器之心發(fā)布

如果把用戶在互聯(lián)網(wǎng)上留下的每一個足跡都看作一段記憶,那么現(xiàn)在的推薦系統(tǒng)大多患有 “短期健忘癥”。

受限于算力和存儲,那些沉睡在數(shù)年前的點擊、收藏與購買,往往被粗暴地截斷或遺忘。即便被召回,它們在模型眼中也只是一串串冰冷且互不相識的 ID 代碼。但事實上,真正有趣的東西也往往藏在這些被遺忘的 “長尾” 之中。如何喚醒這 10 萬級 的沉睡數(shù)據(jù),并讀懂它們背后的視覺與語義關聯(lián)?

阿里媽媽與武漢大學團隊給出的答案是MUSE(MUltimodal SEarch-based framework)。這不僅僅是一個新的 CTR 模型,更像是一個給推薦系統(tǒng)安裝的 “多模態(tài)海馬體”。它利用圖像與文本的語義力量,重構了用戶跨越時空的興趣圖譜。

甚至,他們還開源了構建這個 “數(shù)字大腦” 的基石:Taobao-MM 數(shù)據(jù)集

對于推薦系統(tǒng)長久以來技術演進路線,這一突破可謂是一次深刻的反思與重構!



  • 論文標題:MUSE: A Simple Yet Effective Multimodal Search-Based Framework for Lifelong User Interest Modeling
  • 論文鏈接:https://arxiv.org/abs/2512.07216
  • 數(shù)據(jù)集鏈接:https://taobao-mm.github.io/

在搜推廣業(yè)務里,CTR 建模這幾年大致走過了這樣一條路:一方面,特征工程和 ID embedding 體系越來越完善,主流的 ID-based 建模方法基本都被嘗試過;另一方面,模型從只看短期行為,逐步演進到以 SIM 為代表的 “兩階段長期行為建?!?框架,在不犧牲時延的前提下,把可用的歷史行為長度擴展到了萬級別。

這些演進的確帶來了可觀收益,但隨著歷史行為越來越長,單純在 SIM 類 ID-based 結構上疊加小改動,收益的邊際變得越來越難以拉高,尤其是在檢索精度受限的場景下,序列從萬級往上擴展,效果提升會明顯趨緩。

與此同時,一個趨勢越來越明顯:用戶在平臺上的行為序列變得極長,但絕大部分沒有被真正 “用起來”。在淘寶中,用戶多年積累下來的瀏覽、點擊、加購、購買,加起來輕松就是、百萬級行為序列。但受限于在線延遲、存儲和算力,實際部署中的模型通常只能使用最近幾千條行為,或者對整條序列做非常粗粒度的截斷和過濾。再疊加一個現(xiàn)實約束:現(xiàn)有主力 CTR 模型在建模長期興趣時,依賴的是高度稀疏的 ID 特征,長尾和過期 item 的 ID embedding 質量不佳,而它們在 “終身歷史” 里占比很高;另外即便把 10 萬條行為都拉了進來,模型看到的依舊主要是 “ID 共現(xiàn)關系”,而不是用戶真實的內(nèi)容興趣。

在這樣的背景下,MUSE誕生了!

這是阿里媽媽和武漢大學團隊面向搜推廣業(yè)務提出的一個面向 “超長序列 + 多模態(tài)” 的終身興趣建模新框架。

與其在現(xiàn)有 SIM 類 ID-based 長序列結構上繼續(xù)做局部微調(diào),MUSE 更關注的是利用多模態(tài)信息重新組織這 10 萬級行為,系統(tǒng)性提升 “終身興趣建?!?的質量與可用長度。它在架構上與各類 “擴展 dense 參數(shù)、提升模型表達能力” 的工作基本正交:無論當前使用的是經(jīng)典 DNN 還是基于 Transformer 的推薦大模型結構,都可以把 MUSE 視為一個可插拔的 “終身興趣建模模塊”,與之疊加使用,共同放大收益。

目前,MUSE 已在阿里媽媽展示廣告精排模型中全量上線,具備對10 萬長度用戶原始行為序列的建模能力(并可結合聚類等方法持續(xù)向百萬級擴展),基于多模態(tài) embedding 統(tǒng)一表示并建模用戶行為,同時通過架構與工程協(xié)同優(yōu)化不增加任何延遲。在線上 A/B 實驗中,MUSE 帶來了穩(wěn)定、顯著的業(yè)務收益:CTR 提升 12.6%。同時,阿里媽媽也基于真實業(yè)務日志整理了首個 “長序列 + 多模態(tài) embedding” 的大規(guī)模數(shù)據(jù)集 Taobao-MM,對外開放,用于支持業(yè)界和學界在「長序列 × 多模態(tài)」方向的進一步研究。

下面從 “工業(yè)落地視角” 拆解 MUSE,一步步展開。



一、問題背景:終身行為建模,卡在哪?

在大規(guī)模搜推廣業(yè)務中,關于終身行為建模的主流架構已經(jīng)比較統(tǒng)一:以 SIM / TWIN 為代表的兩階段框架

  • GSU(General Search Unit)在用戶超長行為序列中,先做一次 “粗檢索”—— 從最多 10? 級行為中挑出與當前目標 item 相關的 Top-K(例如 50 條);
  • ESU(Exact Search Unit)再在這 K 條行為上做精細建模(DIN / Transformer 等各種 attention 結構),輸出 “終身興趣向量”,輸入 MLP 結構。

這樣的設計讓我們一方面可以利用超長行為,另一方面又不至于把在線模型的延遲與成本拉爆。

然而,業(yè)界兩階段模型(SIM、TWIN、UBR4CTR 等)的共性是:從頭到尾都圍繞 ID 展開。GSU 使用 ID embedding 做相似度檢索(比如基于類目、基于 ID embedding 近鄰、基于 attention score 等);ESU 中仍然只使用 ID embedding 做行為聚合(target attention /self-attention 等)。

對應地,又會暴露出兩類典型問題。

  • 長尾 / 過期 item 泛化能力弱:這類 ID 出現(xiàn)次數(shù)少,embedding 學得不充分;GSU 檢索質量直接受限 —— 歷史中與目標 item 實際高度相關的點擊行為,因為 ID embedding 不 “像”,可能被排除在 Top-K 之外。
  • ESU 語義表達力有限,只能依賴共現(xiàn):模型更多是在學 “誰經(jīng)常和誰一起被點”,對內(nèi)容語義本身掌握不足;例如,用戶一直在逛 “黑色運動鞋”,一個新上的視覺相似的黑色休閑鞋廣告由于沒有歷史共現(xiàn)記錄,在純 ID 空間里很難被識別為 “強相關”。

為緩解上述問題,近兩年開始有工作嘗試把多模態(tài)信息引入終身行為建模。例如 MISS 在 GSU 階段引入圖文 embedding 用于檢索,但 ESU 階段仍然只使用 ID,不對多模態(tài)語義做融合建模。也就是說,檢索階段變 “聰明” 了一些,但建模階段仍然在老路上

二、核心洞察:GSU 要 “簡單”,ESU 要 “豐富 + 融合”

在 MUSE 之前,阿里媽媽做了大規(guī)模系統(tǒng)實驗,對多模態(tài)在 GSU 和 ESU 兩個階段的作用做了拆分分析,得到三個關鍵洞察,非常適合作為工業(yè)系統(tǒng)設計時的參考原則。



對 GSU:簡單的多模態(tài) cosine 就夠了。在 GSU 中,他們系統(tǒng)對比了幾種檢索方式:只用 ID embedding 做檢索;用多模態(tài) embedding(多種預訓練方式得到的多模態(tài) embedding,包括 OpenCLIP / I2I / SCL);在多模態(tài) embedding 上疊加 Attention 打分;ID 與多模態(tài)的各種 “加權融合” 檢索策略。結果非常直接:單純用高質量多模態(tài) embedding 做余弦相似度檢索,就已經(jīng)穩(wěn)定優(yōu)于 ID-only 的 GSU;再疊加復雜結構(Attention、ID-Multi 融合),要么效果提升有限甚至下降,要么算力和工程復雜度明顯增加,不具備性價比。結論是:在有高質量多模態(tài) embedding 的前提下,GSU 只需要一個輕量的余弦檢索就足夠好。GSU 屬于在線性能最敏感的一環(huán),在這層 “搞復雜”,往往收益極低甚至適得其反。

對 ESU:多模態(tài)序列建模 + ID 融合非常關鍵。在 ESU 端,重點做了兩方面增強:一是顯式建模多模態(tài)相似度序列,引入 SimTier,把 “目標 item 與每條歷史行為的多模態(tài)相似度序列” 壓縮為一個 “相似度直方圖”,作為語義興趣的一種 summary 表達;二是把多模態(tài)信號注入 ID-based attention,提出 SA-TA(Semantic-Aware Target Attention),在原有 ID-based target attention 打分的基礎上,將多模態(tài) cosine 相似度及其與 ID 打分的交互項融合進去,作為最終的 attention score。在大規(guī)模廣告數(shù)據(jù)上的實驗結果顯示:單獨使用 SimTier 的多模態(tài) ESU,相比只用 ID 的 Target Attention,GAUC 可以提升約 +0.7%;在此基礎上疊加 SA-TA,總體 GAUC 提升可達到約 +1.2%。這說明 ESU 和 GSU 的設計原則截然不同。

表征質量對 ESU 比 GSU 敏感得多。阿里媽媽對比了三類多模態(tài)預訓練方式:OpenCLIP(基于 2 億級圖文數(shù)據(jù)的對比學習)、I2I(基于 item 共現(xiàn)關系的對比學習,引入?yún)f(xié)同信號)、SCL(基于 “搜索 - 購買” 行為構造正樣本,兼具語義與行為相關性)?,F(xiàn)象是:在 GSU 只替換 embedding 類型時,效果變化相對溫和;在 ESU 替換 embedding 時,差異明顯:SCL > I2I > OpenCLIP。結論是:ESU 對多模態(tài) embedding 的質量極其敏感;GSU 更像 “粗粒度過濾器”,對表征精度的要求相對沒那么苛刻。

三、MUSE 框架詳解

基于上述分析,團隊落地了完整可部署的 MUSE 框架。整體可以拆成三步(下圖從左至右):

  1. 多模態(tài)表征如何預訓練:基于語義與行為的 SCL 對比學習;
  2. 多模態(tài) GSU 如何做:輕量余弦檢索;
  3. 多模態(tài)增強 ESU 如何做:SimTier + SA-TA 雙路建模。



底層采用 SCL 多模態(tài)預訓練。以圖像模態(tài)為例,所有 item 的圖像 embedding 預訓練方式如下:輸入包括用戶搜索 query 對應的圖像和該 query 下最終購買的商品圖像;正樣本 pair 由 query 與購買商品構成;負樣本 pair 通過 MoCo memory bank 動態(tài)構造;損失函數(shù)為 InfoNCE 對比學習(形式類似 CLIP,但正負樣本來自真實用戶搜購行為)。得到的 embedding 具備兩方面能力:內(nèi)容語義(圖像信息的語義對齊)和行為相關性(與真實 “搜索 - 購買” 行為對齊)。在 MUSE 中,這些多模態(tài) embedding 在訓練 CTR 模型時為凍結參數(shù)(推理階段僅查表),便于保證線上性能的穩(wěn)定性和工程可控性。

GSU 使用 SCL embedding 做簡單 cosine Top-K。其目標是從用戶 10?~10? 級的歷史行為中,選出最相關的幾十條行為作為 ESU 的輸入。具體步驟包括:通過查 embedding 表獲取目標 item 的 SCL embedding(v_a)和用戶所有歷史行為 item 的 SCL embedding(v_i);計算每條歷史行為與目標 item 的相似度 r_i = cos (v_a, v_i);按 r_i 排序,取 Top-K,形成 “輸入給精排模型的行為子序列”。整個過程沒有復雜 Attention,也沒有 ID–MultiModal 的交織檢索,本質是一個高效的內(nèi)積排序。

ESU 采用 SimTier + SA-TA 雙管齊下。其核心由兩條并行路徑構成。路徑 A 是SimTier—— 顯式建模 “相似度分布”:給定 GSU 得到的相似度序列 R = [r_1, ..., r_K],

  • 將相似度區(qū)間 [-1, 1] 等分為 N 個 bin(tier);
  • 統(tǒng)計每個 bin 內(nèi)落入的行為個數(shù),得到一個 N 維 histogram:h_MM;
  • h_MM 可以理解為:用戶歷史行為中,與當前廣告 “高相關 / 中相關 / 低相關” 的數(shù)量分布,即一個緊湊的 “語義興趣分布向量”。

相比直接在多模態(tài) embedding 序列上堆復雜結構,這種方式計算開銷極小,并且在工業(yè)場景的實驗中,效果非??捎^。

路徑 B 是 SA-TA—— 在 ID attention 里注入多模態(tài)語義。這條路徑保留了 ID embedding 的優(yōu)勢(協(xié)同過濾信號),在此基礎上做 “語義增強”。

  1. 標準 DIN Target Attention:用 target ID embedding 與行為 ID embedding 做打分,得到 α_ID;
  2. 同步拿到多模態(tài)相似度 R(沿用 GSU 的 r_i);
  3. 將兩者融合為最終打分:α_Fusion = γ??α_ID + γ??R + γ??(α_ID ⊙ R),其中 γ 為可學習標量,⊙ 為逐元素乘;
  4. 用 Softmax (α_Fusion) 作為權重,對行為 ID embedding 做加權和,得到 u_l^ID。



直觀理解是原本 ID-based attention 對長尾 item 的打分容易失真;加上多模態(tài)相似度 R,相當于在告訴 attention: “這條行為雖然 ID 很冷,但在語義上和當前廣告高度相似,可以給更高權重。”

最終用戶終身興趣表示由 SimTier 輸出的 h_MM 與 SA-TA 輸出的 u_l^ID 拼接而成,拼接后的向量作為 “終身興趣表示”,輸入上層 CTR MLP。至此,多模態(tài)在 ESU 中既有單獨一條序列建模路徑,又深入?yún)⑴c到 ID attention 的行為聚合過程。

四、工程落地:10 萬行為 + 多模態(tài),還能延遲可控?

超長序列 + 多模態(tài),直覺上看 “又長又貴”。MUSE 在線上通過一個非常偏工程的拆分設計實現(xiàn)延遲可控。



阿里媽媽展示廣告線上整體 pipeline 可粗略抽象為:Matching(從全庫召回約 103 個候選廣告)和 Ranking(CTR 模型對這些候選預估打分)。MUSE 被部署在 Ranking 階段,用于針對這些候選建模用戶的終身行為。

實踐發(fā)現(xiàn),最大瓶頸并不在算力,而是在網(wǎng)絡通信:需要拉取用戶 100k 行為序列及其對應 embedding,網(wǎng)絡與存儲訪問會引入不容忽視的時延。為此,團隊的改造重點是把 GSU 從 Ranking 的關鍵路徑中剝離出來,做異步預取。

具體分為兩個階段:

  • Pre-fetching 階段(與 Matching 并行)—— 用戶請求到達后,Matching 負責召回候選廣告,同時 GSU 服務開始從遠端存儲拉取用戶 100K 行為的多模態(tài) embedding,這些 embedding 預先緩存到 GPU 顯存中,該步驟的時延整體被 Matching 階段遮蔽掉;
  • 相似度計算 Top-K Selection 階段(Ranking 前的小環(huán)節(jié))—— 當 Matching 完成時,GSU 一側的行為 embedding 已經(jīng)就緒,此時只需對候選廣告與緩存的行為 embedding 做一次相似度計算即可,得到 Top-K 行為 ID 和相似度序列,交由 Ranking 服務的 ESU 使用,這部分計算量很小,可以與 Ranking 的特征處理并行完成,對整體時延影響極小。

在這樣的設計下,GSU 對端到端延遲幾乎是 “隱身” 的。新增成本主要在于存儲與網(wǎng)絡讀取負載(但被并行化掩蓋)以及 ESU 端增加的 MLP /attention/ SimTier 算力開銷(量級可控)。

線上對比實驗設置為:Baseline 是 SIM(兩階段 ID-only 架構,行為長度 5K),MUSE 是多模態(tài) GSU + 多模態(tài)增強 ESU,行為長度擴展至 100K。 A/B 結果顯示:CTR +12.6%、RPM +5.1%、ROI +11.4%。同時,在離線實驗中也對行為長度做了消融(5K / 10K / 100K),觀察到:序列越長,MUSE 帶來的收益越大;多模態(tài)增強 ESU 在所有長度上都顯著優(yōu)于 ID-only ESU,且長度越長,優(yōu)勢越明顯。這基本佐證了一個直觀判斷:當你手里有幾十萬級別的用戶歷史行為日志,多模態(tài) + 檢索式建模,確實能把這些 “沉睡日志” 轉化為有效的業(yè)務資產(chǎn)。

五、對業(yè)界的幾個直接啟發(fā)

如果你在做廣告 / 內(nèi)容推薦 / 電商推薦,MUSE 這套實踐有幾個非常 “可復制” 的啟發(fā)點。

先別急著在 GSU 上玩花活:優(yōu)先把 item 的圖文 embedding 學好(無論是自建 CLIP、SCL,還是其它多模態(tài)預訓練);在此基礎上,用多模態(tài) cosine 取代 GSU 的 ID-only 檢索,往往是性價比最高的一步。Attention 檢索、復雜多塔融合等設計,在 GSU 這個階段不一定值得你花大量算力和工程復雜度。

把多模態(tài)引入 ESU,而不是只停留在 GSU:ESU 是真正決定 “特征如何被使用” 的地方,也是對 embedding 質量最敏感的環(huán)節(jié);即便暫時無法重構整個 ESU,也可以分兩步推進:一是引入一個輕量的 “相似度直方圖” 類模塊(如 SimTier)來刻畫語義分布;二是在現(xiàn)有 DIN / TWIN 的 attention 中,引入多模態(tài)相似度作為輔助打分(類似 SA-TA)。這類改造對現(xiàn)有模型結構的侵入性不大,但從實驗看收益往往很可觀。

工程上,優(yōu)先解決 “序列拉不進來” 的問題:多模態(tài) + 超長序列的最大障礙往往不在算法,而在 I/O 和基礎設施。MUSE 提供了一個可直接借鑒的模板:把 GSU 抽成獨立服務,盡量與 Matching 異步并行;盡可能將 embedding 搬到就近緩存(如 GPU 顯存);在 Ranking 階段只保留輕量計算,保證路徑收斂。這類設計思路,本質上是從 “只在舊框架上雕花”,轉向圍繞 “可擴展架構 + 高投產(chǎn)比” 重新規(guī)劃整條推薦鏈路。

六、開源數(shù)據(jù):首個 “超長行為 + 多模態(tài) embedding” 公開數(shù)據(jù)集

這篇工作還給社區(qū)帶來了一個附加價值:首個同時具備 “長行為序列+高質量多模態(tài) embedding” 的大規(guī)模公開數(shù)據(jù)集 Taobao-MM

其主要特點包括:

  • 用戶行為序列最長 1K(開源版本),工業(yè)內(nèi)部實驗支持高達 100K;
  • 每個 item 提供 128 維 SCL 多模態(tài) embedding(不包含原始圖文,規(guī)避版權風險);
  • 數(shù)據(jù)規(guī)模約為 1 億樣本、近 900 萬用戶、3,500 萬級 item。

對學界研究者和工業(yè)界團隊來說,這是一個可以直接驗證 “多模態(tài)+長序列” 建模方案的基準數(shù)據(jù)集,有助于減少自建數(shù)據(jù)的成本。

七、小結:從 “只調(diào) ID 模型” 到 “MUSE 多模態(tài)興趣引擎”

從 MUSE 和近期工業(yè)界的推薦系統(tǒng)演進可以看到一個共同趨勢:不再只在舊的 ID-only 框架上做局部微調(diào),而是從軟硬件協(xié)同、架構層面,重新組織 “算力×特征×模型”。具體到 MUSE:

  • 結構觀上,接受 “用戶行為本質上是一個超大規(guī)模序列數(shù)據(jù)庫”,先檢索再建模;
  • 信號觀上,擺脫 ID-only 的限制,讓圖文 embedding 真正參與終身興趣建模;
  • 工程觀上,把最重的 I/O 和計算挪到異步與緩存,把在線關鍵路徑做得足夠輕量。

如果你的業(yè)務場景具備以下特征:用戶累積了較長行為日志(>> 萬條)、每個 item 具備圖文等豐富內(nèi)容特征、純 ID-only 模型的收益已經(jīng)越來越難挖掘,那么可以考慮按這樣一個路線落地 “輕量版 MUSE”:先提高表征質量,評估現(xiàn)有圖文預訓練 embedding,或嘗試類似 SCL 的行為增強式預訓練;用多模態(tài)支撐 GSU,在現(xiàn)有兩階段結構中,優(yōu)先用多模態(tài) cosine 替代 GSU 的 ID 檢索;在 ESU 中融合多模態(tài),在 DIN / TWIN 的 target attention 中,引入一條 “多模態(tài)相似度支路”,觀察 offline 指標變化。這基本就是一個 “輕量版 MUSE” 的起點,后續(xù)可以逐步演進到完整的雙路 ESU 與異步 GSU 架構,在控制延遲的前提下,打開新的效果增量空間。

阿里媽媽技術團隊已在多模態(tài)智能領域取得多項突破,此次發(fā)布的 MUSE,不僅僅是算法的進步,更是工程與算法深度協(xié)同的典范。它告訴我們,在追求模型 “大” 的同時,也要注重 “巧” 和 “效率”,才能真正讓技術在工業(yè)界發(fā)揮最大能量。

One More Thing

ICLR 2026 Workshop 等你來稿

還有個好消息!阿里媽媽聯(lián)合北京大學等組織和個人,將在ICLR 2026 舉辦 Workshop on AIMS(AI for Mechanism Design & Strategic Decision Making),目前征稿已開啟!



如果你正在探索人工智能與機制設計、決策智能的交叉前沿

無論是自動機制發(fā)現(xiàn)、多智能體博弈均衡、高維/自然語言場景下的機制建模,

還是 AI 系統(tǒng)的公平性、魯棒性,亦或是廣告、云市場等真實場景的落地應用 ——

那么,這場 ICLR 2026 Workshop 正是為你而設!

  • 截稿日期:2026 年 1 月 30 日;
  • 接受 Long Paper(≤9 頁)與 Short Paper(≤4 頁),支持雙重投稿(可與 ICML/KDD 等會議多投),錄用不存檔;
  • 由 Tuomas Sandholm(CMU)、Song Zuo(谷歌)、Vijay V. Vazirani (UCI)、Niklas Karlsson (亞馬遜)、鄭臻哲 (上海交大) 等頂尖學者組成講者與審稿陣容;
  • 投稿地址:https://openreview.net/group?id=ICLR.cc/2026/Workshop/AIMS

此外,我們還設有 Best Paper 獎、Best Poster 獎,優(yōu)秀作者還有機會獲得阿里巴巴等企業(yè)的研究實習推薦!

這不僅是一場研討會,更是連接人工智能、經(jīng)濟學與運籌學的橋梁。

更多詳情,可戳 Workshop 官方網(wǎng)站:

https://alimama-tech.github.io/aims-2026/

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
雖然哈薩克斯坦要向日本出口能源和稀土,但是卻不能使用中歐班列

雖然哈薩克斯坦要向日本出口能源和稀土,但是卻不能使用中歐班列

靚仔情感
2025-12-20 02:05:47
特殊島:希望加入中國大陸或與臺灣省合并,但絕對不會承諾日本!

特殊島:希望加入中國大陸或與臺灣省合并,但絕對不會承諾日本!

聊歷史的阿稼
2025-12-18 16:01:02
張亮兒子不服管,曝天天在國外搞大女同學肚子,女方父母正鬧著!

張亮兒子不服管,曝天天在國外搞大女同學肚子,女方父母正鬧著!

阿廢冷眼觀察所
2025-11-29 01:58:17
CBA新賽季表現(xiàn)糟糕的四位超級外援!重金簽下,和上賽季判若兩人

CBA新賽季表現(xiàn)糟糕的四位超級外援!重金簽下,和上賽季判若兩人

籃球大陸
2025-12-19 16:53:01
他的葬禮,驚動半個香港,未婚妻心碎花圈成最大意難平

他的葬禮,驚動半個香港,未婚妻心碎花圈成最大意難平

智慧生活筆記
2025-12-20 10:30:17
于東來回應高薪招聘英才:哪怕年薪2000萬都無所謂,給的不是財富,是尊重

于東來回應高薪招聘英才:哪怕年薪2000萬都無所謂,給的不是財富,是尊重

都市快報橙柿互動
2025-12-20 11:30:57
天津任免職通知!

天津任免職通知!

天津族
2025-12-20 13:32:43
央視直播一場英超,利物浦強強對話,阿森納對手不弱,曼城盼登頂

央視直播一場英超,利物浦強強對話,阿森納對手不弱,曼城盼登頂

籃球看比賽
2025-12-20 12:14:58
英媒曝光俄絕密文件:一旦俄與北約開戰(zhàn),普京先打中國的兩個鄰國

英媒曝光俄絕密文件:一旦俄與北約開戰(zhàn),普京先打中國的兩個鄰國

荷蘭豆愛健康
2025-12-20 14:11:12
齊達內(nèi)克洛普出局?羅馬諾曝皇馬新帥首選,再輸球阿隆索將被解雇

齊達內(nèi)克洛普出局?羅馬諾曝皇馬新帥首選,再輸球阿隆索將被解雇

夜白侃球
2025-12-19 19:46:41
101歲余寶珠:二房上位擊敗正妻,坐擁數(shù)百億財富,怎么做到的?

101歲余寶珠:二房上位擊敗正妻,坐擁數(shù)百億財富,怎么做到的?

別人都叫我阿腈
2025-12-14 00:07:59
電訊報:若瓜帥離開曼城,將留下堪比弗格森時代結束的大空缺

電訊報:若瓜帥離開曼城,將留下堪比弗格森時代結束的大空缺

懂球帝
2025-12-20 08:48:29
毛甜懿作為學生代表發(fā)言,她最崇敬的人是曾祖母,做一個有用的人

毛甜懿作為學生代表發(fā)言,她最崇敬的人是曾祖母,做一個有用的人

大江
2025-12-19 17:32:52
新華社證實南京博物院賣了《江南春》,事情變得更加撲朔迷離

新華社證實南京博物院賣了《江南春》,事情變得更加撲朔迷離

銀河敘事
2025-12-19 13:00:27
俄外長:美已向俄承諾烏將放棄部分領土

俄外長:美已向俄承諾烏將放棄部分領土

參考消息
2025-12-17 18:32:07
徹底爆了!深夜突發(fā)利好!下周A股這個板塊將大漲?

徹底爆了!深夜突發(fā)利好!下周A股這個板塊將大漲?

龍行天下虎
2025-12-20 10:45:21
1000萬,三星簡直了

1000萬,三星簡直了

放毒
2025-12-20 12:11:28
蘇格蘭公開賽4強誕生:常冰玉vs艾倫附賽程,晉級決賽2人基本確定

蘇格蘭公開賽4強誕生:常冰玉vs艾倫附賽程,晉級決賽2人基本確定

小火箭愛體育
2025-12-20 07:41:07
難兄難弟,貝林厄姆兄弟身價雙雙下跌,哥哥跌2000萬弟弟跌500萬

難兄難弟,貝林厄姆兄弟身價雙雙下跌,哥哥跌2000萬弟弟跌500萬

懂球帝
2025-12-19 21:07:53
隨著中國香港0-2日本,東亞錦標賽最新積分榜出爐:中國男足墊底

隨著中國香港0-2日本,東亞錦標賽最新積分榜出爐:中國男足墊底

側身凌空斬
2025-12-20 11:53:42
2025-12-20 15:40:49
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
11957文章數(shù) 142514關注度
往期回顧 全部

科技要聞

許四清:具身智能的"ChatGPT時刻"還未到來

頭條要聞

91歲老人欲把亡妻房子過戶給50歲女友:這是我的權利

頭條要聞

91歲老人欲把亡妻房子過戶給50歲女友:這是我的權利

體育要聞

我開了20年大巴,現(xiàn)在是一名西甲主帥

娛樂要聞

戚薇女兒大變樣,10歲就進入“尷尬期”

財經(jīng)要聞

求解“地方財政困難”

汽車要聞

嵐圖推進L3量產(chǎn)測試 已完成11萬公里實際道路驗證

態(tài)度原創(chuàng)

親子
本地
教育
旅游
公開課

親子要聞

5歲孩子剛放學回家,媽媽就給他出難題,看看他能搞定嗎?

本地新聞

云游安徽|訪黃山云海古村,讀一城山水風骨

教育要聞

山東家校錄音曝真相:老師失控放狠話,家長挖坑!最慘的是孩子?

旅游要聞

多項交通便利化舉措助力冬季旅游市場升溫

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版