国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

北大聯(lián)合Llama-Factory推出DataFlex:工業(yè)級數(shù)據(jù)動態(tài)訓(xùn)練系統(tǒng)

0
分享至



當大模型訓(xùn)練進入深水區(qū),競爭的關(guān)鍵已經(jīng)不再只是「模型參數(shù)怎么調(diào)」,而逐漸轉(zhuǎn)向一個更核心、也更難系統(tǒng)解決的問題:模型在訓(xùn)練過程中究竟看到了什么數(shù)據(jù)、以什么比例看到、哪些樣本應(yīng)該被更頻繁地學(xué)習(xí)。

這些因素正在越來越直接地決定訓(xùn)練效率、泛化能力以及最終模型性能。

圍繞數(shù)據(jù)選擇、數(shù)據(jù)混合和樣本重加權(quán),學(xué)術(shù)界已經(jīng)提出了不少方法。但長期以來,這些方法大多分散在彼此獨立的代碼倉庫中:接口不統(tǒng)一、訓(xùn)練流程不一致、復(fù)現(xiàn)門檻高、橫向比較困難。

更重要的是,很多方法依賴 embedding、模型打分、梯度或中間推理信號,真正難的從來不是「提出一個方法」,而是把這些方法穩(wěn)定、可復(fù)現(xiàn)地接入主流訓(xùn)練流程,并納入一套統(tǒng)一的訓(xùn)練閉環(huán)。

近日,北京大學(xué)張文濤教授、鄂維南院士團隊,聯(lián)合 LLaMA-Factory Team、OpenDataLab、上海 AI Lab 等機構(gòu),推出了面向大模型訓(xùn)練過程的數(shù)據(jù)中心動態(tài)訓(xùn)練框架 DataFlex。

它并不是單一算法或若干腳本的簡單堆疊,而是一套建立在 LLaMA-Factory 之上的統(tǒng)一訓(xùn)練基礎(chǔ)設(shè)施:將動態(tài)樣本選擇、動態(tài)數(shù)據(jù)混合、動態(tài)樣本加權(quán)三類核心能力真正納入訓(xùn)練過程,使「數(shù)據(jù)如何參與訓(xùn)練」從經(jīng)驗式配置,升級為可控制、可優(yōu)化、可復(fù)現(xiàn)的系統(tǒng)能力。

換句話說,DataFlex 試圖解決的,并不只是某一個訓(xùn)練技巧是否有效,而是一個更底層的系統(tǒng)問題:如何讓數(shù)據(jù)像模型參數(shù)一樣,成為訓(xùn)練過程中可以持續(xù)調(diào)度和優(yōu)化的核心對象。

這使它既可以作為研究平臺,用于系統(tǒng)比較不同數(shù)據(jù)中心訓(xùn)練算法;也可以作為實用系統(tǒng),直接服務(wù)于大模型預(yù)訓(xùn)練、后訓(xùn)練和領(lǐng)域適配等場景。

DataFlex 發(fā)布后,在 Hugging Face Daily Papers 榜單中迅速獲得廣泛關(guān)注并拿到了月榜第一。這種關(guān)注背后所反映的,本質(zhì)上是社區(qū)對「數(shù)據(jù)中心動態(tài)訓(xùn)練」從理論走向工程閉環(huán)的里程碑式認可。





DataFlex 不只是一個算法倉庫,而是一套數(shù)據(jù)中心訓(xùn)練基礎(chǔ)設(shè)施

  • 可復(fù)現(xiàn)的研究平臺:在統(tǒng)一訓(xùn)練框架下系統(tǒng)比較動態(tài)數(shù)據(jù)混合、樣本選擇和樣本加權(quán)等數(shù)據(jù)中心訓(xùn)練方法,覆蓋在線與離線場景,顯著降低研究復(fù)現(xiàn)與方法對比成本;
  • 面向真實訓(xùn)練的優(yōu)化系統(tǒng):將數(shù)據(jù)選擇、數(shù)據(jù)配比和樣本權(quán)重調(diào)節(jié)真正接入訓(xùn)練閉環(huán),使數(shù)據(jù)從「靜態(tài)輸入」變成「可持續(xù)調(diào)度的優(yōu)化對象」,從而提升訓(xùn)練效率與最終模型效果。

  • 技術(shù)報告:https://arxiv.org/abs/2603.26164
  • 官方文檔:https://opendcai.github.io/DataFlex-Doc/
  • Github 倉庫:https://github.com/OpenDCAI/DataFlex

DataFlex:大模型工業(yè)化數(shù)據(jù)調(diào)用的最后一塊拼圖

設(shè)計哲學(xué):告別靜態(tài)投喂,把「數(shù)據(jù)調(diào)度」變成開箱即用的系統(tǒng)能力



1.核心概念:Data-Centric Dynamic Training System

DataFlex 的核心,不僅僅是再發(fā)一遍「數(shù)據(jù)很重要」的老生常談,而是直擊行業(yè)的最痛點:如何把「模型看什么數(shù)據(jù)、按什么比例看、優(yōu)先強化哪些樣本」這種玄學(xué)經(jīng)驗,真正固化為可配置、可調(diào)度、可復(fù)現(xiàn)的標準化系統(tǒng)能力。它不僅僅關(guān)注參數(shù)的梯度更新,更死死盯住了數(shù)據(jù)在每一步訓(xùn)練中的真實參與度。

1.1從「填鴨式靜態(tài)輸入」到「數(shù)據(jù)主動調(diào)度」

傳統(tǒng)的大模型訓(xùn)練中,數(shù)據(jù)往往被視為預(yù)先準備好的靜態(tài)輸入:數(shù)據(jù)集先確定,采樣方式先寫死,訓(xùn)練過程中主要被持續(xù)優(yōu)化的是模型參數(shù)本身。但當訓(xùn)練數(shù)據(jù)規(guī)模越來越大、來源越來越復(fù)雜時,真正決定效果的,已經(jīng)不只是「有沒有更多數(shù)據(jù)」,而是「訓(xùn)練時能否更聰明地使用數(shù)據(jù)」。

Data-centric dynamic training 的核心思想,是把數(shù)據(jù)從「被動輸入」提升為「主動調(diào)度對象」。系統(tǒng)不僅要決定模型看哪些數(shù)據(jù),還要動態(tài)決定不同數(shù)據(jù)源如何配比、哪些樣本應(yīng)被優(yōu)先學(xué)習(xí)、哪些樣本應(yīng)被降低權(quán)重。

DataFlex 的價值,正是在于把這種原本零散、分散在不同方法和代碼中的能力,推進為統(tǒng)一、標準化的訓(xùn)練機制。

1.2零成本遷移的統(tǒng)一框架

好的系統(tǒng)不應(yīng)成為開發(fā)者的負擔。在動態(tài)調(diào)度之外,DataFlex 更進一步解決的是系統(tǒng)層問題:如何把原本分散的數(shù)據(jù)選擇、數(shù)據(jù)配比和數(shù)據(jù)重加權(quán)方法,統(tǒng)一納入同一套訓(xùn)練基礎(chǔ)設(shè)施。

一方面,DataFlex 建立在 LLaMA-Factory 之上,盡量復(fù)用已有的模型管理、數(shù)據(jù)處理和訓(xùn)練組件;另一方面,它在訓(xùn)練層引入統(tǒng)一的數(shù)據(jù)中心控制能力,使不同數(shù)據(jù)策略能夠在同一個訓(xùn)練閉環(huán)中被實現(xiàn)、比較和擴展。

因此,DataFlex 不是若干數(shù)據(jù)算法的簡單集合,而是一套面向大模型訓(xùn)練過程的統(tǒng)一數(shù)據(jù)中心動態(tài)訓(xùn)練系統(tǒng)。

2.三個設(shè)計原則

  • 統(tǒng)一性:系統(tǒng)將數(shù)據(jù)中心訓(xùn)練中的三個代表性范式統(tǒng)一納入了同一訓(xùn)練框架;
  • 兼容性:系統(tǒng)能夠融入現(xiàn)有的大規(guī)模模型訓(xùn)練基礎(chǔ)設(shè)施,而不是額外引入一套工作流;
  • 可擴展性:研究者可以以較低的工程成本實現(xiàn)并比較新的數(shù)據(jù)中心算法。

整體架構(gòu)



DataFlex 延續(xù)了 LLaMA-Factory 易用、清晰的設(shè)計思路,但在整體架構(gòu)上做了關(guān)鍵升級。其在不破壞現(xiàn)有訓(xùn)練生態(tài)的前提下,把數(shù)據(jù)中心訓(xùn)練真正做成了一套統(tǒng)一、可擴展、可復(fù)現(xiàn)、可落地的系統(tǒng)能力。整個系統(tǒng)大致可以分為三層:

  • 基礎(chǔ)層(Base Layer):這一層繼承自 LLaMA-Factory,負責(zé)模型管理、數(shù)據(jù)處理、優(yōu)化器等通用訓(xùn)練能力。系統(tǒng)在盡量保持原有訓(xùn)練流程與使用習(xí)慣的同時,把擴展重點集中在數(shù)據(jù)中心訓(xùn)練本身,降低了用戶從現(xiàn)有訓(xùn)練流程遷移到 DataFlex 的門檻。
  • 訓(xùn)練器層(Trainer Layer):它沒有沿用單一的原始 trainer,而是將訓(xùn)練過程抽象為三種數(shù)據(jù)中心訓(xùn)練模式,分別對應(yīng)數(shù)據(jù)選擇、數(shù)據(jù)混合和樣本加權(quán)。這一層把訓(xùn)練器從只負責(zé)參數(shù)更新,擴展為同時負責(zé)數(shù)據(jù)決策與參數(shù)優(yōu)化。
  • 策略組件層(Component Layer):這里掛載的是具體算法組件,例如不同的 selector、mixer 和 weighter。它們各自封裝了不同方法的策略邏輯,并對訓(xùn)練器暴露了統(tǒng)一接口。

這種架構(gòu)實現(xiàn)了輕量替換,而不是重構(gòu)一切。DataFlex 并沒有在 LLaMA-Factory 外面再包一個復(fù)雜編排系統(tǒng),而是聚焦于替換訓(xùn)練層,并僅在需要時對數(shù)據(jù)加載等模塊做最小擴展。

對用戶來說,這接近一種「即插即用」的增強:已有的模型、數(shù)據(jù)集、訓(xùn)練參數(shù)配置都可以保留,只需要增加 DataFlex 相關(guān)配置,就能切換到以數(shù)據(jù)為中心的動態(tài)訓(xùn)練模式。

此外,DataFlex 還統(tǒng)一封裝了數(shù)據(jù)中心方法普遍依賴的模型中間信號,比如 embedding 提取、模型推理、梯度計算等。很多數(shù)據(jù)選擇和數(shù)據(jù)加權(quán)方法真正難落地,不是因為思想復(fù)雜,而是因為它們依賴的中間信號獲取成本高、工程耦合重。DataFlex 把這類共享能力抽象出來,降低了實現(xiàn)和擴展門檻,也為后續(xù)大規(guī)模訓(xùn)練提供了基礎(chǔ)。

核心功能

1.三個核心訓(xùn)練器

對應(yīng)當前數(shù)據(jù)中心訓(xùn)練中典型的三種優(yōu)化方向,DataFlex 支持三類核心訓(xùn)練器:

  • 動態(tài)樣本選擇訓(xùn)練器(Dynamic Select Trainer):在訓(xùn)練過程中動態(tài)篩選更有價值的訓(xùn)練樣本,減少低價值或冗余樣本對訓(xùn)練預(yù)算的消耗,從而提升訓(xùn)練效率。
  • 動態(tài)數(shù)據(jù)混合訓(xùn)練器(Dynamic Mix Trainer):面向多來源、多領(lǐng)域訓(xùn)練數(shù)據(jù)場景,在訓(xùn)練過程中動態(tài)調(diào)整不同數(shù)據(jù)源的采樣比例,使模型能夠根據(jù)當前學(xué)習(xí)狀態(tài)更合理地分配訓(xùn)練注意力。
  • 動態(tài)樣本加權(quán)訓(xùn)練器(Dynamic Weight Trainer):針對不同樣本賦予不同訓(xùn)練權(quán)重,使模型能夠?qū)ΩP(guān)鍵、更困難或更具代表性的樣本進行更有效學(xué)習(xí),從而改善模型性能與泛化能力。

2.算法集成與可擴展性

DataFlex 為三類訓(xùn)練器集成了 LESS、DoReMi、ODM、Loss Reweighting 等代表性方法。所有方法都以可插拔組件的形式,在統(tǒng)一接口下實現(xiàn),從而能夠在受控條件下進行公平比較。

科研上許多極具代表性的動態(tài)訓(xùn)練方法,要么缺乏官方倉庫,要么其官方實現(xiàn)存在難以復(fù)現(xiàn)的問題。DataFlex 通過系統(tǒng)化的重構(gòu),讓這些處于「失聯(lián)」或「半停滯」狀態(tài)的算法重新具備了工業(yè)級生產(chǎn)力。



三類訓(xùn)練器分工不同,但背后遵循的是同一種數(shù)據(jù) — 模型交互邏輯:先觀察當前模型狀態(tài),再給出新的數(shù)據(jù)決策,隨后把這一決策反饋到后續(xù)訓(xùn)練中。

DataFlex 正是把這種共性的交互模式抽象成統(tǒng)一接口,從而讓不同算法能夠共享訓(xùn)練流程、基礎(chǔ)能力以及擴展方式。 DataFlex 的配置文件繼續(xù)沿用了 LLaMA-Factory 的基于 YAML 的格式,用于指定模型、數(shù)據(jù)集和訓(xùn)練超參數(shù)。

唯一新增的是一個簡短的 dataflex 配置段,用于告訴框架要采用哪種數(shù)據(jù)中心策略,以及如何對其進行調(diào)度。



使用方式

DataFlex 完全兼容 LlamaFactory 的配置和使用方式:

  • 配置兼容:在 LlamaFactory 配置基礎(chǔ)上添加 DataFlex 參數(shù);
  • 命令一致:使用 dataflex-cli 替代 llamafactory-cli;
  • 功能保持:支持所有 LlamaFactory 的原有功能;
  • 無縫切換:可以通過 train_type: static 回退到原始訓(xùn)練模式。

環(huán)境配置、參數(shù)說明以及自定義組件接入方式,可進一步參考官方文檔。除此之外,我們還提供了兩期視頻教程,分別演示了動態(tài)數(shù)據(jù)混合與動態(tài)數(shù)據(jù)選擇的具體操作流程,便于初次上手的用戶快速理解。

  • 官方文檔:https://opendcai.github.io/DataFlex-Doc/
  • Github 倉庫:https://github.com/OpenDCAI/DataFlex
  • 視頻教程:

- 自動數(shù)據(jù)選擇與動態(tài)訓(xùn)練:https://b23.tv/BV1pHrKBoE6s

- 自動優(yōu)化數(shù)據(jù)配比:https://b23.tv/LYYx1hG

實驗效果

為了驗證 DataFlex 的有效性,團隊圍繞樣本選擇、數(shù)據(jù)混合和系統(tǒng)效率三方面進行了系統(tǒng)實驗,覆蓋 7 種數(shù)據(jù)選擇、2 種數(shù)據(jù)混合和 1 種數(shù)據(jù)重加權(quán)方法。整體結(jié)果表明,DataFlex 不僅能夠統(tǒng)一復(fù)現(xiàn)不同數(shù)據(jù)中心方法,還能在模型效果和訓(xùn)練效率上帶來穩(wěn)定提升。

數(shù)據(jù)選擇與樣本加權(quán):動態(tài)方法整體優(yōu)于靜態(tài)訓(xùn)練



在 Open-Hermes-2.5 子集上的實驗顯示,無論是在 Mistral-7B 還是 Llama-3.2-3B 上,大多數(shù)動態(tài)數(shù)據(jù)中心方法都優(yōu)于靜態(tài)全量訓(xùn)練基線。這表明在模型容量有限的情況下,能夠?qū)崟r感知模型狀態(tài)的動態(tài)選擇策略對于達到性能上限至關(guān)重要 。

3.2 數(shù)據(jù)混合:動態(tài)配比優(yōu)于默認配比



在 SlimPajama 的 6B 和 30B 設(shè)置下,DoReMi 和 ODM 兩種數(shù)據(jù)混合算法都表現(xiàn)出了明顯優(yōu)勢。在 6B token 規(guī)模下,動態(tài)數(shù)據(jù)混合方法已經(jīng)展現(xiàn)出明顯優(yōu)勢:ODM 在通用能力評測中的準確率高于默認靜態(tài)配比,而 DoReMi 則在整體困惑度上進一步取得更優(yōu)結(jié)果,說明動態(tài)調(diào)整不同數(shù)據(jù)域的配比,確實能夠帶來更好的訓(xùn)練收益。

系統(tǒng)效率:統(tǒng)一框架不僅易用,而且高效



除了效果提升,DataFlex 在效率上也有不錯表現(xiàn)。以 LESS 為例,在單卡設(shè)置下,DataFlex 在多個采樣比例上都實現(xiàn)了更低訓(xùn)練耗時,例如在 1.0 比例下,訓(xùn)練時間從 30,239 秒降到 28,734 秒,同時準確率從 40.38% 提升到 42.37%。進一步在 8 張 H20 GPU 上,訓(xùn)練時間減少了 57.13%。



對于 TSDS 這類離線選擇方法,DataFlex 的重實現(xiàn)也在不同數(shù)據(jù)規(guī)模下取得了穩(wěn)定的 1%—3.5% 提速。

構(gòu)筑 AI 時代的數(shù)據(jù)生態(tài)

當大模型技術(shù)演進跨越了架構(gòu)探索的初級階段,行業(yè)的角逐核心已躍遷至「數(shù)據(jù)應(yīng)用」的深水區(qū)。

團隊(PKU-DCAI)致力于在 Data-Centric AI(以數(shù)據(jù)為中心的 AI)浪潮中,構(gòu)筑支撐下一代 AI 應(yīng)用的數(shù)據(jù)基礎(chǔ)設(shè)施。本次開源的 DataFlex 與團隊另一核心工作 DataFlow(3k+ Stars),共同為 AI 時代的數(shù)據(jù)應(yīng)用確立了從源頭到閉環(huán)的全新范式。

Github 倉庫:

  • https://github.com/OpenDCAI/DataFlow
  • https://github.com/OpenDCAI/DataFlex

面向 AI 時代海量且混沌的真實世界信息,DataFlow 的使命是打造「高智力密度」的數(shù)據(jù)提煉工場。承接 DataFlow 提煉的高階數(shù)據(jù),DataFlex 真正將「數(shù)據(jù)應(yīng)用」的觸角深入到了模型訓(xùn)練的原子層。它不僅是在加速模型的收斂,更是在系統(tǒng)層面控制模型的泛化能力與知識吸收軌跡,確保數(shù)據(jù)的潛在價值被極致地變現(xiàn)為 AI 的頂尖實戰(zhàn)能力。



作者信息

作者是來自北京大學(xué)的 DCAI 團隊,深耕于 AI 數(shù)據(jù)側(cè)的底層革新與系統(tǒng)落地,擁有該領(lǐng)域最前沿的算法儲備與工程經(jīng)驗。

梁昊:北京大學(xué)大數(shù)據(jù)科學(xué)研究中心博士,開源項目 DataFlow leader,第一作者 / 共同第一作者發(fā)表 9 篇 CCF-A 論文。

趙正陽:北京大學(xué)大數(shù)據(jù)科學(xué)研究中心博士,開源項目 DataFlow 核心開發(fā)者,元樞智匯高級算法研究員。

強美伊:北京大學(xué)軟件與微電子學(xué)院碩士,開源項目 DataFlow 核心開發(fā)者,發(fā)表期刊 / CCF-A 論文 7 篇。

大家堅信,大模型競爭的終點不在于單一算法的博弈,而在于構(gòu)建一套統(tǒng)一、高效、且可復(fù)現(xiàn)的數(shù)據(jù)中心化基礎(chǔ)設(shè)施。

開源只是起點,生態(tài)需要共建。歡迎學(xué)術(shù)界與工業(yè)界的同仁關(guān)注、使用 OpenDCAI 系列開源項目,并與團隊進行深度的技術(shù)探討。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
獨立百年的蒙古國,正在把中國人40年的努力悄悄毀掉

獨立百年的蒙古國,正在把中國人40年的努力悄悄毀掉

犀利辣椒
2026-03-19 06:40:31
女人最讓男人銷魂的,不是長腿大胸,而是這種“頂級吸引

女人最讓男人銷魂的,不是長腿大胸,而是這種“頂級吸引

匹夫來搞笑
2026-04-19 07:48:33
5月1日起全國嚴查!開車上班、做生意,這些小事別再碰,輕則罰款

5月1日起全國嚴查!開車上班、做生意,這些小事別再碰,輕則罰款

寶哥精彩賽事
2026-04-19 06:35:05
顧客稱在山姆買美素佳兒嬰兒奶粉 竟在罐子里挖出類似毛刷的碎片!涉事門店回應(yīng)

顧客稱在山姆買美素佳兒嬰兒奶粉 竟在罐子里挖出類似毛刷的碎片!涉事門店回應(yīng)

閃電新聞
2026-04-18 19:38:13
笑死!原來大佬的推薦信只需要幾個字,網(wǎng)友:一字千金

笑死!原來大佬的推薦信只需要幾個字,網(wǎng)友:一字千金

另子維愛讀史
2026-04-15 20:37:30
iPhone 18 Pro 系列全新配色、價格曝光

iPhone 18 Pro 系列全新配色、價格曝光

簡科技
2026-04-18 23:40:44
教育部新規(guī)落地,9月上學(xué)都變了,家長趁早看,別耽誤孩子

教育部新規(guī)落地,9月上學(xué)都變了,家長趁早看,別耽誤孩子

小談食刻美食
2026-04-19 08:27:50
出大事了,特朗普癡呆已晚期?和伊朗開戰(zhàn),竟是內(nèi)塔尼亞胡的圈套

出大事了,特朗普癡呆已晚期?和伊朗開戰(zhàn),竟是內(nèi)塔尼亞胡的圈套

阿紿聊社會
2026-04-19 04:44:48
凌晨突襲!以色列不宣而戰(zhàn),特朗普連下3個決定,用美艦封鎖海峽

凌晨突襲!以色列不宣而戰(zhàn),特朗普連下3個決定,用美艦封鎖海峽

通文知史
2026-04-18 10:15:07
越南高鐵訂單給了德國,蘇林來中國為何還要坐10多個小時高鐵?

越南高鐵訂單給了德國,蘇林來中國為何還要坐10多個小時高鐵?

小嵩
2026-04-18 09:37:40
悲哀!幾個女同事想郊游沒人愿去,吐槽現(xiàn)在男生太精,不好拿捏了

悲哀!幾個女同事想郊游沒人愿去,吐槽現(xiàn)在男生太精,不好拿捏了

火山詩話
2026-04-18 07:26:36
藍營內(nèi)斗升級!超20位藍委集體倒戈,公開反對鄭麗文!

藍營內(nèi)斗升級!超20位藍委集體倒戈,公開反對鄭麗文!

瞻史
2026-04-18 17:47:28
中考政策重磅調(diào)整!2026年6月前執(zhí)行,全國初三生都將受影響

中考政策重磅調(diào)整!2026年6月前執(zhí)行,全國初三生都將受影響

戶外阿毽
2026-04-19 01:05:28
甘肅天水一佳人好漂亮, 身高168cm,體重48kg 美的讓人移不開眼

甘肅天水一佳人好漂亮, 身高168cm,體重48kg 美的讓人移不開眼

鄉(xiāng)野小珥
2026-04-08 00:48:57
四大皆空成定局!西媒:皇馬醞釀清洗8人 佛爺該賣掉1巨星

四大皆空成定局!西媒:皇馬醞釀清洗8人 佛爺該賣掉1巨星

葉青足球世界
2026-04-18 15:53:51
福建一男子拋下妻女去世,15年后妻子不顧家人反對,當場強行開棺

福建一男子拋下妻女去世,15年后妻子不顧家人反對,當場強行開棺

紅豆講堂
2024-09-04 12:45:03
文章“八號院兒”亂套了,顧客門口大打出手,黃牛號炒到數(shù)百元

文章“八號院兒”亂套了,顧客門口大打出手,黃牛號炒到數(shù)百元

光影新天地
2026-04-18 16:02:08
二手車價格全面下降!新車調(diào)價引發(fā)連鎖反應(yīng),經(jīng)銷商陷“價格倒掛”困局

二手車價格全面下降!新車調(diào)價引發(fā)連鎖反應(yīng),經(jīng)銷商陷“價格倒掛”困局

華夏時報
2026-04-18 07:30:03
巴西總統(tǒng):不能每天一醒來就看到一位總統(tǒng)發(fā)文威脅世界、發(fā)動戰(zhàn)爭,美國對伊朗的軍事行動將導(dǎo)致窮人為“戰(zhàn)爭的不負責(zé)任”付出代價

巴西總統(tǒng):不能每天一醒來就看到一位總統(tǒng)發(fā)文威脅世界、發(fā)動戰(zhàn)爭,美國對伊朗的軍事行動將導(dǎo)致窮人為“戰(zhàn)爭的不負責(zé)任”付出代價

極目新聞
2026-04-19 07:36:30
不參選,才是最狠的一步棋,鄭麗文的退里藏著什么野心

不參選,才是最狠的一步棋,鄭麗文的退里藏著什么野心

娛樂小可愛蛙
2026-04-17 05:57:25
2026-04-19 10:23:00
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12792文章數(shù) 142632關(guān)注度
往期回顧 全部

科技要聞

50分26秒!榮耀獲得人形機器人半馬冠軍

頭條要聞

牛彈琴:伊朗遭到特朗普"羞辱"被激怒 結(jié)果印度遭了殃

頭條要聞

牛彈琴:伊朗遭到特朗普"羞辱"被激怒 結(jié)果印度遭了殃

體育要聞

時隔25年重返英超!沒有人再嘲笑他了

娛樂要聞

劉德華回應(yīng)潘宏彬去世,拒談喪禮細節(jié)

財經(jīng)要聞

華誼兄弟,8年虧光85億

汽車要聞

奇瑞威麟R08 PRO正式上市 售價14.48萬元起

態(tài)度原創(chuàng)

藝術(shù)
健康
數(shù)碼
家居
旅游

藝術(shù)要聞

鄭麗文大陸之行引發(fā)熱議,孫中山贈對聯(lián)成焦點!

干細胞抗衰4大誤區(qū),90%的人都中招

數(shù)碼要聞

蘋果2026款Mac Studio前瞻:M5 Max/Ultra芯片,內(nèi)存最高256G

家居要聞

法式線條 時光靜淌

旅游要聞

王萌萌:雨潤牡丹熏風(fēng)來

無障礙瀏覽 進入關(guān)懷版