国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

網(wǎng)易游戲 Tmax 平臺實(shí)踐:基于 Fluid 的云原生 AI 大模型推理加速架構(gòu)

0
分享至


作者 | 廖海峰,張翔

背景:游戲行業(yè)智能化浪潮下的

基礎(chǔ)設(shè)施不斷演進(jìn)

作為中國領(lǐng)先的游戲研發(fā)與運(yùn)營公司,網(wǎng)易游戲旗下?lián)碛小秹艋梦饔巍贰洞笤捨饔巍贰兜白信蓪Α返葒窦売螒虍a(chǎn)品,以及游戲資產(chǎn)交易平臺“藏寶閣”等重要服務(wù)生態(tài)。隨著游戲產(chǎn)品矩陣的不斷擴(kuò)大和用戶體驗(yàn)需求的持續(xù)升級,網(wǎng)易游戲需要處理的數(shù)據(jù)類型和業(yè)務(wù)場景日益復(fù)雜多樣。

而大模型正深刻改變游戲行業(yè)。在 NPC 智能化、自動化劇情生成、角色動作捕捉及游戲資產(chǎn)生成等場景,特別是 RPG 與社交類游戲中,大模型已成為核心競爭力。為了更好地通過生成式 AI 支持業(yè)務(wù)發(fā)展,網(wǎng)易游戲打造了面向云原生的Tmax AI 機(jī)器學(xué)習(xí)平臺,提供靈活的資源調(diào)度、高效的 AI 開發(fā)效率與易托管的 AI 服務(wù)。


Tmax 平臺構(gòu)建于 Kubernetes 之上,整合了 Kubeflow、自研調(diào)度器及 CubeFS 文件管理系統(tǒng),支持從 Jupyter 交互式開發(fā)到分布式訓(xùn)練、再到模型推理部署的全鏈路 AI 生命周期管理。然而,隨著大模型推理業(yè)務(wù)規(guī)模爆發(fā),平臺在資源彈性、數(shù)據(jù)訪問效率與多地域協(xié)同方面面臨嚴(yán)峻挑戰(zhàn)。

挑戰(zhàn):大模型推理服務(wù)的

“不可能三角”

在構(gòu)建推理服務(wù)時(shí),我們面臨著成本、效率與彈性的多重制約:

1. GPU 資源的稀缺性與異構(gòu)性

受限于供應(yīng)鏈,高端 GPU 資源稀缺且價(jià)格昂貴,且存量資源卡型復(fù)雜(異構(gòu)混部)。這要求平臺必須實(shí)現(xiàn)分鐘級彈性伸縮,絕不能按業(yè)務(wù)峰值長期空置資源。

2. 業(yè)務(wù)峰值差異導(dǎo)致的資源浪費(fèi)

不同游戲業(yè)務(wù)的推理負(fù)載呈現(xiàn)顯著差異:

  • 時(shí)段分布不均:不同游戲業(yè)務(wù)的流量高峰分布在一天中的不同時(shí)段(如晚間游戲高峰、白天辦公工具使用高峰)

  • 資源需求異構(gòu):實(shí)時(shí)推理、批量處理、模型微調(diào)等場景對 GPU 類型、顯存、網(wǎng)絡(luò)的要求各不相同

  • 按峰值預(yù)留的低效性:為每個(gè)業(yè)務(wù)單獨(dú)預(yù)留峰值資源會導(dǎo)致整體利用率低下,資源浪費(fèi)顯著

按峰值疊加滿足所有業(yè)務(wù)將導(dǎo)致資源浪費(fèi)率高達(dá) 60% 以上。

3. Serverless 冷啟動的致命延遲

雖然阿里云 ACS Serverless 容器理論上能解決彈性問題,但大模型加載成為致命瓶頸。從遠(yuǎn)程存儲拉取一個(gè) 70B 模型(約 140GB+)到 GPU 顯存通常耗時(shí) 10-15 分鐘,這完全抵消了 Serverless 的彈性優(yōu)勢。

4. 多地域存儲管理復(fù)雜度和計(jì)算資源的碎片化

  • 跨地域管理難題:GPU 資源分布在多個(gè)地域,但模型數(shù)據(jù)需要高效同步和統(tǒng)一管理。

  • 存儲性能瓶頸:大模型文件(通常 70-500GB)從遠(yuǎn)端存儲加載到 GPU 節(jié)點(diǎn)速度慢,成為推理延遲的主要因素。

  • 多環(huán)境運(yùn)行時(shí)支持:需要同時(shí)管理 IDC 物理機(jī)、云上 ECS 實(shí)例和 Serverless 容器服務(wù)等多種計(jì)算資源中的存儲訪問。要求存儲抽象必須具備跨集群、跨云廠商的一致訪問接口。

方案選型:為何選擇

Fluid+AlluxioRuntime?

針對大模型推理的多地域部署的緩存加速需求,直覺上直接部署 Alluxio 集群比較簡單。在技術(shù)選型過程中,我們深入評估了直接使用 Alluxio 與基于 Fluid 構(gòu)建完整解決方案兩種路徑。

二者抽象層級與架構(gòu)定位的根本差異

· Alluxio:本質(zhì)是分布式緩存引擎,提供內(nèi)存級數(shù)據(jù)訪問能力,核心價(jià)值在于作為計(jì)算與存儲間的虛擬化層,提供統(tǒng)一命名空間與緩存加速。

· Fluid:是基于 Kubernetes 及 Alluxio 等底層系統(tǒng)的云原生數(shù)據(jù)編排平臺,以數(shù)據(jù)集為中心進(jìn)行抽象,深度集成于 Kubernetes 生態(tài)。

            

這種抽象層級的差異決定了二者解決不同層次的問題。

最終我們選擇 Fluid 而非直接使用 Alluxio,是基于以下多個(gè)維度的綜合考量:

選擇 Fluid 的綜合考量:


分析結(jié)論

對于我們的大模型推理場景,選擇 Fluid 而非直接使用 Alluxio,是基于以下核心判斷:

  1. 抽象匹配:Fluid 的"數(shù)據(jù)集"抽象更貼近 AI 應(yīng)用的數(shù)據(jù)使用模式,而 Alluxio 的"文件系統(tǒng)"抽象更底層。

  2. 運(yùn)維簡化:封裝 Alluxio 的運(yùn)維復(fù)雜性,提供了 Kubernetes 原生的管理體驗(yàn)。

  3. 場景優(yōu)化:針對 AI/ML 場景進(jìn)行了專門優(yōu)化,直接解決了大模型加載的關(guān)鍵痛點(diǎn)。

  4. 生態(tài)集成:作為 CNCF 孵化項(xiàng)目,F(xiàn)luid 與云原生生態(tài)的集成深度和未來兼容性更好。

  5. 長期投資:多 Runtime 架構(gòu)避免了對單一技術(shù)的依賴,為未來技術(shù)演進(jìn)留出空間。

落地實(shí)踐:聲明式數(shù)據(jù)基礎(chǔ)設(shè)施

基于 Fluid 的云原生抽象能力,我們構(gòu)建了“計(jì)算 - 緩存 - 存儲”三層解耦架構(gòu):

  1. 底層存儲:CubeFS/OSS 存儲原始模型權(quán)重。

  2. 加速層:Fluid + AlluxioRuntime 構(gòu)建分布式緩存層,跨地域提供統(tǒng)一訪問接口。

  3. 計(jì)算層:Kubernetes 集群(含 Serverless 容器)運(yùn)行推理服務(wù),通過 PVC 掛載數(shù)據(jù)。

架構(gòu)設(shè)計(jì)


關(guān)鍵配置實(shí)踐

1. 自動預(yù)熱機(jī)制

針對 DeepSeek-R1 等超大模型,啟用了 Fluid 的應(yīng)用預(yù)取功能,大幅縮短冷啟動時(shí)間。

  file-prefetcher.fluid.io/file-list: "pvc://llm-model/"

2. 智能彈性:GitOps 與定時(shí)伸縮

針對游戲業(yè)務(wù)明顯的早晚高峰特征,我們結(jié)合CronHorizontalPodAutoscaler與 FluidDataLoad實(shí)現(xiàn)了全自動化的“潮汐式”管理:

  • 高峰前:自動擴(kuò)容緩存節(jié)點(diǎn),并觸發(fā)模型數(shù)據(jù)預(yù)熱。

  • 低峰后:自動縮容緩存節(jié)點(diǎn),釋放資源。


     targetSize: 20

使用定時(shí)預(yù)熱

  - path: /path/to/warmup # 指定了需要預(yù)熱的后端存儲系統(tǒng)路徑。

3. 跨 namespace 的緩存共享

在 Tmax 平臺中,存在“公共模型倉庫”與“多業(yè)務(wù)項(xiàng)目組”并存的場景。如果每個(gè)項(xiàng)目組(Namespace)都單獨(dú)部署一套 Dataset 和 Runtime,將導(dǎo)致:

  1. 存儲冗余:同一個(gè) DeepSeek-V3 模型在集群中被重復(fù)緩存多次。

  2. 內(nèi)存浪費(fèi):多套分布式緩存系統(tǒng)占用大量內(nèi)存資源。

  3. 管理混亂:模型版本更新需要通知所有項(xiàng)目組手動同步。

Fluid 提供了跨 Namespace 共享(Cross-Namespace Referencing) 能力,完美解決了這一痛點(diǎn)。

  • Model-Hub Namespace:由平臺管理員維護(hù),部署AlluxioRuntimeDataset負(fù)責(zé)對接底層存儲并進(jìn)行數(shù)據(jù)預(yù)熱。

  • Game-Project Namespace:分配給各游戲項(xiàng)目組,無需部署 Runtime,只需創(chuàng)建一個(gè)引用型的 Dataset 指向 Hub 中的數(shù)據(jù)集

管理員在public-services命名空間發(fā)布模型:

      name: model-root

授權(quán)業(yè)務(wù)組在game-team-a命名空間引用:

    name: deepseek-mount

收益

  • 一次預(yù)熱,全員加速:模型只需在公共空間加載一次,所有授權(quán)的業(yè)務(wù)組即可通過本地網(wǎng)絡(luò)訪問,無需重復(fù)下載。

  • 資源節(jié)省:緩存層內(nèi)存占用降低 60%-80%(取決于共享比例)。

  • 極速啟動:新開服的游戲業(yè)務(wù)無需等待模型下載,直接掛載公共緩存,實(shí)現(xiàn)秒級啟動。

性能與成本收益

經(jīng)過超過一年的生產(chǎn)環(huán)境運(yùn)行,F(xiàn)luid + AlluxioRuntime 的組合不僅解決了技術(shù)層面的 I/O 瓶頸,更為網(wǎng)易游戲帶來了顯著的業(yè)務(wù)價(jià)值。以下是我們在性能加速、成本節(jié)約、高并發(fā)穩(wěn)定性等方面的具體收益細(xì)節(jié):

1. 性能維度:12 倍啟動加速,讓 Serverless 真正落地

在大模型 Serverless 彈性場景中,“冷啟動速度”直接決定了方案的可行性。

  • 加載耗時(shí)大幅縮短:以 DeepSeek V3/R1 等大參數(shù)模型為例,通過對比實(shí)測:

    • 基線(跨地域直連 CubeFS):受限于網(wǎng)絡(luò)帶寬與長鏈路延遲,平均耗時(shí) 36 分鐘。

    • 優(yōu)化一階段(傳統(tǒng) Alluxio):部署緩存后縮短至 14 分鐘,但仍受限于元數(shù)據(jù)同步和預(yù)熱效率。

    • 優(yōu)化二階段(Fluid 智能預(yù)讀):開啟 AI 應(yīng)用預(yù)讀,耗時(shí)驟降至 3 分鐘。

  • 收益:12 倍的性能提升,使得原本因“啟動太慢”而無法使用的 Serverless 算力資源重新具備了生產(chǎn)可用性

2. 成本維度:TCO 顯著降低,消除“資源碎片”

通過 Fluid 的編排能力,我們成功打破了 GPU 資源與存儲資源的高昂綁定關(guān)系。

  • 存儲成本降低顯著:得益于 跨 Namespace 數(shù)據(jù)共享機(jī)制,原本散落在不同項(xiàng)目組的相同基礎(chǔ)模型(Base Model)無需重復(fù)存儲和緩存。單份緩存數(shù)據(jù)支撐了上百個(gè)推理 Pod 的運(yùn)行,大幅削減了分布式緩存集群的內(nèi)存開銷。

  • GPU 利用率提升:通過“潮汐式”自動伸縮,我們不再需要按照業(yè)務(wù)最高峰值(Peak)常駐昂貴的 GPU 實(shí)例。配合 3 分鐘極速啟動,業(yè)務(wù)可以在低谷期安全地將 GPU 資源縮容至極低水位,整體 GPU 資源閑置率降低了約 20%。

3. 穩(wěn)定性維度:化解“驚群效應(yīng)”,保障高并發(fā)

在游戲版本更新或活動期間,會有數(shù)百個(gè)推理服務(wù)實(shí)例同時(shí)啟動(并發(fā)拉起)。

  • 保護(hù)底層存儲:若數(shù)百個(gè) Pod 同時(shí)直接訪問底層的對象存儲(OSS/S3),極易觸發(fā)帶寬限流或存儲服務(wù)過載(Thundering Herd Problem)。Fluid 充當(dāng)了巨大的流量“擋板”,所有高并發(fā)請求均由本地緩存層響應(yīng),徹底消除了底層存儲的 I/O 抖動風(fēng)險(xiǎn)。

  • 推理吞吐穩(wěn)定:本地化的數(shù)據(jù)訪問將 I/O 延遲從毫秒級(ms)降低至微秒級(μs),確保了 GPU 不會因?yàn)榈却龜?shù)據(jù)而空轉(zhuǎn),保障了推理服務(wù)的 P99 延遲穩(wěn)定性。

4. 效率維度:算法團(tuán)隊(duì)的“零感知”體驗(yàn)

對于算法工程師而言,基礎(chǔ)設(shè)施的復(fù)雜度被完全透明化。

  • 接口統(tǒng)一:無論底層是 S3、HDFS 還是 CubeFS,算法工程師只需像操作本地文件一樣操作 PVC 掛載目錄,無需在代碼中引入復(fù)雜的 SDK。

  • 環(huán)境一致性:從開發(fā)環(huán)境(Jupyter Notebook)到生產(chǎn)環(huán)境(Serverless Deployment),使用同一套 Dataset 定義,消除了“開發(fā)能跑,上線報(bào)錯(cuò)”的環(huán)境差異問題。


結(jié) 語

網(wǎng)易游戲通過 Fluid 的實(shí)踐,成功構(gòu)建了高效、彈性、成本優(yōu)化的大模型推理數(shù)據(jù)基礎(chǔ)設(shè)施。這一實(shí)踐不僅解決了 GPU 資源緊張、業(yè)務(wù)峰值差異、彈性伸縮困難等迫切問題,更為游戲行業(yè)探索 AI 原生體驗(yàn)提供了可靠的基礎(chǔ)支撐。

在游戲行業(yè)與 AI 技術(shù)深度融合的今天,基礎(chǔ)設(shè)施的現(xiàn)代化已成為創(chuàng)新的基石。Fluid 作為云原生數(shù)據(jù)編排的優(yōu)秀代表,其在網(wǎng)易游戲的成功應(yīng)用,為整個(gè)行業(yè)提供了可借鑒的范例。未來,隨著技術(shù)的不斷演進(jìn)和場景的持續(xù)拓展,“以數(shù)據(jù)為中心”的架構(gòu)設(shè)計(jì)已成為企業(yè)降本增效、構(gòu)建競爭力的關(guān)鍵路徑,推動游戲行業(yè)進(jìn)入一個(gè)更加智能、個(gè)性化和沉浸式的新時(shí)代。

最后,特別感謝 Fluid 社區(qū)的徐之浩、玖宇和顧榮老師。正是因?yàn)橛羞@樣負(fù)責(zé)任的維護(hù)者和快速的社區(qū)響應(yīng),才使得我們的技術(shù)探索之路更加平坦,讓云原生 AI 架構(gòu)在網(wǎng)易游戲順利落地。

作者簡介

廖海峰 (Senior Infrastructure Engineer):負(fù)責(zé)網(wǎng)易互娛 AI 基礎(chǔ)設(shè)施平臺的算力基礎(chǔ)設(shè)施構(gòu)建和穩(wěn)定性保障,致力于為大規(guī)模游戲 AI 業(yè)務(wù)提供堅(jiān)實(shí)的算力底座與服務(wù)支撐。

張 翔 (Head of AI Infrastructure):負(fù)責(zé)網(wǎng)易互娛 AI 基礎(chǔ)設(shè)施平臺的技術(shù)演進(jìn)與架構(gòu)設(shè)計(jì),致力于構(gòu)建高性能、高可用、低成本的 AI 基礎(chǔ)設(shè)施平臺。

會議推薦

2026,AI 正在以更工程化的方式深度融入軟件生產(chǎn),Agentic AI 的探索也將從局部試點(diǎn)邁向體系化工程建設(shè)!

QCon 北京 2026 已正式啟動,本屆大會以“Agentic AI 時(shí)代的軟件工程重塑”為核心主線,推動技術(shù)探索從「AI For What」真正落地到可持續(xù)的「Value From AI」。從前沿技術(shù)雷達(dá)、架構(gòu)設(shè)計(jì)與數(shù)據(jù)底座、效能與成本、產(chǎn)品與交互、可信落地、研發(fā)組織進(jìn)化六大維度,系統(tǒng)性展開深度探索。開往 2026 的 Agentic AI 專列即將啟程!匯聚頂尖專家實(shí)戰(zhàn)分享,把 AI 能力一次夯到位!

今日薦文

你也「在看」嗎?

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
長城汽車魏建軍承認(rèn)抄襲路虎海報(bào):責(zé)任主要在我,愿承擔(dān)全部法律和經(jīng)濟(jì)責(zé)任

長城汽車魏建軍承認(rèn)抄襲路虎海報(bào):責(zé)任主要在我,愿承擔(dān)全部法律和經(jīng)濟(jì)責(zé)任

新浪財(cái)經(jīng)
2026-03-06 20:19:19
4換1!湖人牛逼??!他真的出問題了

4換1!湖人牛逼啊!他真的出問題了

小染說臺球
2026-03-08 15:30:57
一個(gè)人可以廢物到什么程度?網(wǎng)友:這是爛泥扶不上墻!

一個(gè)人可以廢物到什么程度?網(wǎng)友:這是爛泥扶不上墻!

另子維愛讀史
2026-02-28 21:00:25
baby化濃妝穿旗袍唱歌!煙不離手還請男模,表情浮夸詭異疑精神失常

baby化濃妝穿旗袍唱歌!煙不離手還請男模,表情浮夸詭異疑精神失常

八卦王者
2026-03-08 11:57:29
1-0!巴薩3連勝:西甲4分領(lǐng)跑,后11輪2場惡戰(zhàn),贏1場基本奪冠

1-0!巴薩3連勝:西甲4分領(lǐng)跑,后11輪2場惡戰(zhàn),贏1場基本奪冠

體育知多少
2026-03-08 07:12:35
中天科技:被嚴(yán)重低估的“算力血管”龍頭,新一輪漲價(jià)潮最大贏家

中天科技:被嚴(yán)重低估的“算力血管”龍頭,新一輪漲價(jià)潮最大贏家

Thurman在昆明
2026-03-08 12:45:29
北京四國手+上海三巨頭+廣廈王炸!CBA新規(guī)逼瘋廣東,奪冠沒戲了

北京四國手+上海三巨頭+廣廈王炸!CBA新規(guī)逼瘋廣東,奪冠沒戲了

緋雨兒
2026-03-08 14:36:26
伊朗發(fā)射超重型導(dǎo)彈復(fù)仇 美稱不會達(dá)成任何協(xié)議 聯(lián)合國警告局勢可能失控

伊朗發(fā)射超重型導(dǎo)彈復(fù)仇 美稱不會達(dá)成任何協(xié)議 聯(lián)合國警告局勢可能失控

健身狂人
2026-03-08 16:04:55
女子拿錯(cuò)凳被潑螺螄粉湯后續(xù),黑衣女好友及家人受牽連,本人社死

女子拿錯(cuò)凳被潑螺螄粉湯后續(xù),黑衣女好友及家人受牽連,本人社死

吃貨的分享
2026-03-08 13:13:26
鄒市明一家國外度假!冉瑩穎膘肥體壯不好惹,軒軒一頭白毛好土氣

鄒市明一家國外度假!冉瑩穎膘肥體壯不好惹,軒軒一頭白毛好土氣

小徐講八卦
2026-03-01 05:51:11
2026年養(yǎng)老金確定上漲,漲幅有驚喜,還有好消息

2026年養(yǎng)老金確定上漲,漲幅有驚喜,還有好消息

阿曇你好
2026-03-08 14:33:33
73歲關(guān)牧村離婚36年,不見前夫卻允許唯一的兒子前去探望

73歲關(guān)牧村離婚36年,不見前夫卻允許唯一的兒子前去探望

青杉依舊啊啊
2026-03-05 07:17:48
美國議員:禁止ASML向中國提供一切設(shè)備,不給中國任何機(jī)會,從根源上拖垮中國先進(jìn)制程

美國議員:禁止ASML向中國提供一切設(shè)備,不給中國任何機(jī)會,從根源上拖垮中國先進(jìn)制程

芯火相承
2026-03-08 16:39:08
劉亞樓被稱為103,號稱東野三號首長,實(shí)際有9位排他前面:都是誰

劉亞樓被稱為103,號稱東野三號首長,實(shí)際有9位排他前面:都是誰

舊史新譚
2026-03-08 14:11:09
相親遇到奇葩是啥體驗(yàn)?網(wǎng)友:看完渾身不舒服,你能給我賠點(diǎn)錢嗎

相親遇到奇葩是啥體驗(yàn)?網(wǎng)友:看完渾身不舒服,你能給我賠點(diǎn)錢嗎

帶你感受人間冷暖
2026-03-07 02:04:39
倪萍看望蔡磊,稱很受鼓舞,蔡磊發(fā)文:攻克漸凍癥的勝利晚會,倪萍老師來主持,就這么愉快地約定了!其身體功能評分已降至個(gè)位數(shù)

倪萍看望蔡磊,稱很受鼓舞,蔡磊發(fā)文:攻克漸凍癥的勝利晚會,倪萍老師來主持,就這么愉快地約定了!其身體功能評分已降至個(gè)位數(shù)

每日經(jīng)濟(jì)新聞
2026-03-08 00:00:00
軍事專家稱:照這么打下去,等伊朗導(dǎo)彈打光了,美國就笑到最后了

軍事專家稱:照這么打下去,等伊朗導(dǎo)彈打光了,美國就笑到最后了

我心縱橫天地間
2026-03-08 14:01:34
兩會外長會丨王毅:解決臺灣問題,實(shí)現(xiàn)祖國完全統(tǒng)一不可阻擋

兩會外長會丨王毅:解決臺灣問題,實(shí)現(xiàn)祖國完全統(tǒng)一不可阻擋

澎湃新聞
2026-03-08 11:52:04
網(wǎng)紅安靜公主自曝肛裂,今年手術(shù)做太多,被建議休息半個(gè)月再檢查

網(wǎng)紅安靜公主自曝肛裂,今年手術(shù)做太多,被建議休息半個(gè)月再檢查

君笙的拂兮
2026-03-05 07:22:01
他倆官宣結(jié)婚,朋友圈都炸了!

他倆官宣結(jié)婚,朋友圈都炸了!

黎兜兜
2026-03-07 21:19:02
2026-03-08 17:24:49
AI前線 incentive-icons
AI前線
面向AI愛好者、開發(fā)者和科學(xué)家,提供AI領(lǐng)域技術(shù)資訊。
1347文章數(shù) 133關(guān)注度
往期回顧 全部

游戲要聞

《惡魔寶貝》新試玩版將于3月19日發(fā)布 不再限時(shí)

頭條要聞

伊朗軍方公布"家底":具備打至少6個(gè)月高強(qiáng)度戰(zhàn)爭能力

頭條要聞

伊朗軍方公布"家底":具備打至少6個(gè)月高強(qiáng)度戰(zhàn)爭能力

體育要聞

大傷后被交易,他說:22歲的我已經(jīng)死了

娛樂要聞

周迅新戀情曝光,李亞鵬等人已成過去

財(cái)經(jīng)要聞

油價(jià)要失控?

科技要聞

OpenClaw最大的推手是閑魚和小紅書

汽車要聞

9分鐘充飽 全新騰勢Z9GT首搭閃充技術(shù)26.98萬起

態(tài)度原創(chuàng)

時(shí)尚
旅游
親子
教育
公開課

2026春夏一定要擁有的6只包,好看又百搭

旅游要聞

一起去看玉蘭花!這些地方開正好~

親子要聞

泰國老丈人滿心是欣欣 上班都沒心思 就想早點(diǎn)回家陪娃

教育要聞

第一次考英語四級,如何規(guī)劃復(fù)習(xí)才能順利通過,最好突破550分

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版