国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

重新思考長尾數(shù)據(jù)集蒸餾:具有無偏恢復(fù)與重標(biāo)記的統(tǒng)一層級框架

0
分享至

Rethinking Long-tailed Dataset Distillation: A Uni-Level Framework withUnbiased Recovery and Relabeling

重新思考長尾數(shù)據(jù)集蒸餾:具有無偏恢復(fù)與重標(biāo)記的統(tǒng)一層級框架


摘要

數(shù)據(jù)集蒸餾(Dataset distillation)創(chuàng)建一個小型蒸餾數(shù)據(jù)集,通過捕獲完整數(shù)據(jù)集中的關(guān)鍵信息來實現(xiàn)高效訓(xùn)練。雖然現(xiàn)有的數(shù)據(jù)集蒸餾方法在平衡數(shù)據(jù)集上表現(xiàn)良好,但在長尾分布下卻面臨困難——在這種分布中,不平衡的類別頻率會導(dǎo)致模型表示產(chǎn)生偏置,并破壞諸如批歸一化(BN)統(tǒng)計量等統(tǒng)計估計。本文中,我們通過重新審視基于軌跡方法的局限性,重新思考長尾數(shù)據(jù)集蒸餾問題,轉(zhuǎn)而采用統(tǒng)計對齊的視角來聯(lián)合緩解模型偏置并恢復(fù)公平的監(jiān)督信號。為此,我們引入了三個專門設(shè)計的組件,以實現(xiàn)蒸餾圖像的無偏恢復(fù)和軟標(biāo)簽重標(biāo)定:(1)增強專家模型(一個用于恢復(fù)的觀察模型和一個用于重標(biāo)定的教師模型),以實現(xiàn)可靠的統(tǒng)計估計和軟標(biāo)簽生成;(2)通過完整前向傳播動態(tài)調(diào)整動量來重新校準(zhǔn)BN統(tǒng)計量,以減少表示偏斜;(3)通過多輪機制逐步選擇高置信度且多樣化的增強樣本初始化合成圖像,以促進覆蓋性和多樣性。在四個長尾基準(zhǔn)數(shù)據(jù)集上的大量實驗表明,我們的方法在不同程度的類別不平衡下均持續(xù)優(yōu)于現(xiàn)有最先進方法。值得注意的是,在IPC=10和IF=10的設(shè)置下,我們的方法在CIFAR-100-LT上提升了15.6%的top-1準(zhǔn)確率,在Tiny-ImageNet-LT上提升了11.8%。

引言

數(shù)據(jù)集蒸餾(Dataset Distillation, DD)是合成一個顯著更小但具有代表性的數(shù)據(jù)集的過程,該數(shù)據(jù)集保留原始大型數(shù)據(jù)集的基本特征(Wang等人2018;Yu, Liu和Wang 2023;Liu和Du 2025)。通過大幅減少數(shù)據(jù)量,DD促進了高效的模型訓(xùn)練并顯著降低計算成本,使其在資源受限場景中特別有價值(Cui等人2025c;Chai等人2024)。除了減輕計算負擔(dān)外,DD還提供了一個緊湊的視角來研究數(shù)據(jù)分布如何影響模型學(xué)習(xí)(Zhu等人2023;Cheng等人2024)。

長尾數(shù)據(jù)集蒸餾(Zhao等人2025)專門解決以類別不平衡為特征的場景,其中少數(shù)頭部類別包含豐富的樣本,而剩余的尾部類別則稀疏表示。這種不平衡在現(xiàn)實世界應(yīng)用中普遍存在,因為為稀有類別獲取足夠樣本的成本高昂或不可行。大多數(shù)現(xiàn)有的DD方法(Liu等人2023;Guo等人2024;Shao等人2024b)在平衡數(shù)據(jù)集上表現(xiàn)良好,但在類別不平衡條件下則遇到困難。它們對均勻數(shù)據(jù)密度的假設(shè)導(dǎo)致合成集中頭部類別占主導(dǎo)地位,少數(shù)類別的表示不佳,最終在長尾場景中性能下降。

很少有研究明確解決傳統(tǒng)DD方法在長尾分布下的局限性,這主要是因為廣泛使用的基準(zhǔn)數(shù)據(jù)集通常具有平衡的類別結(jié)構(gòu)(Krizhevsky 2012;Le和Yang 2015;Deng等人2009)。據(jù)我們所知,DAMED(Zhao等人2025)是最近唯一明確解決這一問題的研究工作。它通過向softmax層注入類別頻率感知的偏移量來模擬長尾訓(xùn)練動態(tài),從而誘導(dǎo)模仿不平衡訓(xùn)練下觀察到的梯度行為。然而,如圖1所示,DAMED仍存在顯著局限性。1)尾部類別表示不足。它依賴于在長尾數(shù)據(jù)上訓(xùn)練但未去偏的特征提取專家,導(dǎo)致尾部類別表示在蒸餾數(shù)據(jù)集中保存不佳。2)軌跡匹配中的無意權(quán)衡。中頻類別接收到不穩(wěn)定或不足的梯度反饋,導(dǎo)致整個分布上的性能受損。3)沉重的計算開銷。其雙層基于軌跡的優(yōu)化存在計算效率低下和過度的GPU內(nèi)存使用問題,嚴(yán)重限制了實際適用性(Yin, Xing和Shen 2023)。


為全面解決這些缺點,我們提出了一種新穎的單層優(yōu)化框架,以成本高效的方式明確抵消源于類別不平衡的偏置。這一表述至關(guān)重要,因為有效的去偏策略往往導(dǎo)致專家的訓(xùn)練軌跡顯著偏離標(biāo)準(zhǔn)訓(xùn)練所誘導(dǎo)的軌跡,使得軌跡匹配變得不穩(wěn)定且具有挑戰(zhàn)性。我們的框架通過兩個互補組件考慮去偏:無偏合成圖像恢復(fù)和無偏軟標(biāo)簽重標(biāo)定。為了在長尾設(shè)置中實現(xiàn)有效恢復(fù),我們的框架確保多樣化且具有代表性的合成圖像初始化,并利用去偏的專家模型(觀察模型)執(zhí)行BN統(tǒng)計量的公平提取以實現(xiàn)精確對齊。同時,無偏軟標(biāo)簽重標(biāo)定通過另一個訓(xùn)練良好、去偏的專家模型(教師模型)生成的軟標(biāo)簽提供有效的語義監(jiān)督。

為實現(xiàn)這一設(shè)計,我們引入了三種針對性的策略來緩解長尾分布下的模型偏置、統(tǒng)計不公平性和次優(yōu)初始化問題。

首先,我們提出了一種混合一致性損失(mixture consistency loss)和一種類別級去偏損失(class-wise debias loss)來正則化觀察模型和教師模型。前者確保對多種數(shù)據(jù)增強的魯棒特征學(xué)習(xí),后者采用動態(tài)加權(quán)來重新平衡類別級監(jiān)督。

其次,我們重新校準(zhǔn)BN統(tǒng)計量的估計,以應(yīng)對類別不平衡和時間依賴性的挑戰(zhàn)。我們凍結(jié)觀察模型,并在整個訓(xùn)練集上執(zhí)行高效的前向傳播。在此過程中,我們動態(tài)調(diào)整的動量確保每個類別內(nèi)所有樣本的平等貢獻,消除類內(nèi)偏置。然后我們對每類統(tǒng)計量取平均,以獲得全局平衡的估計,消除類間偏置。

第三,我們引入了一種置信度感知、類別無關(guān)的合成初始化策略。對于每個真實圖像,我們預(yù)計算多個增強版本,并使用教師模型通過負交叉熵進行評分。我們采用多輪選擇策略,每輪中每個圖像最多貢獻一個增強版本,逐步選擇高置信度變體以確保多樣性。為確保批次結(jié)構(gòu)一致,我們對實例數(shù)少于最大類別的所有類別插入零填充占位符。

我們的主要貢獻如下:

  • 我們通過從雙層軌跡匹配轉(zhuǎn)向單層統(tǒng)計對齊框架,重新思考長尾數(shù)據(jù)集蒸餾,該框架更好地支持去偏。

  • 我們通過三種關(guān)鍵策略實現(xiàn)無偏恢復(fù)和軟標(biāo)簽重標(biāo)定:專家模型去偏;公平BN統(tǒng)計量重新校準(zhǔn);以及置信度引導(dǎo)的多輪合成數(shù)據(jù)初始化。

  • 在CIFAR-10-LT、CIFAR-100-LT、Tiny-ImageNet-LT和ImageNet-LT上的大量實驗表明,我們相對于最先進基線具有一致的優(yōu)越性。在CIFAR-100-LT上提升準(zhǔn)確率15.6%,在Tiny-ImageNet-LT上提升11.8%(IPC=10, IF=10)。

相關(guān)工作

數(shù)據(jù)集蒸餾

早期的數(shù)據(jù)集蒸餾方法,如K-Center(Sener和Savarese 2017)和GraphCut(Iyer等人2021),直接選擇真實數(shù)據(jù)的子集,這限制了所得蒸餾數(shù)據(jù)集的表達能力。后續(xù)方法分為三大類。基于梯度匹配的方法(Liu等人2023;Wang等人2025)對齊真實數(shù)據(jù)與蒸餾數(shù)據(jù)之間的梯度,但由于高內(nèi)存使用而擴展性較差。基于軌跡匹配的方法(Cazenavette等人2022;Zhong等人2025)模擬訓(xùn)練動態(tài),但計算昂貴且內(nèi)存密集。基于分布匹配的方法(Zhao和Bilen 2023;Cui等人2025a)通過匹配特征加速收斂,但仍遭受高內(nèi)存成本,并在Tiny-ImageNet或ImageNet等更大數(shù)據(jù)集上性能下降。

近期研究嘗試通過基于生成模型的方法(Cui等人2025b;Chen等人2025)或采用單層優(yōu)化(Sun等人2024;Shao等人2024b)來減少內(nèi)存開銷。然而,生成方法通常依賴于在平衡大規(guī)模數(shù)據(jù)集上預(yù)訓(xùn)練的生成器,而現(xiàn)有的單層方法在平衡假設(shè)下運行,缺乏顯式的去偏策略。DAMED(Zhao等人2025)是唯一明確針對長尾DD的先驗工作。然而,它繼承了長尾專家訓(xùn)練的表示偏置,并保留了軌跡匹配框架的低效性。相比之下,我們的工作是首個在單層框架內(nèi)系統(tǒng)解決長尾DD的研究,具有原則性的專家去偏、圖像初始化和無偏對齊策略。

長尾識別

長尾識別指在不平衡數(shù)據(jù)分布下執(zhí)行的視覺任務(wù)(Zhang等人2025)。為緩解由此產(chǎn)生的表示偏置,數(shù)據(jù)增強策略已被廣泛研究(Zheng等人2024;Wang等人2024;Li和Jia 2025)。例如,Mixup(Zhang等人2018)及其類別感知擴展UniMix(Li等人2021)促進特征插值以豐富尾部類別的監(jiān)督,而CMO(Shi, Dong和Shen 2021)生成上下文感知的混合樣本,更好地保留稀有類別的語義一致性。

除增強外,其他方法通過網(wǎng)絡(luò)級優(yōu)化(Zhang等人2023;Zhu等人2024;He 2024)、使用生成模型或?qū)嵗M合的數(shù)據(jù)合成(Shao等人2024a;Khorram等人2024;Zhao等人2024)、以及損失重平衡策略(Xiong和Yao 2024;Du, Han和Huang 2024;Lin等人2017;Du等人2023)來放大來自代表性不足類別的學(xué)習(xí)信號,從而緩解長尾偏置。鑒于對長尾數(shù)據(jù)集蒸餾的關(guān)注有限,我們從更廣泛的長尾識別文獻中汲取概念洞見,對觀察模型和教師模型進行去偏,從而在嚴(yán)重類別不平衡下實現(xiàn)有效的蒸餾。

方法

問題陳述


為解決該問題,我們提出了一個用于無偏恢復(fù)和軟標(biāo)簽重標(biāo)定的單層統(tǒng)計對齊框架。我們的方法偏離了傳統(tǒng)的軌跡匹配方法,其根本性局限性在后續(xù)章節(jié)中詳細闡述。我們框架的成功依賴于三個核心策略:專家模型去偏、公平BN統(tǒng)計量重新校準(zhǔn)、以及置信度引導(dǎo)的數(shù)據(jù)初始化。整個流程如圖2所示。


基于軌跡匹配方法的缺點



其中 F 表示訓(xùn)練軌跡。然而,當(dāng)專家模型 在長尾數(shù)據(jù)集上訓(xùn)練時,其內(nèi)部表示不可避免地容易受到類別不平衡的影響,如果不實施適當(dāng)?shù)母深A(yù)。優(yōu)化學(xué)生模型來模仿這樣的專家會導(dǎo)致蒸餾數(shù)據(jù)集繼承這種偏置,導(dǎo)致對頭部類別語義的過度強調(diào)和對少數(shù)類別的表示不足。

盡管DAMED(Zhao等人2025)嘗試在學(xué)生中模擬不平衡訓(xùn)練動態(tài)以減少軌跡不匹配,但它依賴于一個在未去偏的不平衡數(shù)據(jù)上訓(xùn)練的表示專家。因此,蒸餾數(shù)據(jù)集繼承了專家的表示偏置。更廣泛地說,基于軌跡的方法難以在顯式去偏和嚴(yán)格軌跡匹配之間取得平衡。蒸餾前的調(diào)整(如重加權(quán)或logit修正)會改變專家的優(yōu)化路徑,破壞了軌跡匹配的前提。同時,事后去偏是不切實際的,因為這些方法僅復(fù)現(xiàn)參數(shù)演變,缺乏對每類表示質(zhì)量的細粒度控制。除了這些局限性外,由于優(yōu)化的雙層性質(zhì)、多步訓(xùn)練軌跡模擬以及通過展開計算圖的反向傳播,此類方法產(chǎn)生了大量的計算開銷。






BN統(tǒng)計量的公平重新校準(zhǔn) 準(zhǔn)確且公平的BN統(tǒng)計量在我們的框架中至關(guān)重要,因為它們作為圖像恢復(fù)的對齊目標(biāo)。然而,在標(biāo)準(zhǔn)指數(shù)移動平均更新(固定動量)下,運行估計會因樣本貢獻不均而產(chǎn)生偏差:近期批次主導(dǎo)統(tǒng)計量,而早期批次被快速遺忘。這種效應(yīng)在長尾設(shè)置中尤其成問題,其中每個尾部類別樣本具有高表示價值,必須對累積統(tǒng)計量做出平等貢獻。這些局限性促使我們采用事后重新校準(zhǔn)策略。





方差 σ 同理。這種兩階段策略同時緩解了類內(nèi)偏置和類間偏置,從而作為統(tǒng)計對齊的可靠監(jiān)督信號。

置信度引導(dǎo)的多輪初始化 初始化主要決定最終合成圖像的多樣性,同時在促進長尾分布下的穩(wěn)定優(yōu)化方面也發(fā)揮輔助作用。傳統(tǒng)初始化策略通常依賴于采樣真實圖像或隨機噪聲。然而,隨機初始化往往導(dǎo)致收斂性差和下游性能下降。在高度不平衡的設(shè)置中,直接采樣真實圖像變得不可行,因為尾部類別通常包含太少樣本而無法提供充分的初始化。

為克服這一局限性,我們提出了一種專為長尾分布定制的置信度引導(dǎo)、多輪初始化策略。具體而言,我們?yōu)槊總€真實圖像生成多個增強版本(如裁剪),并通過教師模型 使用負交叉熵損失對它們進行評分。這些增強版本存儲在一個類別級候選池中。在每一輪中,每個真實圖像將其最自信且未使用的增強版本貢獻給一個臨時選擇池。如果候選總數(shù)超過該類別的剩余槽位,我們選擇得分最高的增強版本;否則,我們保留全部。這一過程重復(fù)進行,直到每個類別達到其目標(biāo)IPC。該策略確保高置信度選擇,同時在不同類別規(guī)模下保持樣本級多樣性。為保持跨類別的結(jié)構(gòu)一致性,我們對真實樣本數(shù)少于最大類別的類別插入零初始化占位符。這些占位符被排除在增強和選擇過程之外,確保所有合成樣本都具有語義意義。




實驗


網(wǎng)絡(luò)架構(gòu) 遵循DAMED(Zhao等人2025)中建立的設(shè)置,我們采用深度為3的ConvNet作為CIFAR-10-LT和CIFAR-100-LT的學(xué)生模型,深度為4的ConvNet用于Tiny-ImageNet-LT和ImageNet-LT。鑒于ResNet架構(gòu)對大規(guī)模數(shù)據(jù)集的優(yōu)越表示能力,我們額外在高度不平衡場景下對ImageNet-LT評估ResNet-50。在評估期間,所有學(xué)生模型在蒸餾數(shù)據(jù)集上訓(xùn)練1000個輪次。所有實驗重復(fù)五次以保證公平性,并主要在單張NVIDIA RTX 3090 GPU上進行。

基線方法 我們將我們的方法與多種代表性基線進行比較,包括核心集選擇方法如Random、K-Center Greedy(Sener和Savarese 2017)和Graph Cut(Iyer等人2021);基于梯度匹配的方法包括DC(Zhao, Mopuri和Bilen 2020)和DREAM(Liu等人2023);基于分布匹配的方法如CAFE(Wang等人2022)和IDM(Zhao等人2023);基于軌跡匹配的方法包括MTT(Cazenavette等人2022)、DATM(Guo等人2024)、TESLA(Cui等人2023)和DAMED(Zhao等人2025);單層優(yōu)化方法包括SRe2L(Yin, Xing和Shen 2023)、RDED(Sun等人2024)和EDC(Shao等人2024b);以及基于生成模型的方法如Minimax(Gu等人2024)。

結(jié)果與討論

主要結(jié)果 我們進行了全面的評估,涵蓋廣泛的IF和IPC配置,覆蓋不同復(fù)雜度的數(shù)據(jù)集。如表1、2、3和4所示,我們的方法在所有評估設(shè)置下始終優(yōu)于強基線。雖然DAMED(Zhao等人2025)產(chǎn)生的學(xué)生性能與其有偏專家的性能 closely matching——實際上達到了其性能上限——但我們的方法明確緩解了專家偏置,使蒸餾數(shù)據(jù)能夠監(jiān)督更準(zhǔn)確和可泛化的學(xué)生模型,從而提高了可達到的上界。通過以類別平衡的方式對齊模型表示并重新校準(zhǔn)平衡的BN統(tǒng)計量,我們的方法避免了對頭部類別的典型過擬合,并促進了跨類別和訓(xùn)練樣本的公平學(xué)習(xí)。我們的去偏機制使蒸餾數(shù)據(jù)集能夠同時保留結(jié)構(gòu)保真度和語義完整性,使我們的方法在不同規(guī)模的數(shù)據(jù)集上廣泛有效。



高度不平衡設(shè)置下的結(jié)果 表5總結(jié)了高度不平衡場景下的結(jié)果。這些設(shè)置為數(shù)據(jù)集蒸餾帶來了重大挑戰(zhàn),特別是當(dāng)某些類別的可用真實圖像數(shù)量低于目標(biāo)IPC時。在這種約束下,一些先前的方法變得不適用;例如,EDC的初始化和RDED的采樣機制因尾部類別樣本不足而失敗。其他基線也難以取得有競爭力的性能,通常是由于有偏的表示學(xué)習(xí)或優(yōu)化不穩(wěn)定性。相比之下,我們的方法在所有測試配置下始終取得更強的性能。值得注意的是,在IF = 256且使用ResNet-50作為評估模型的情況下,我們?yōu)镮mageNet-LT生成的蒸餾集不僅優(yōu)于所有競爭方法在相同不平衡設(shè)置下生成的蒸餾集,而且超過了幾個使用完整、平衡的ImageNet-1K獲得的蒸餾集的方法。


極低IPC設(shè)置下的結(jié)果 我們進一步在嚴(yán)重壓縮的蒸餾機制下評估我們的方法,其中每類僅保留一個合成圖像。如表6所示,我們的方法在大多數(shù)數(shù)據(jù)集上實現(xiàn)了比所有基線高2倍以上的準(zhǔn)確率提升。這一強勁性能源于兩個關(guān)鍵因素。首先,公平的BN統(tǒng)計量重新校準(zhǔn)確保即使每類只有一個合成圖像也能反映準(zhǔn)確的分布級信息,在最小數(shù)據(jù)容量下提供可靠的監(jiān)督。此外,無偏軟標(biāo)簽提供語義指導(dǎo),補償了低IPC合成樣本的有限表示表達能力。這些機制共同使我們的方法在極端蒸餾約束下保持魯棒性。


跨架構(gòu)性能 為評估其在架構(gòu)間的泛化能力,我們在同一蒸餾數(shù)據(jù)集上訓(xùn)練多個不同結(jié)構(gòu)的學(xué)生模型。如表7所示,我們的方法在四種代表性評估骨干網(wǎng)絡(luò)上始終優(yōu)于現(xiàn)有方法。值得注意的是,基線方法通常在架構(gòu)間顯示出顯著的準(zhǔn)確率變化,而我們的蒸餾數(shù)據(jù)支持 uniformly strong performance。這些結(jié)果表明,我們的方法捕獲了語義上有意義且可遷移的模式,促進了跨多樣化學(xué)生架構(gòu)的可泛化學(xué)習(xí)。


長尾數(shù)據(jù)集的類別級準(zhǔn)確率 圖3比較了DAMED(Zhao等人2025)與我們方法的類別級準(zhǔn)確率。DAMED在尾部類別上表現(xiàn)不佳,因為其有偏的專家訓(xùn)練未能保留稀有類別的語義。此外,軌跡匹配期間使用的頻率調(diào)整損失忽略了中頻類別,導(dǎo)致性能受到抑制。相比之下,我們的方法通過首先訓(xùn)練去偏的專家模型,然后對齊公平的BN統(tǒng)計量,避免了這些問題。


不同組件的消融實驗 如表8所示,每個組件對我們方法的成功都做出了關(guān)鍵貢獻。模型去偏策略在不降低頭部或中頻類別性能的情況下保留了尾部類別語義,從而提高了整體性能上限。重新校準(zhǔn)的BN統(tǒng)計量確保每個訓(xùn)練樣本,特別是來自少樣本類別的樣本,對累積表示做出公平貢獻。初始化策略為合成圖像提供了多樣化、具有類別代表性的起始點,即使每類真實數(shù)據(jù)稀缺時也是如此。

計算效率 我們通過比較運行時間和峰值GPU內(nèi)存使用,評估我們方法與DAMED(Zhao等人2025)的計算效率,DAMED是唯一專為長尾數(shù)據(jù)集蒸餾設(shè)計的現(xiàn)有方法。如表9所示,我們的方法大幅減少了專家模型訓(xùn)練和蒸餾數(shù)據(jù)合成所需的計算時間。具體而言,在兩個數(shù)據(jù)集上,我們流程的總運行時間不到DAMED的二十分之一。除更快的執(zhí)行速度外,我們的方法還表現(xiàn)出更有利的內(nèi)存行為。如表10所示,DAMED的GPU內(nèi)存使用隨IPC快速增長,限制了其在較高值時的適用性。相比之下,我們的方法無論IPC如何都保持恒定的內(nèi)存使用,允許在廣泛設(shè)置下穩(wěn)定高效地執(zhí)行。


結(jié)論

我們提出了一個用于長尾數(shù)據(jù)集蒸餾的單層框架,明確設(shè)計用于解決先前方法中固有的表示偏置和低效問題。我們通過三個關(guān)鍵組件增強類別不平衡下的蒸餾效果:專家模型去偏、BN統(tǒng)計量重新校準(zhǔn)和置信度感知初始化。大量實驗表明,我們的方法在廣泛的IF和IPC設(shè)置下始終優(yōu)于現(xiàn)有基線,包括高度不平衡和低樣本機制,展現(xiàn)出強魯棒性和泛化能力。

更廣泛的影響 我們的方法可能擴展到多領(lǐng)域或聯(lián)邦數(shù)據(jù)集蒸餾,其中數(shù)據(jù)不平衡自然發(fā)生在客戶端或領(lǐng)域之間。

原文鏈接:https://www.arxiv.org/pdf/2511.18858

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
蘇州新市長,有個特別之處!

蘇州新市長,有個特別之處!

仕道
2026-04-04 16:51:40
美議員:公開外星人簡報將讓國家混亂,近兩年5名頂尖科學(xué)家失蹤或死亡恐與此有關(guān)

美議員:公開外星人簡報將讓國家混亂,近兩年5名頂尖科學(xué)家失蹤或死亡恐與此有關(guān)

紅星新聞
2026-04-04 19:31:34
1969年中蘇沖突,朝鮮企圖跨過鴨綠江,毛主席:一招搞定!

1969年中蘇沖突,朝鮮企圖跨過鴨綠江,毛主席:一招搞定!

小莜讀史
2026-04-04 21:56:55
一夜之間人去樓空!知名電商平臺暴雷,留4億爛賬有人被拖欠330萬

一夜之間人去樓空!知名電商平臺暴雷,留4億爛賬有人被拖欠330萬

北緯的咖啡豆
2026-04-04 22:33:16
杜月笙面館吃飯,一伙地痞流氓找他要保護費,杜月笙:嫌命長嗎?

杜月笙面館吃飯,一伙地痞流氓找他要保護費,杜月笙:嫌命長嗎?

千秋文化
2026-04-01 20:35:51
伊朗:霍爾木茲海峽收費分5級 年收超千億美元!

伊朗:霍爾木茲海峽收費分5級 年收超千億美元!

新浪財經(jīng)
2026-04-04 13:31:15
回加拿大生活的大山,60歲須發(fā)皆白很滄桑,重慶妻子仍風(fēng)韻猶存

回加拿大生活的大山,60歲須發(fā)皆白很滄桑,重慶妻子仍風(fēng)韻猶存

素衣讀史
2026-03-31 15:11:31
菲爾茲獎得主牽頭近2000名數(shù)學(xué)家拒絕赴美,數(shù)學(xué)家大會陷入爭議

菲爾茲獎得主牽頭近2000名數(shù)學(xué)家拒絕赴美,數(shù)學(xué)家大會陷入爭議

DeepTech深科技
2026-04-04 12:10:59
三觀不正!王曼昱淘汰橋本,日本女隊全出局,評論區(qū)卻是滿屏嘲諷

三觀不正!王曼昱淘汰橋本,日本女隊全出局,評論區(qū)卻是滿屏嘲諷

野渡舟山人
2026-04-05 00:34:30
全網(wǎng)最不想火的雞煲店,憑一句“勸退”爆火

全網(wǎng)最不想火的雞煲店,憑一句“勸退”爆火

廣東發(fā)布
2026-04-03 20:04:56
英法德都沒想到,“不起眼”的匈牙利,如今已成全球“香餑餑”!

英法德都沒想到,“不起眼”的匈牙利,如今已成全球“香餑餑”!

幾人盡棄
2026-04-05 07:41:24
蔣介石孫子召開發(fā)布會,提出“兩蔣”移靈大陸,2句話讓世人唏噓

蔣介石孫子召開發(fā)布會,提出“兩蔣”移靈大陸,2句話讓世人唏噓

老謝談史
2026-03-18 18:33:35
美下屆總統(tǒng)已無懸念?對華態(tài)度更強硬,萬斯或?qū)ⅰ凹绷饔峦恕保?>
    </a>
        <h3>
      <a href=人生錄
2026-04-03 23:33:02
性能戰(zhàn)神!新機官宣:4月21日,新品全新發(fā)布!

性能戰(zhàn)神!新機官宣:4月21日,新品全新發(fā)布!

科技堡壘
2026-04-04 10:31:09
王曼昱平等打哭每一個日本選手!27歲女將痛哭:彈盡糧絕仍贏不了

王曼昱平等打哭每一個日本選手!27歲女將痛哭:彈盡糧絕仍贏不了

風(fēng)過鄉(xiāng)
2026-04-05 08:30:47
“黃毛的爹,酗酒的媽”,上海三口之家火了,只有孩子看著不叛逆

“黃毛的爹,酗酒的媽”,上海三口之家火了,只有孩子看著不叛逆

番外行
2026-04-03 09:00:51
楊麗萍“專屬男舞伴”墜樓自殺,跳得果決,和楊麗萍關(guān)系非同一般

楊麗萍“專屬男舞伴”墜樓自殺,跳得果決,和楊麗萍關(guān)系非同一般

一盅情懷
2026-04-03 07:49:11
澳門世界杯捷報:4強全出爐,衛(wèi)冕冠軍4:3晉級,王楚欽壓力陡增

澳門世界杯捷報:4強全出爐,衛(wèi)冕冠軍4:3晉級,王楚欽壓力陡增

順靜自然
2026-04-04 16:47:33
完了,被逆轉(zhuǎn),文班太可惜了!

完了,被逆轉(zhuǎn),文班太可惜了!

體育新角度
2026-04-05 10:34:28
68歲女子不顧家人反對,執(zhí)意尋找50年前初戀,發(fā)現(xiàn)對方為她終身未娶,初戀:我等你等得頭發(fā)都白了!

68歲女子不顧家人反對,執(zhí)意尋找50年前初戀,發(fā)現(xiàn)對方為她終身未娶,初戀:我等你等得頭發(fā)都白了!

勵職派
2026-04-03 12:45:44
2026-04-05 11:27:00
CreateAMind incentive-icons
CreateAMind
CreateAMind.agi.top
1325文章數(shù) 18關(guān)注度
往期回顧 全部

科技要聞

花200薅5千算力,Claude冷血斷供“龍蝦”

頭條要聞

媒體:特朗普騎虎難下 再打下去中期選舉或顆粒無收

頭條要聞

媒體:特朗普騎虎難下 再打下去中期選舉或顆粒無收

體育要聞

CBA最老球員,身價7500萬美元

娛樂要聞

Q女士反擊,否認(rèn)逼宋寧峰張婉婷離婚

財經(jīng)要聞

誰造出了優(yōu)思益這頭“怪物”?

汽車要聞

17萬級海豹07EV 不僅續(xù)航長還有9分鐘滿電的快樂

態(tài)度原創(chuàng)

手機
數(shù)碼
本地
游戲
公開課

手機要聞

新一代小米SU7完美通過三元鋰高溫針刺試驗:55℃滿電針刺 比新國標(biāo)更嚴(yán)

數(shù)碼要聞

好用的剃須刀哪款好?品牌十大排名不同需求精準(zhǔn)適配,剃須更舒適

本地新聞

跟著歌聲游安徽,聽古村回響

《墮落之主》發(fā)布大型合作模式更新 匹配系統(tǒng)全面優(yōu)化

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版