国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

斯坦福等機構(gòu)發(fā)現(xiàn):稀疏自編碼器解碼AI大腦有效性存疑

0
分享至


這項由斯坦福大學、莫斯科國立大學、俄羅斯科學院、HSE大學等機構(gòu)聯(lián)合進行的研究發(fā)表于2026年2月17日,論文編號為arXiv:2602.14111v1。有興趣深入了解的讀者可以通過該編號查詢完整論文。

近年來,人工智能領域最熱門的話題之一就是如何"讀懂"AI大腦——也就是理解那些強大的語言模型內(nèi)部到底在想什么。就像醫(yī)生需要X光片來看清人體內(nèi)部結(jié)構(gòu)一樣,AI研究者們也迫切需要一種工具來窺探神經(jīng)網(wǎng)絡的內(nèi)在機制。在這個背景下,稀疏自編碼器(Sparse Autoencoders,簡稱SAE)就像是AI領域的"X光機",被寄予厚望。

然而,這臺"X光機"真的能拍出清晰的片子嗎?研究團隊通過一系列精心設計的實驗發(fā)現(xiàn),事情可能沒有我們想象的那么簡單。他們的發(fā)現(xiàn)就像是發(fā)現(xiàn)了一個令人震驚的真相:這臺備受推崇的"X光機"可能只是在拍攝模糊不清的影像,而我們卻一直誤以為看到了清晰的內(nèi)部結(jié)構(gòu)。

研究團隊首先創(chuàng)造了一個完全可控的"實驗室環(huán)境"——一個人工合成的數(shù)據(jù)集,在這個環(huán)境中,他們清楚地知道每個"器官"(特征)應該在哪里。這就像是在解剖學教學中使用的標準人體模型,每個器官的位置和功能都是已知的。令人驚訝的是,即使在這種理想條件下,稀疏自編碼器也只能識別出9%的真實特征,盡管它聲稱能夠重構(gòu)71%的原始信息。這就好比一臺X光機聲稱能夠看清胸腔的71%,但實際上只能準確識別出9%的器官位置。

更令人擔憂的是,研究團隊還設計了三種"對照組"——這些對照組就像是用隨機零件組裝的"假X光機"。按理說,真正有效的稀疏自編碼器應該遠遠超過這些隨機組裝的設備。然而實驗結(jié)果顯示,在多項關鍵測試中,這些"假X光機"的表現(xiàn)竟然與精心訓練的稀疏自編碼器不相上下。在解釋性評分中,隨機基線獲得了0.87分,而完整訓練的SAE僅為0.90分;在稀疏探測任務中,隨機基線達到0.69分,完整SAE為0.72分;在因果編輯能力上,隨機基線甚至略勝一籌,獲得0.73分,而完整SAE為0.72分。

這些發(fā)現(xiàn)的意義是深遠的。目前,稀疏自編碼器被廣泛應用于理解AI安全機制、推理過程和潛在風險識別。許多重要的AI解釋性研究都建立在SAE能夠準確識別有意義特征的假設之上。如果這個基礎假設是錯誤的,那么建立在其上的整座"理論大廈"可能都需要重新審視。

一、揭開稀疏自編碼器的神秘面紗

稀疏自編碼器的工作原理可以用廚房里的調(diào)料架來比喻。當你品嘗一道復雜的菜肴時,你的味覺系統(tǒng)需要從混合的味道中識別出各種單獨的調(diào)料——鹽、糖、胡椒、八角等等。每種調(diào)料都有其獨特的"味覺特征",而整道菜的味道就是這些基礎調(diào)料的組合。

在AI世界中,神經(jīng)網(wǎng)絡處理信息的方式與此類似。當GPT這樣的語言模型處理一個句子時,它會產(chǎn)生復雜的內(nèi)部表示,就像一道混合了無數(shù)種調(diào)料的復雜菜肴。稀疏自編碼器的任務就是充當"味覺分析師",試圖從這種復雜的"味道"中分離出每種基礎的"調(diào)料"——也就是單一的、可解釋的特征。

這里的"稀疏"概念很關鍵。就像一道菜通常只使用調(diào)料架上的幾種調(diào)料,而不是把所有調(diào)料都倒進去一樣,神經(jīng)網(wǎng)絡在處理特定信息時也只激活少數(shù)幾個關鍵特征,而大部分特征保持"沉默"狀態(tài)。這種選擇性激活被稱為稀疏性。

稀疏自編碼器包含兩個主要組件:編碼器和解碼器。編碼器就像是一個"調(diào)料識別專家",它接收復雜的"菜肴味道"(神經(jīng)網(wǎng)絡的激活值),然后輸出一個稀疏的"調(diào)料清單",指出這道菜使用了哪些基礎調(diào)料以及各自的用量。解碼器則是"調(diào)料重組專家",它根據(jù)這個稀疏的調(diào)料清單,嘗試重新調(diào)配出原始的菜肴味道。

訓練過程就像是讓這兩位專家不斷練習配合。系統(tǒng)會給他們大量不同的"菜肴"進行練習,要求他們既要準確識別基礎調(diào)料(重構(gòu)誤差要?。?,又要保持調(diào)料清單的簡潔性(激活稀疏性要高)。經(jīng)過大量訓練后,理論上這套系統(tǒng)應該能夠準確識別出神經(jīng)網(wǎng)絡中每個"基礎調(diào)料"的作用和意義。

然而,這個看似合理的框架存在一個根本問題:我們?nèi)绾悟炞C這些識別出來的"調(diào)料"真的對應神經(jīng)網(wǎng)絡的真實"配方"?在現(xiàn)實的廚房中,我們可以直接查看廚師使用了哪些調(diào)料。但在神經(jīng)網(wǎng)絡中,我們并不知道"真實配方"是什么,這就給驗證帶來了巨大挑戰(zhàn)。

研究團隊意識到這個問題的關鍵性,決定創(chuàng)造一個"標準廚房"——一個完全可控的環(huán)境,在這個環(huán)境中他們清楚地知道每道"菜肴"的真實"配方"。通過在這個標準環(huán)境中測試稀疏自編碼器,他們就能客觀地評估這個系統(tǒng)的真實能力。

更進一步,他們還設計了幾個"假廚師"作為對照——這些假廚師使用完全隨機的方法來"識別調(diào)料"。如果稀疏自編碼器真的有效,它應該明顯優(yōu)于這些隨機方法。但如果連隨機方法都能達到相似的效果,那就說明稀疏自編碼器可能只是在做"無意義的猜測"。

這種實驗設計的巧妙之處在于,它為稀疏自編碼器的有效性提供了一個客觀的判斷標準。不再依賴于主觀的解釋或間接的推理,而是通過直接的對比來驗證這個工具是否真的具備我們期望的能力。

二、合成數(shù)據(jù)實驗:當"標準答案"遇上現(xiàn)實檢驗

為了徹底檢驗稀疏自編碼器的真實能力,研究團隊精心構(gòu)建了一個"實驗室"環(huán)境。這就像是搭建一個完全透明的玻璃房子,里面的每根線路、每個開關都清晰可見,然后測試稀疏自編碼器能否準確識別這些已知的結(jié)構(gòu)。

這個人工環(huán)境基于一個叫做"超位置假設"的理論。簡單來說,這個理論認為神經(jīng)網(wǎng)絡就像一個超級壓縮的倉庫,它可以在有限的存儲空間里塞進比實際容量更多的物品。比如,一個只能放100件物品的倉庫,通過巧妙的重疊和共享機制,可能實際存儲了3200件不同的物品。

在研究團隊的人工環(huán)境中,他們創(chuàng)造了3200個"標準特征",每個特征就像一個獨特的"基因序列"。然后,他們用這些基因序列的稀疏組合來生成合成數(shù)據(jù)。這個過程就像是用已知的基礎元素來合成化合物——你清楚地知道每個化合物是由哪些基礎元素組成的,以及各自的比例。

實驗設計了兩種不同的"化學反應"環(huán)境。第一種是"均勻概率模型",就像是一個公平的抽獎機,每個基礎特征被選中的概率都相等(0.625%)。第二種是"變量概率模型",更接近現(xiàn)實世界的情況,有些特征非常常見(就像自然界中的氫和氧),而有些特征極其罕見(就像稀有元素)。這種不均勻分布更符合真實神經(jīng)網(wǎng)絡中的特征分布規(guī)律。

研究團隊使用了兩種最先進的稀疏自編碼器架構(gòu):BatchTopK和JumpReLU。這兩種架構(gòu)就像是兩種不同品牌的"元素分析儀",它們在實際應用中都表現(xiàn)出色,被廣泛認為是業(yè)界標準。

實驗結(jié)果令人震驚。在相對簡單的均勻概率環(huán)境中,這兩種"分析儀"的表現(xiàn)都很糟糕。BatchTopK只能正確識別3200個已知特征中的3個,準確率幾乎為零。JumpReLU的表現(xiàn)同樣令人失望,同樣只識別出3個正確特征。這就好比給兩臺最先進的化學分析儀一個包含3200種已知元素的樣本,結(jié)果它們只能準確識別出其中的3種。

更令人困惑的是,這些"分析儀"聲稱它們的"重構(gòu)精度"達到了67%。這意味著它們能夠用自己識別出的"元素"重新合成出與原樣本67%相似的化合物。但是,當你只能正確識別0.1%的基礎元素時,怎么可能重構(gòu)出67%的原始化合物呢?

這個矛盾揭示了一個深層問題:稀疏自編碼器可能并沒有真正學會識別原始的"基礎元素",而是學會了用一套完全不同的"替代元素"來近似重構(gòu)原始化合物。就像是用塑料積木搭建出了一個看起來很像真實城堡的模型——從遠處看很相似,但實際的構(gòu)造原理完全不同。

在更接近現(xiàn)實的變量概率環(huán)境中,情況稍有改善但仍然令人擔憂。BatchTopK能夠識別出9%的真實特征,JumpReLU能夠識別出7%,重構(gòu)精度提高到了71%。但仔細分析這些被識別的特征會發(fā)現(xiàn),它們幾乎全部來自最高頻的那些特征——就像是分析儀只能識別出化合物中含量最多的幾種主要元素,而完全忽略了那些含量較少但可能同樣重要的微量元素。

這種選擇性"失明"的問題在于,許多神經(jīng)網(wǎng)絡中最有趣和最重要的特征往往是那些相對稀少但關鍵的特征。就像在醫(yī)學診斷中,某些罕見但致命疾病的標志物可能濃度很低,但卻是診斷的關鍵指標。如果我們的分析工具只能檢測到最常見的成分,就可能錯過這些關鍵信息。

這個合成實驗的價值在于它提供了一個不可辯駁的基準。在這個完全可控的環(huán)境中,"標準答案"是已知的,沒有任何主觀解釋的空間。結(jié)果清楚地表明,即使在最理想的條件下,目前最先進的稀疏自編碼器也無法完成它們聲稱能夠完成的核心任務——準確識別神經(jīng)網(wǎng)絡的基礎特征。

這個發(fā)現(xiàn)的意義遠遠超出了技術(shù)層面。它質(zhì)疑了我們對稀疏自編碼器能力的基本假設,并暗示許多建立在這些假設之上的研究結(jié)論可能需要重新審視。

三、現(xiàn)實世界的"照妖鏡":隨機基線的意外表現(xiàn)

既然在完美可控的實驗室環(huán)境中,稀疏自編碼器的表現(xiàn)已經(jīng)讓人質(zhì)疑,那么在真實的神經(jīng)網(wǎng)絡中,它們的表現(xiàn)又如何呢?問題在于,在真實環(huán)境中我們沒有"標準答案",無法直接驗證稀疏自編碼器識別的特征是否正確。

研究團隊想出了一個絕妙的解決方案:既然無法直接驗證答案的正確性,那就設計幾個"明顯錯誤"的對照方法,看看稀疏自編碼器是否能明顯超越這些隨機方法。這就像是在無法確定學生答案正確性的情況下,讓他們與幾個閉眼答題的學生比較——如果一個聲稱掌握知識的學生連閉眼答題的人都贏不了,那他的知識掌握程度就很值得懷疑了。

研究團隊設計了三種"閉眼答題"的基線方法。第一種叫做"凍結(jié)解碼器",這相當于把稀疏自編碼器的"翻譯字典"完全隨機化并固定不變。就像是給一個翻譯官一本完全打亂的詞典,然后禁止他修改這本詞典,只允許他調(diào)整如何使用這些錯亂的詞匯來翻譯文章。

第二種叫做"軟凍結(jié)解碼器",稍微寬松一些。這相當于給翻譯官一本隨機詞典,但允許他對每個詞的翻譯進行微小的調(diào)整,條件是調(diào)整后的翻譯必須與原始隨機翻譯保持80%以上的相似度。這個設計背后有深層的理論考慮。

研究團隊發(fā)現(xiàn)了一個有趣的現(xiàn)象:在稀疏自編碼器的訓練過程中,那本"翻譯字典"(解碼器權(quán)重)從一開始的隨機狀態(tài)變化得非常緩慢。訓練過程的前5%時間里,系統(tǒng)的重構(gòu)能力就已經(jīng)達到了最終水平的90%,而此時字典中的詞匯翻譯平均還保持著接近80%的原始隨機狀態(tài)。這就像是一個翻譯官僅僅通過微調(diào)一本隨機詞典就能達到很好的翻譯效果,而不需要真正學習正確的詞匯對應關系。

第三種基線叫做"凍結(jié)編碼器",這相當于固定住識別系統(tǒng)的"感知機制"。編碼器負責決定在什么情況下激活哪些特征,將其凍結(jié)意味著系統(tǒng)只能學習如何解釋這些預設的激活模式,而無法改變識別規(guī)則本身。

這三種基線的設計邏輯是這樣的:如果稀疏自編碼器真的學會了有意義的特征分解,那么隨機化或固定其核心組件應該會顯著降低性能。但如果這些基線能夠達到與完整訓練相似的效果,就說明稀疏自編碼器可能只是在利用統(tǒng)計相關性進行表面的擬合,而沒有真正發(fā)現(xiàn)深層的特征結(jié)構(gòu)。

實驗在Gemma-2-2B模型的第12層進行,這是一個擁有26億參數(shù)的現(xiàn)代大語言模型。研究團隊訓練了多種稀疏自編碼器架構(gòu),包括BatchTopK、JumpReLU和傳統(tǒng)的ReLU架構(gòu),每種都在不同的稀疏度水平下進行測試。

評估采用了四個維度,就像是從四個不同角度來檢驗一臺X光機的性能。首先是"重構(gòu)精度",測試系統(tǒng)能多好地重現(xiàn)原始的神經(jīng)活動模式。其次是"可解釋性評分",使用自動化方法評估識別出的特征是否對應有意義的概念。第三是"稀疏探測",測試能否用少數(shù)幾個特征來準確預測特定的語義概念。最后是"因果編輯",檢驗能否通過修改特定特征來精確改變模型的行為。

結(jié)果令人震驚。在重構(gòu)精度方面,軟凍結(jié)解碼器基線幾乎達到了完整訓練SAE的水平。以L0=160(激活160個特征)為例,完整的JumpReLU SAE達到85%的重構(gòu)精度,而軟凍結(jié)版本達到79%,差距僅為6個百分點。即使是最嚴格的凍結(jié)解碼器基線也能達到58%的重構(gòu)精度,遠超隨機水平。

在可解釋性評分中,結(jié)果同樣令人意外。研究團隊使用GPT-4o-mini來評估每個特征的可解釋性,結(jié)果發(fā)現(xiàn)軟凍結(jié)BatchTopK基線的平均得分為0.88,與完整訓練版本的0.90幾乎沒有差別。這意味著即使使用基本隨機的特征方向,系統(tǒng)仍然能夠產(chǎn)生看起來有意義、可解釋的特征。

稀疏探測測試顯示了類似的模式。在單特征探測(只用一個特征來預測概念)中,凍結(jié)基線的表現(xiàn)與完整訓練的SAE相當接近。BatchTopK凍結(jié)解碼器達到0.70的準確率,而完整訓練版本為0.72,差距微乎其微。

最令人驚訝的是因果編輯結(jié)果。在這個測試中,系統(tǒng)需要通過修改特定特征來改變模型的輸出。軟凍結(jié)解碼器基線不僅沒有輸給完整訓練的SAE,在某些情況下甚至略勝一籌,達到0.78的分數(shù),而完整SAE為0.72。

這些結(jié)果的含義是深刻的。它們表明,目前用來驗證稀疏自編碼器有效性的標準測試可能都無法區(qū)分真正的特征發(fā)現(xiàn)和高效的統(tǒng)計擬合。就像是發(fā)現(xiàn)一臺聲稱能夠透視人體的設備,其實只是在做高精度的表面掃描,但產(chǎn)生的圖像看起來確實像是內(nèi)部結(jié)構(gòu)。

四、深入分析:為什么隨機方法如此有效

面對隨機基線的強勁表現(xiàn),一個自然的問題浮現(xiàn)出來:為什么看似無意義的隨機方法能夠在多個評估維度上與精心訓練的稀疏自編碼器平分秋色?這個現(xiàn)象的背后隱藏著關于神經(jīng)網(wǎng)絡特征表示和稀疏編碼本質(zhì)的深刻洞察。

首先,讓我們從數(shù)學角度理解軟凍結(jié)解碼器為何如此有效。研究團隊發(fā)現(xiàn)了稀疏自編碼器訓練過程中的一個"惰性訓練"現(xiàn)象。這就像是學習開車時,很多人在掌握了基本操作后就不再努力改進技巧,而是通過小幅調(diào)整來適應不同的路況。

在稀疏自編碼器的訓練過程中,解碼器權(quán)重(那本"翻譯字典")在訓練早期就趨于穩(wěn)定,后續(xù)的性能提升主要來自編碼器的微調(diào)和激活閾值的調(diào)整。這意味著系統(tǒng)并沒有學習到全新的特征表示,而是學會了如何更好地使用接近隨機初始化的特征方向。

為了驗證這個假設,研究團隊進行了理論分析。他們計算了在高維空間中(比如2304維的Gemma模型激活空間),任意一個真實特征方向落在以隨機向量為中心、余弦相似度0.8為半徑的球形帽內(nèi)的概率。結(jié)果顯示,這個概率小得幾乎為零——大約是10的負316次方。這意味著軟凍結(jié)解碼器基線在數(shù)學上幾乎不可能偶然對齊任何有意義的語義特征。

然而,這些基線依然能夠產(chǎn)生高質(zhì)量的重構(gòu)和看似有意義的特征。這個矛盾揭示了稀疏編碼的一個根本局限:優(yōu)化重構(gòu)誤差并不等同于發(fā)現(xiàn)真實的特征結(jié)構(gòu)。系統(tǒng)可以通過學習如何巧妙地組合任意一組基向量來實現(xiàn)良好的重構(gòu)性能,而不需要這些基向量本身具有語義意義。

這種現(xiàn)象可以用"通用逼近"的概念來解釋。就像是用足夠多的樂高積木可以拼出任何形狀一樣,給定足夠的維度和合適的稀疏約束,幾乎任何一組基向量都可以用來逼近原始數(shù)據(jù)的稀疏表示。關鍵不在于基向量本身的意義,而在于如何組合它們。

為了進一步驗證這個理論,研究團隊檢查了不同初始化方案對基線性能的影響。他們發(fā)現(xiàn),使用從數(shù)據(jù)協(xié)方差矩陣采樣的初始化(更貼近數(shù)據(jù)分布)與使用完全隨機的單位球面初始化相比,前者在某些任務上表現(xiàn)更好,但差異并不巨大。這表明,即使是完全隨機的方向,在適當?shù)挠柧氝^程中也能被塑造成有效的重構(gòu)基。

解釋性評分的高表現(xiàn)則揭示了另一個有趣的現(xiàn)象。當系統(tǒng)擁有數(shù)萬個特征時,總有一些隨機特征會偶然地與某些語義概念產(chǎn)生統(tǒng)計相關性。在73,728個特征中,即使只有很小的比例偶然對應有意義的模式,絕對數(shù)量仍然是龐大的。這就像是在一個巨大的圖書館里,即使隨機選擇書籍,也總能找到一些看起來相關的內(nèi)容。

更重要的是,當前的可解釋性評估方法可能存在固有的偏見。研究團隊使用GPT-4o-mini來評估特征的可解釋性,但這種評估本身可能會對看起來有模式的激活給出過高的評分,即使這些模式實際上是隨機的。人類和AI系統(tǒng)都有在隨機信號中尋找模式的傾向,這可能導致對隨機特征可解釋性的高估。

稀疏探測的良好表現(xiàn)可以用"維度詛咒的反面"來解釋。在高維空間中,許多看似不相關的隨機向量之間實際上存在微妙的統(tǒng)計關聯(lián)。當你有數(shù)萬個隨機特征時,總有一些會與任何給定的概念產(chǎn)生足夠強的相關性來支持準確的分類。這不是因為這些特征真正"理解"了概念,而是因為純粹的統(tǒng)計偶然性在高維空間中被放大了。

因果編輯能力的保持則可能與神經(jīng)網(wǎng)絡表示的冗余性有關。大語言模型的內(nèi)部表示高度冗余,同樣的信息以多種方式編碼在不同的子空間中。因此,即使使用隨機的特征方向進行編輯,只要編輯的方向在某種程度上與這些冗余表示對齊,就能產(chǎn)生預期的行為改變。

這些發(fā)現(xiàn)共同指向一個令人不安的結(jié)論:當前用于評估稀疏自編碼器的標準方法可能無法有效區(qū)分真正的特征發(fā)現(xiàn)和高效的統(tǒng)計擬合。這就像是用一把尺子既測量長度又驗證這把尺子本身的準確性——循環(huán)論證使得真正的驗證變得不可能。

五、技術(shù)細節(jié):三種基線方法的設計精髓

為了完整理解這項研究的價值,我們需要深入了解三種基線方法的設計理念和實現(xiàn)細節(jié)。每種基線都針對稀疏自編碼器的不同組件進行約束,從而測試該組件對整體性能的真實貢獻。

凍結(jié)解碼器基線是最直接的測試方法。解碼器在稀疏自編碼器中扮演著"字典"的角色,每一列代表一個基礎特征向量。如果稀疏自編碼器真的學會了有意義的特征分解,那么這些特征向量應該對應神經(jīng)網(wǎng)絡中的真實語義單元。凍結(jié)解碼器基線將這些向量固定為隨機初始化的值,只允許編碼器(負責決定何時激活哪些特征)和偏置項進行學習。

這個設計的邏輯是嚴格的:如果隨機的特征方向就能支持良好的重構(gòu)和下游任務性能,那么特征方向本身的"學習"就不是必需的。實驗結(jié)果確實顯示,即使使用完全隨機的特征方向,系統(tǒng)仍然能夠達到相當不錯的性能水平。這暗示編碼器可能只是在學習如何最優(yōu)地激活這些隨機方向的組合,而不是發(fā)現(xiàn)真正的語義結(jié)構(gòu)。

軟凍結(jié)解碼器基線的設計更加巧妙,它直接測試了"惰性訓練假設"。這個假設認為,稀疏自編碼器的訓練過程類似于深度學習中已知的惰性訓練現(xiàn)象,即網(wǎng)絡參數(shù)雖然在更新,但始終停留在初始化附近的局部區(qū)域。

在軟凍結(jié)基線中,解碼器向量被允許進行小幅調(diào)整,但必須始終與初始隨機向量保持至少80%的余弦相似度。這個80%的閾值不是隨意選擇的,而是基于對真實訓練過程的觀察。研究團隊發(fā)現(xiàn),在典型的稀疏自編碼器訓練中,解碼器向量在訓練完成后平均仍與初始化保持約80%的相似度。

從理論角度看,這種約束創(chuàng)造了一個有趣的優(yōu)化景觀。系統(tǒng)必須在一個受限的參數(shù)空間內(nèi)找到最優(yōu)解,這個空間由所有與初始隨機方向足夠接近的向量組成。能夠在如此受限的空間內(nèi)達到良好性能,強烈暗示優(yōu)化過程并沒有進行大范圍的參數(shù)空間探索來發(fā)現(xiàn)全新的特征方向。

凍結(jié)編碼器基線從另一個角度測試系統(tǒng)的能力。編碼器決定了激活模式——即在什么輸入條件下哪些特征會被激活。如果稀疏自編碼器真的發(fā)現(xiàn)了有意義的特征,那么這些激活模式應該反映真實的語義結(jié)構(gòu)。通過凍結(jié)編碼器為隨機參數(shù),這個基線測試系統(tǒng)能否僅通過學習解碼器來適應預設的隨機激活模式。

這種設計特別有趣,因為它創(chuàng)造了一種"倒置"的學習場景。通常情況下,我們期望編碼器學習識別有意義的模式,然后解碼器學習如何重構(gòu)這些模式。但在凍結(jié)編碼器基線中,系統(tǒng)被迫學習如何解釋和利用完全隨機的激活模式。如果這種"倒置學習"仍然有效,就說明整個稀疏編碼框架可能比我們想象的更加靈活,但也更加缺乏約束。

實驗實現(xiàn)的技術(shù)細節(jié)也很重要。所有基線都使用與完整訓練SAE相同的優(yōu)化器(AdamW)、學習率(2×10^-4)、批大小(4098)和訓練數(shù)據(jù)。這確保了比較的公平性——任何性能差異都來自架構(gòu)約束,而不是訓練配置的差異。

訓練過程中的損失函數(shù)設計也考慮到了基線的特殊需求。對于軟凍結(jié)解碼器基線,研究團隊實現(xiàn)了一個投影步驟,在每次參數(shù)更新后將解碼器向量投影回滿足余弦相似度約束的可行域。這種投影操作雖然簡單,但在數(shù)學上是嚴格的,確保約束在整個訓練過程中都得到滿足。

評估階段采用了相同的隨機種子和數(shù)據(jù)分割,進一步確保結(jié)果的可比性。研究團隊還進行了多次獨立運行來估計結(jié)果的方差,確保觀察到的差異不是偶然現(xiàn)象。

這三種基線的組合創(chuàng)造了一個全面的測試框架。凍結(jié)解碼器測試特征方向的重要性,軟凍結(jié)解碼器測試大幅參數(shù)更新的必要性,凍結(jié)編碼器測試激活模式學習的貢獻。當所有三種基線都顯示出競爭性的性能時,我們必須認真質(zhì)疑稀疏自編碼器聲稱的特征發(fā)現(xiàn)能力。

更深層的含義在于,這些基線實際上揭示了高維優(yōu)化的一個普遍現(xiàn)象:在足夠高的維度下,許多不同的參數(shù)配置都能達到相似的功能性能。這種現(xiàn)象被稱為"解的非唯一性",它意味著找到一個好的解并不一定意味著找到了唯一的或者"正確的"解。

在稀疏自編碼器的語境下,這種非唯一性問題特別嚴重,因為我們通常假設存在一個"真實的"稀疏分解,而稀疏自編碼器的任務就是發(fā)現(xiàn)這個分解。但如果許多不同的分解都能達到相似的重構(gòu)性能,那么我們?nèi)绾闻袛嗄囊粋€是"真實的"呢?

這個問題的答案可能是令人不安的:也許根本就不存在唯一的"真實"稀疏分解。神經(jīng)網(wǎng)絡的內(nèi)部表示可能本質(zhì)上是冗余和多義的,可以用許多不同的方式進行有效的稀疏分解。在這種情況下,稀疏自編碼器找到的任何一種分解都只是眾多可能分解中的一種,而不一定具有特殊的語義意義。

六、跨模型驗證:普遍性還是特例

為了確保發(fā)現(xiàn)的普遍性,研究團隊將實驗擴展到多個不同的神經(jīng)網(wǎng)絡架構(gòu)和層次。這種跨模型驗證就像是在不同的"病人"身上測試同一臺醫(yī)療設備,以確認其診斷能力的普遍適用性。

除了主要實驗使用的Gemma-2-2B模型第12層,研究團隊還在Gemma-2-2B的第19層和Llama-3.1-8B的第16層進行了相同的測試。選擇這些層次的考慮很周到:第12層位于26層網(wǎng)絡的中間位置,第19層更靠近輸出端,而Llama-3.1-8B代表了不同的模型族群和更大的參數(shù)規(guī)模。

跨層次的驗證特別重要,因為神經(jīng)網(wǎng)絡的不同層次通常學習不同層次的特征。早期層次傾向于學習低級的語法和詞法特征,中間層次處理語義關系,而后期層次更多涉及高級推理和生成。如果稀疏自編碼器的問題只出現(xiàn)在特定層次,那么可能還有挽救的空間。但如果問題普遍存在,就暗示這是方法本身的根本缺陷。

實驗結(jié)果顯示,隨機基線的強勁表現(xiàn)在所有測試層次上都保持一致。在Gemma-2-2B的第19層,軟凍結(jié)解碼器基線在多個評估維度上的表現(xiàn)與完整訓練的SAE相當。重構(gòu)精度上,軟凍結(jié)BatchTopK達到81.2%,而完整訓練版本為88.7%,差距為7.5個百分點。在稀疏探測任務上,差距更小,軟凍結(jié)版本達到75.8%,完整版本為80.6%,差距僅4.8個百分點。

在Llama-3.1-8B模型上的結(jié)果同樣令人擔憂。盡管這個模型有80億參數(shù),比Gemma-2-2B大了近四倍,但隨機基線的相對表現(xiàn)并沒有顯著下降。在重構(gòu)精度方面,軟凍結(jié)解碼器達到了完整訓練SAE性能的87%,在稀疏探測中達到了94%。

這種跨模型一致性排除了"特殊情況"的解釋。如果稀疏自編碼器的問題只出現(xiàn)在特定模型或特定層次,我們還可能將其歸因為數(shù)據(jù)分布、模型架構(gòu)或訓練目標的特殊性。但當問題在多種不同的設置中都出現(xiàn)時,就必須認真考慮方法論層面的根本缺陷。

更有趣的是,研究團隊還測試了簡單的TopK SAE架構(gòu)。在合成數(shù)據(jù)實驗中,這種簡單架構(gòu)在均勻概率設置下表現(xiàn)出色,幾乎能夠完美恢復所有真實特征。但當轉(zhuǎn)到真實神經(jīng)網(wǎng)絡數(shù)據(jù)時,它的隨機基線同樣表現(xiàn)強勁,再次證實了真實環(huán)境中的復雜性。

為了進一步驗證發(fā)現(xiàn)的普遍性,研究團隊還在不同的稀疏度水平下進行了測試。稀疏度(L0值)代表平均激活的特征數(shù)量,從80到320不等。結(jié)果顯示,隨機基線的相對表現(xiàn)在所有稀疏度水平上都保持穩(wěn)定,這表明問題不是特定超參數(shù)設置導致的。

跨模型驗證還揭示了另一個有趣的現(xiàn)象:模型規(guī)模和隨機基線效果之間的關系。在更大的模型中,隨機基線的絕對性能有所提升,但相對于完整訓練SAE的性能差距并沒有顯著擴大。這暗示稀疏自編碼器面臨的挑戰(zhàn)可能隨著模型規(guī)模的增長而變得更加復雜。

這些發(fā)現(xiàn)的含義是深遠的。它們表明,稀疏自編碼器的局限性不是孤立的技術(shù)問題,而是一個系統(tǒng)性的方法論問題。無論是在不同的模型架構(gòu)、不同的層次、還是不同的超參數(shù)設置下,根本問題都持續(xù)存在。

這種普遍性也解釋了為什么稀疏自編碼器領域中一直存在"負面結(jié)果"的報告。許多研究團隊在將SAE應用于下游任務時遇到了意想不到的困難,但往往將這些困難歸因為實現(xiàn)細節(jié)或超參數(shù)調(diào)優(yōu)問題?,F(xiàn)在看來,這些困難可能反映了方法本身的根本限制。

七、視覺模型驗證:問題的廣泛性

為了進一步驗證發(fā)現(xiàn)的普遍性,研究團隊將分析擴展到視覺領域,選擇了廣泛使用的CLIP ViT-B/32模型進行測試。這種跨模態(tài)驗證就像是檢驗一種診斷方法是否只對特定器官有效,還是在不同器官上都存在相同的局限性。

CLIP模型的選擇很有代表性,它結(jié)合了視覺編碼器和文本編碼器,在圖像理解任務上表現(xiàn)出色。研究團隊使用了已發(fā)布的預訓練SAE模型,這些模型在第3、5、7、9層上進行了訓練。為了創(chuàng)建對照,他們構(gòu)建了具有相同架構(gòu)但使用Kaiming初始化的隨機權(quán)重的"假SAE"。

測試方法采用了視覺特征可視化的標準做法。對于每個SAE特征,研究團隊從ImageNet數(shù)據(jù)集中選擇激活該特征的圖像,按照激活強度排序,然后觀察不同激活水平(100%、75%、50%、25%)下的圖像模式。如果SAE真的發(fā)現(xiàn)了有意義的視覺特征,那么高激活圖像應該顯示出一致的視覺模式,而隨機SAE應該顯示出完全無關的圖像。

結(jié)果再次令人震驚。在許多情況下,隨機初始化的"假SAE"產(chǎn)生的圖像組合看起來同樣具有一致性和可解釋性。例如,在第3層的一個隨機特征中,高激活圖像都顯示出時鐘、網(wǎng)格和點狀圖案;在第5層的另一個隨機特征中,高激活圖像集中顯示日落、沙灘和溫暖色調(diào)的自然景觀。

這些模式的出現(xiàn)并非偶然,而是反映了視覺數(shù)據(jù)的統(tǒng)計結(jié)構(gòu)和高維空間中的偶然相關性。即使是完全隨機的特征方向,也會與某些視覺模式產(chǎn)生統(tǒng)計關聯(lián)。當我們從數(shù)萬個隨機特征中挑選出看起來"有意義"的那些進行展示時,很容易產(chǎn)生隨機特征也能捕捉語義概念的錯覺。

更深入的分析揭示了一個重要問題:特征可視化方法本身可能存在選擇偏差。研究人員通常會展示那些看起來最有意義的特征,而忽略那些看起來隨機或無意義的特征。這種展示方式在真實訓練的SAE中是合理的,但當應用到隨機SAE時,同樣的選擇偏差會讓隨機特征看起來具有語義意義。

視覺領域的發(fā)現(xiàn)進一步支持了語言模型實驗的結(jié)論:當前用于評估稀疏自編碼器的方法可能無法有效區(qū)分真正的特征發(fā)現(xiàn)和統(tǒng)計上的偶然相關。這個問題的普遍性跨越了模態(tài)界限,從文本擴展到圖像,暗示它是稀疏編碼范式本身的根本問題。

這種跨模態(tài)一致性也排除了另一種可能的解釋——即問題只存在于語言處理的特定復雜性中。視覺處理通常被認為更加層次化和結(jié)構(gòu)化,低層特征(如邊緣和紋理)相對明確,高層特征(如物體和場景)也比較直觀。如果稀疏自編碼器的問題只是源于語言的抽象性和多義性,那么在視覺領域應該表現(xiàn)更好。但實際情況并非如此。

八、理論反思:重構(gòu)精度的迷思

研究結(jié)果揭示了稀疏自編碼器評估中的一個根本問題:重構(gòu)精度與特征發(fā)現(xiàn)能力之間的錯誤等價關系。長期以來,研究社區(qū)將高重構(gòu)精度視為SAE成功學習有意義特征分解的標志,但這項研究表明這種假設可能是錯誤的。

重構(gòu)精度衡量的是SAE能多好地從其稀疏表示中恢復原始激活。這個指標看似直觀且合理——如果你能準確重建原始信號,說明你的分解是有效的。但這個邏輯存在一個隱含的假設:存在唯一的"正確"稀疏分解,只有發(fā)現(xiàn)這個分解才能達到高重構(gòu)精度。

然而,數(shù)學現(xiàn)實更加復雜。在高維空間中,許多不同的稀疏分解都能達到相似的重構(gòu)精度。這種現(xiàn)象被稱為稀疏表示的"非唯一性"。就像用不同的樂器組合可以演奏同一首曲子一樣,用不同的特征組合可以重構(gòu)同樣的神經(jīng)激活模式。

研究團隊的理論分析量化了這種非唯一性的程度。在2304維的激活空間中,使用73,728個特征的字典,即使特征方向完全隨機,仍然有足夠的自由度來實現(xiàn)良好的稀疏重構(gòu)。這是因為高維空間的幾何性質(zhì):在足夠高的維度下,隨機向量之間趨向于近似正交,為線性組合提供了豐富的表示能力。

更具體地說,軟凍結(jié)解碼器基線的成功可以用"局部優(yōu)化景觀"來解釋。當解碼器被限制在初始隨機方向的鄰域內(nèi)時,優(yōu)化過程本質(zhì)上是在一個高維凸集內(nèi)尋找最優(yōu)的線性組合權(quán)重。這個優(yōu)化問題雖然受限,但仍然有足夠的靈活性來適應數(shù)據(jù)的統(tǒng)計結(jié)構(gòu)。

這個發(fā)現(xiàn)質(zhì)疑了稀疏自編碼器的一個核心假設:神經(jīng)網(wǎng)絡的激活可以分解為少數(shù)幾個語義上有意義的"真實"特征。也許這種分解根本不存在,或者即使存在,也不是唯一的。在這種情況下,稀疏自編碼器找到的任何分解都只是眾多可能分解中的一種,其語義解釋性可能主要來自人類的模式識別傾向,而非客觀的特征結(jié)構(gòu)。

這種理論反思還涉及到稀疏性約束的作用。稀疏性被引入是為了鼓勵特征的分離性和可解釋性——理論上,如果每次只激活少數(shù)幾個特征,這些特征應該對應不同的語義概念。但研究結(jié)果表明,稀疏性約束可能只是一種正則化技巧,有助于優(yōu)化收斂和泛化,而不一定能保證語義有意義性。

從信息論角度看,這個問題可以理解為"壓縮"與"解釋"之間的區(qū)別。稀疏自編碼器很擅長找到數(shù)據(jù)的緊湊表示(壓縮),但這種緊湊性不一定對應人類可理解的概念結(jié)構(gòu)(解釋)。一個高效的壓縮算法可能使用完全抽象的基,這些基在數(shù)學上最優(yōu)但在語義上毫無意義。

這種理論理解對整個機械解釋性領域具有重要意義。如果神經(jīng)網(wǎng)絡的內(nèi)部表示本質(zhì)上是分布式和冗余的,那么尋找"單一真實分解"的努力可能從根本上就是錯誤方向。我們可能需要開發(fā)新的方法論,接受表示的多樣性和非唯一性,而不是假設存在唯一的"正確"解釋。

九、方法論啟示:如何重新評估SAE

面對稀疏自編碼器的這些根本問題,研究社區(qū)需要重新思考如何評估和驗證這類工具。研究團隊提出的隨機基線不僅暴露了現(xiàn)有方法的問題,也為未來的評估提供了一個新的標準。

首要的改變是將隨機基線作為標準驗證步驟。任何聲稱有效的稀疏自編碼器都應該能夠顯著超越三種隨機基線:凍結(jié)解碼器、軟凍結(jié)解碼器和凍結(jié)編碼器。這不是一個高要求,而是最基本的合理性檢驗。如果一個方法連明顯隨機的對照都無法超越,那就很難說它真的在"學習"什么有意義的東西。

其次,評估需要更加多元化和謹慎。單純的重構(gòu)精度顯然不足以驗證特征發(fā)現(xiàn)的有效性??山忉屝栽u分雖然有用,但容易受到選擇偏差和模式幻覺的影響。稀疏探測和因果編輯提供了有價值的功能性驗證,但如研究所示,這些測試在高維空間中也可能被隨機方法"欺騙"。

一個更嚴格的評估框架可能需要包含"對抗性測試"——設計專門的任務來區(qū)分真實特征學習和統(tǒng)計擬合。例如,測試SAE是否能夠在訓練分布之外的數(shù)據(jù)上保持特征的一致性,或者是否能夠在不同的激活閾值下保持特征的穩(wěn)定性。

合成數(shù)據(jù)驗證應該成為標準實踐。雖然真實神經(jīng)網(wǎng)絡數(shù)據(jù)更加相關,但只有在合成數(shù)據(jù)上的驗證才能提供客觀的、無爭議的性能基準。研究團隊展示的合成實驗設計為這種驗證提供了很好的模板,可以根據(jù)不同的研究需求進行調(diào)整和擴展。

理論驗證也需要加強。僅僅展示方法在經(jīng)驗上有效是不夠的,我們需要理解為什么它有效,以及在什么條件下它可能失效。研究團隊對軟凍結(jié)解碼器的理論分析為這種驗證提供了很好的例子,通過數(shù)學推導揭示了方法的理論局限。

更重要的是,我們需要重新審視稀疏自編碼器的基本目標。如果神經(jīng)網(wǎng)絡的表示本質(zhì)上是分布式和冗余的,那么尋找"獨立的語義特征"可能是一個錯誤的目標。我們可能需要開發(fā)新的概念框架,比如"分布式特征"或"上下文依賴特征",來更準確地描述神經(jīng)網(wǎng)絡的內(nèi)部結(jié)構(gòu)。

從實踐角度看,這些發(fā)現(xiàn)并不意味著所有使用稀疏自編碼器的研究都是無效的。許多應用可能不需要"真實"的特征分解,而只需要一個有用的稀疏表示。但對于那些依賴于特征語義解釋性的應用(如安全性分析或因果推理),就需要更加謹慎地驗證SAE的有效性。

研究團隊建議,在發(fā)布任何基于稀疏自編碼器的研究結(jié)果時,都應該包含隨機基線的對比。這種透明度有助于讀者更準確地評估研究結(jié)論的強度,也有助于推動整個領域的方法論進步。

十、未來方向:超越稀疏自編碼器

這項研究的發(fā)現(xiàn)雖然對稀疏自編碼器提出了嚴厲批評,但也為神經(jīng)網(wǎng)絡解釋性研究指明了新的方向。問題的識別往往是解決方案的第一步。

首先,我們需要開發(fā)新的理論框架來理解神經(jīng)網(wǎng)絡的內(nèi)部表示。傳統(tǒng)的"單一特征對應單一概念"的模型可能過于簡化。真實的神經(jīng)表示可能更加復雜,涉及特征之間的動態(tài)交互、上下文依賴性和層次結(jié)構(gòu)。新的理論框架需要能夠處理這種復雜性。

其次,需要設計新的解釋性方法,這些方法應該基于更加現(xiàn)實的神經(jīng)表示模型。例如,"因子化表示學習"方法試圖學習可解釋的潛在因子,但不假設這些因子是稀疏的或獨立的。"注意力可視化"方法直接分析模型的注意力模式,而不試圖將其分解為獨立特征。

第三,我們需要更好的評估基準。研究團隊提出的隨機基線是一個好的開始,但我們還需要更加復雜和全面的評估框架。這些框架應該能夠測試解釋性方法的多個維度:準確性、穩(wěn)定性、泛化性、可操作性等。

從技術(shù)角度看,一些有前景的方向包括:

圖神經(jīng)網(wǎng)絡方法可能能夠更好地捕捉特征之間的復雜關系。不同于假設特征獨立的稀疏編碼,圖方法可以顯式建模特征之間的相互作用。

多尺度分析方法可以在不同的粒度級別上理解神經(jīng)表示,從單個神經(jīng)元到神經(jīng)元組合到整個網(wǎng)絡層。這種多尺度視角可能更接近神經(jīng)網(wǎng)絡實際的層次化組織。

動態(tài)分析方法可以研究特征表示如何隨時間或輸入變化而演化。靜態(tài)的特征分解可能錯過了神經(jīng)計算的動態(tài)特性。

跨模態(tài)分析方法可以研究不同模態(tài)(文本、圖像、音頻)之間的表示相似性和差異性,這可能揭示更加普遍的表示原理。

從哲學角度看,這項研究也促使我們重新思考"可解釋性"本身的含義。也許我們應該接受某些形式的"不可解釋性"作為復雜智能系統(tǒng)的固有特征,而不是試圖將所有內(nèi)容都分解為人類可理解的組件。

這種接受并不意味著放棄理解,而是尋找新的理解方式。例如,我們可以專注于理解系統(tǒng)的行為模式和決策邊界,而不是內(nèi)部表示的細節(jié)。我們可以開發(fā)更好的測試和驗證方法,即使無法完全理解系統(tǒng)的內(nèi)部工作原理。

總的來說,這項研究標志著神經(jīng)網(wǎng)絡解釋性研究的一個重要轉(zhuǎn)折點。它不僅揭示了當前方法的局限,也為未來的研究指明了更加現(xiàn)實和有希望的方向。

說到底,這項研究就像是給AI解釋性領域敲響了一記警鐘。長期以來,研究者們對稀疏自編碼器這個"AI讀心術(shù)"工具寄予厚望,認為它能幫助我們真正理解神經(jīng)網(wǎng)絡的內(nèi)在思維過程。然而,當研究團隊用最基本的"常識檢驗"——與隨機方法對比——來測試這個工具時,卻發(fā)現(xiàn)它可能只是在進行高級的"統(tǒng)計魔術(shù)",而不是真正的特征發(fā)現(xiàn)。

這個發(fā)現(xiàn)的意義遠超技術(shù)層面。在AI安全、模型對齊、風險評估等關鍵領域,許多重要決策都建立在"我們能夠理解AI內(nèi)部機制"的假設之上。如果這個假設是錯誤的,那么整個技術(shù)棧都需要重新審視。這就像發(fā)現(xiàn)我們一直用來導航的指南針實際上指向的不是真正的北方——雖然令人不安,但及早發(fā)現(xiàn)總比在錯誤路徑上越走越遠要好。

不過,這并不是AI解釋性研究的末日。相反,這是一個新開始的信號。就像科學史上許多重要發(fā)現(xiàn)一樣,否定一個錯誤假設往往比確認一個正確假設更有價值。這項研究為整個領域提供了更加堅實的基礎,讓未來的研究能夠建立在更加現(xiàn)實的認知之上。

對于普通讀者來說,這個研究提醒我們保持對AI"黑盒子"本質(zhì)的健康懷疑。當我們聽到"AI解釋性突破"的消息時,應該問一問:這個方法真的比隨機猜測強多少?這種基本的批判性思維不僅對理解科技發(fā)展有用,也是在這個AI快速發(fā)展時代保持清醒頭腦的重要工具。

Q&A

Q1:稀疏自編碼器到底是什么?為什么被寄予厚望?

A:稀疏自編碼器就像是AI領域的"X光機",它的目標是透視神經(jīng)網(wǎng)絡內(nèi)部,將復雜的信息處理過程分解成少數(shù)幾個人類能理解的基礎特征。研究者們希望通過這種工具來理解AI如何思考和決策,這對AI安全、風險評估等關鍵領域具有重要意義。

Q2:為什么稀疏自編碼器在合成數(shù)據(jù)上表現(xiàn)這么差?

A:即使在完全可控的環(huán)境中,稀疏自編碼器也只能識別出9%的真實特征,盡管聲稱能重構(gòu)71%的原始信息。這說明高重構(gòu)精度并不等于真正的特征發(fā)現(xiàn)——就像用錯誤的零件也能拼出看起來相似的模型,但內(nèi)在結(jié)構(gòu)完全不同。

Q3:隨機基線為什么能達到與訓練好的稀疏自編碼器相似的效果?

A:在高維空間中,即使是隨機的特征組合也能通過統(tǒng)計相關性實現(xiàn)良好的重構(gòu)效果。這就像在一個巨大的圖書館里,即使隨機選書也總能找到一些看起來相關的內(nèi)容。這揭示了當前評估方法可能無法區(qū)分真正的特征學習和高效的統(tǒng)計擬合。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
曝國家級運動員滕志強去世!僅35歲,知情人透露細節(jié),兒子剛兩歲

曝國家級運動員滕志強去世!僅35歲,知情人透露細節(jié),兒子剛兩歲

裕豐娛間說
2026-03-02 10:15:34
英媒:曼聯(lián)管理層對卡里克的轉(zhuǎn)正持謹慎態(tài)度

英媒:曼聯(lián)管理層對卡里克的轉(zhuǎn)正持謹慎態(tài)度

懂球帝
2026-03-02 18:56:06
美伊大戰(zhàn)后果來了,石油漲價歐佩克宣布增產(chǎn),中國能源轉(zhuǎn)型很明智

美伊大戰(zhàn)后果來了,石油漲價歐佩克宣布增產(chǎn),中國能源轉(zhuǎn)型很明智

甜檸聊史
2026-03-02 16:51:07
MVP沒跑了!他又拿一個歷史第一!

MVP沒跑了!他又拿一個歷史第一!

柚子說球
2026-03-02 17:23:11
林昀儒為何一局未贏?聽了他的總結(jié),才明白如今王楚欽究竟有多強

林昀儒為何一局未贏?聽了他的總結(jié),才明白如今王楚欽究竟有多強

陌識
2026-03-02 14:00:47
中東將形成針對伊朗的統(tǒng)一戰(zhàn)線?沙特阿聯(lián)酋已經(jīng)忍耐到極限

中東將形成針對伊朗的統(tǒng)一戰(zhàn)線?沙特阿聯(lián)酋已經(jīng)忍耐到極限

羽逸地之光
2026-03-02 19:15:56
贏7分!楊毅卻批評主教練郭士強:將中國男籃的優(yōu)勢給丟了

贏7分!楊毅卻批評主教練郭士強:將中國男籃的優(yōu)勢給丟了

體育哲人
2026-03-01 22:40:43
豆瓣就誤設“滿200減200”優(yōu)惠券致歉,稱無法承受損失將自動退款處理異常訂單,律師:自行認定無效,需請法院或仲裁機構(gòu)撤銷

豆瓣就誤設“滿200減200”優(yōu)惠券致歉,稱無法承受損失將自動退款處理異常訂單,律師:自行認定無效,需請法院或仲裁機構(gòu)撤銷

極目新聞
2026-03-02 16:17:52
哪怕詹姆斯讓掉低于20分的所有比賽!他也是歷史總得分王!

哪怕詹姆斯讓掉低于20分的所有比賽!他也是歷史總得分王!

氧氣是個地鐵
2026-03-02 18:12:14
谷正文晚年直言:臺灣落網(wǎng)的中共地下黨中,唯有張志忠是真漢子

谷正文晚年直言:臺灣落網(wǎng)的中共地下黨中,唯有張志忠是真漢子

嘮叨說歷史
2026-03-02 13:39:46
去年漲價3次,今年突然集體降價!多個品牌陸續(xù)宣布,網(wǎng)友:再等等,還會降

去年漲價3次,今年突然集體降價!多個品牌陸續(xù)宣布,網(wǎng)友:再等等,還會降

佛山電視臺小強熱線
2026-03-02 19:30:36
垃圾時間瘋狂刷分!詹姆斯24+5+2創(chuàng)紀錄!東契奇28+5+9打爆國王!

垃圾時間瘋狂刷分!詹姆斯24+5+2創(chuàng)紀錄!東契奇28+5+9打爆國王!

Tracy的籃球博物館
2026-03-02 12:55:06
孫穎莎奪冠后拒慶祝,徑直去擁抱王曼昱,發(fā)言顯大格局:團隊至上

孫穎莎奪冠后拒慶祝,徑直去擁抱王曼昱,發(fā)言顯大格局:團隊至上

球盲百小易
2026-03-01 21:57:54
曝網(wǎng)紅辛巴美國發(fā)生車禍!紅色氣囊彈出,體態(tài)發(fā)福多位美女相伴

曝網(wǎng)紅辛巴美國發(fā)生車禍!紅色氣囊彈出,體態(tài)發(fā)福多位美女相伴

裕豐娛間說
2026-03-02 08:53:35
40萬周薪引爆爭議!31歲隊長7球13助,1億歐報價逼曼聯(lián)兩難

40萬周薪引爆爭議!31歲隊長7球13助,1億歐報價逼曼聯(lián)兩難

卿子書
2026-03-02 09:47:30
1953年,紀桂祥趁夜想抓美國大兵立功,結(jié)果端了一鍋“洋娘子軍”

1953年,紀桂祥趁夜想抓美國大兵立功,結(jié)果端了一鍋“洋娘子軍”

z千年歷史老號
2026-03-01 20:28:27
牡丹花下死!這次曝光新戀情的黃曉明,沒給楊穎、葉柯留一絲體面

牡丹花下死!這次曝光新戀情的黃曉明,沒給楊穎、葉柯留一絲體面

情感大頭說說
2026-03-01 06:40:17
我肺結(jié)節(jié)變微浸潤癌,術(shù)后疼到下不了床!沒想到一月后就滿血復活

我肺結(jié)節(jié)變微浸潤癌,術(shù)后疼到下不了床!沒想到一月后就滿血復活

健身狂人
2026-03-01 07:57:45
伊朗稱美軍在中東遭受重大傷亡 美中央司令部否認

伊朗稱美軍在中東遭受重大傷亡 美中央司令部否認

每日經(jīng)濟新聞
2026-03-02 09:33:24
美軍航母“炸”了,史詩級災難,把臉都丟光了

美軍航母“炸”了,史詩級災難,把臉都丟光了

毛豆論道
2026-02-26 19:32:00
2026-03-02 20:19:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
7408文章數(shù) 553關注度
往期回顧 全部

科技要聞

榮耀發(fā)布機器人手機、折疊屏、人形機器人

頭條要聞

美記者詢問就伊朗局勢中方會采取什么行動 外交部回應

頭條要聞

美記者詢問就伊朗局勢中方會采取什么行動 外交部回應

體育要聞

“想要我簽名嗎” 梅西逆轉(zhuǎn)后嘲諷對手主帥

娛樂要聞

美伊以沖突爆發(fā),多位明星被困中東

財經(jīng)要聞

金銀大漲 市場仍在評估沖突會否長期化

汽車要聞

國民SUV再添一員 瑞虎7L靜態(tài)體驗

態(tài)度原創(chuàng)

時尚
本地
藝術(shù)
數(shù)碼
手機

從每天只睡4小時到8小時:一個失眠者的自救指南

本地新聞

津南好·四時總相宜

藝術(shù)要聞

簡約的風景畫,美國畫家Ben Bauer作品

數(shù)碼要聞

Anker安克MWC 2026推Soundcore多彩中端新品!

手機要聞

盧偉冰回應小米新機海外售價1.6萬元:有信心沖擊iPhone!

無障礙瀏覽 進入關懷版