国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

Google團隊的記憶緩存技術(shù):讓RNN記憶力像人腦一樣可以無限擴展

0
分享至


這項由Google Research與Cornell University、USC聯(lián)合開展的研究于2026年2月27日發(fā)表在arXiv預(yù)印本平臺,論文編號為arXiv:2602.24281v1。有興趣深入了解的讀者可以通過該編號查詢完整論文。

想象一下,如果你在背誦一本厚厚的書,傳統(tǒng)的方法是從頭到尾一字不漏地記住每個細節(jié),這樣雖然準(zhǔn)確,但需要巨大的記憶容量。而另一種方法是每讀完一頁就只記住這一頁的要點,然后丟掉前面的內(nèi)容,這樣雖然節(jié)省記憶空間,但很容易忘記重要信息?,F(xiàn)在,Google的研究團隊找到了第三種方法——他們教會計算機如何像人類一樣,既能壓縮信息節(jié)省空間,又能在需要時快速調(diào)取過去的重要記憶。

在人工智能的世界里,有兩大"記憶高手"一直在競爭。一個是Transformer(變壓器模型),它就像一個擁有完美記憶的學(xué)霸,能夠記住對話中的每一個詞、每一個細節(jié),但這種完美記憶需要付出巨大代價——處理信息的時間會隨著內(nèi)容長度呈平方增長,就像背誦內(nèi)容翻倍時,所需時間要增加四倍。另一個是RNN(循環(huán)神經(jīng)網(wǎng)絡(luò)),它更像一個善于總結(jié)的人,會把之前的信息壓縮成要點存儲,處理速度很快,但問題是壓縮過程中容易丟失重要細節(jié),特別是需要回憶很久以前信息的時候。

Google的研究團隊意識到,這就像是在"完美記憶但效率低下"和"高效率但健忘"之間做選擇。他們想:"能不能找到一個中間路線,既保持高效率,又不丟失重要信息呢?"于是,他們開發(fā)了一種叫做"Memory Caching"(記憶緩存)的技術(shù),這個技術(shù)的核心思想就像是給計算機裝上了一個智能的"記憶相冊"。

### 一、記憶緩存:給AI裝上智能相冊

記憶緩存技術(shù)的工作原理可以用整理照片來比喻。當(dāng)你拍了很多照片后,你不會把所有照片都放在桌面上(那樣會很亂),也不會只保留最后一張照片(那樣會丟失珍貴回憶)。相反,你會把照片按時間段整理成不同的相冊,比如"春節(jié)假期"、"畢業(yè)旅行"、"日常生活"等。當(dāng)你需要找某張照片時,你會根據(jù)記憶先找到對應(yīng)的相冊,然后在相冊里搜索。

記憶緩存正是這樣工作的。研究團隊把長長的文本內(nèi)容切分成不同的"段落",就像把照片分成不同相冊。對于每個段落,AI會像寫讀書筆記一樣,把重要信息壓縮成一個"記憶快照",然后把這些快照存儲在不同的"記憶格子"里。當(dāng)AI需要回答問題或處理新信息時,它不需要翻遍所有原始內(nèi)容,而是快速瀏覽這些記憶快照,找到相關(guān)信息,就像你根據(jù)相冊封面就能知道哪個相冊里有你要找的照片。

這種方法的巧妙之處在于,它讓AI的記憶容量可以根據(jù)需要靈活增長。如果內(nèi)容比較短,AI只需要很少的記憶格子;如果內(nèi)容很長,AI就會使用更多的記憶格子。這樣既避免了Transformer那種"不管內(nèi)容多少都要完整記住"的浪費,又避免了傳統(tǒng)RNN"只記住最后一點信息"的健忘問題。

更重要的是,這個系統(tǒng)的計算復(fù)雜度介于兩種傳統(tǒng)方法之間。如果用數(shù)學(xué)語言描述,傳統(tǒng)RNN的復(fù)雜度是O(L)(處理時間與內(nèi)容長度成正比),Transformer的復(fù)雜度是O(L?)(處理時間與內(nèi)容長度的平方成正比),而記憶緩存的復(fù)雜度是O(NL)(處理時間與內(nèi)容長度和記憶格子數(shù)量的乘積成正比)。這意味著用戶可以根據(jù)自己的需求和計算資源,在效率和記憶容量之間找到最佳平衡點。

### 二、四種記憶整理方式:從簡單到精巧

就像整理照片有不同方法一樣,研究團隊開發(fā)了四種不同的記憶緩存方式,每種方式都有自己的特點和適用場景。

最基礎(chǔ)的方法叫做"殘差記憶"(Residual Memory),就像把所有相冊的內(nèi)容簡單疊加在一起。當(dāng)AI需要回憶信息時,它會把當(dāng)前的記憶狀態(tài)和所有過去的記憶快照加起來,形成一個綜合的回憶。這種方法雖然簡單,但已經(jīng)能顯著提升AI的記憶能力。研究團隊發(fā)現(xiàn),即使是這樣簡單的方法,也能讓AI在處理長文本時的表現(xiàn)明顯改善。

但簡單疊加有個問題——所有記憶被平等對待,就像你在找一張照片時,不管是十年前的還是昨天的照片都占同等重要性。為了解決這個問題,研究團隊開發(fā)了"門控殘差記憶"(Gated Residual Memory)。這就像給每個相冊裝上了智能標(biāo)簽,AI可以根據(jù)當(dāng)前需要查找的內(nèi)容,自動調(diào)整對不同記憶的重視程度。比如,如果AI在處理關(guān)于"春節(jié)"的問題,它會自動增加對"春節(jié)假期"相冊的關(guān)注度,減少對"日常生活"相冊的關(guān)注度。

第三種方法叫"記憶融合"(Memory Soup),這個名字聽起來很有趣,實際上是借鑒了烹飪中"融合不同食材精華"的概念。傳統(tǒng)的方法是把不同記憶的"結(jié)果"混合在一起,而記憶融合是把不同記憶的"參數(shù)"(可以理解為制作方法)混合在一起,然后用這個混合后的新方法來處理當(dāng)前問題。這就像是把不同大廚的招牌菜做法融合起來,創(chuàng)造出一道專門針對當(dāng)前客人口味的新菜品。

最精巧的方法是"稀疏選擇緩存"(Sparse Selective Caching),這種方法受到了"專家混合系統(tǒng)"的啟發(fā)。想象你是一個圖書管理員,面對讀者的問題,你不需要翻遍圖書館的每一本書,而是根據(jù)問題的類型,選擇最相關(guān)的幾個書架進行搜索。稀疏選擇緩存讓AI像智能管理員一樣,根據(jù)當(dāng)前處理的內(nèi)容,只選擇最相關(guān)的幾個記憶快照進行查詢,這樣既提高了效率,又保持了準(zhǔn)確性。

這四種方法各有優(yōu)勢。殘差記憶最簡單可靠,門控殘差記憶更加智能,記憶融合對復(fù)雜情況處理更好,稀疏選擇緩存在處理超長內(nèi)容時最高效。研究團隊在不同的測試中發(fā)現(xiàn),沒有一種方法在所有情況下都是最好的,但它們都比傳統(tǒng)方法有顯著提升。

### 三、從理論到實踐:三個AI模型的華麗變身

為了驗證記憶緩存技術(shù)的有效性,研究團隊選擇了三個不同類型的AI模型進行改造,就像給三種不同性格的學(xué)生提供同樣的學(xué)習(xí)方法,看看效果如何。

第一個模型是"線性注意力"(Linear Attention),它就像一個善于快速瀏覽的學(xué)生,能夠高效地處理信息,但記憶深度有限。研究團隊給它裝上記憶緩存系統(tǒng)后,它不僅保持了原有的高效性,還獲得了更強的長期記憶能力。在處理需要回憶很久以前信息的任務(wù)時,改造后的模型表現(xiàn)顯著提升。

第二個模型叫"Titans",它本身就是一個相對復(fù)雜的記憶系統(tǒng),使用了更高級的學(xué)習(xí)算法。給Titans裝上記憶緩存就像給一個已經(jīng)很聰明的學(xué)生提供更好的筆記本,讓他能夠更有條理地整理和回憶知識。實驗結(jié)果顯示,這種組合產(chǎn)生了最好的效果,在多個測試中都表現(xiàn)出色。

第三個模型是"滑動窗口線性注意力"(Sliding Window Linear Attention),它的特點是只關(guān)注最近的一小段內(nèi)容,就像一個只看得見眼前幾步路的近視眼學(xué)生。記憶緩存系統(tǒng)為它提供了"遠視鏡",讓它能夠在保持對近期信息敏感度的同時,也能回憶起更遠的重要信息。

有趣的是,研究團隊還發(fā)現(xiàn)了一個重要的設(shè)計選擇問題:是把記憶緩存看作"同一個學(xué)生的不同學(xué)習(xí)階段筆記",還是"不同學(xué)生各自的獨立筆記"?前一種方法讓AI的記憶更加連貫,就像一個人從小到大的日記本,后一種方法讓每段記憶都更加純凈,就像不同主題的專業(yè)筆記本。實驗顯示,這兩種方法各有優(yōu)勢,具體選擇取決于應(yīng)用場景。

### 四、段落劃分的藝術(shù):在壓縮和完整性之間找平衡

記憶緩存系統(tǒng)面臨的一個關(guān)鍵問題是:如何把長內(nèi)容分割成合適的段落?這就像決定每個相冊應(yīng)該裝多少張照片一樣,是一門需要平衡的藝術(shù)。

如果段落太短,比如每個詞都單獨成為一個段落,那么AI就需要為每個詞創(chuàng)建一個記憶快照,雖然信息保存得很完整,但計算量會變得很大,幾乎和Transformer一樣復(fù)雜。如果段落太長,比如把整篇文章當(dāng)作一個段落,那就回到了傳統(tǒng)RNN的問題——重要信息可能在壓縮過程中丟失。

研究團隊提出了幾種分割策略。最簡單的是"等長分割",就像把一本書平均分成若干章節(jié),每章包含相同數(shù)量的頁數(shù)。這種方法簡單可控,用戶可以根據(jù)自己的計算資源和精度要求選擇合適的章節(jié)長度。

更有趣的是"對數(shù)分割"策略,這種方法受到了計算機科學(xué)中"二分法"的啟發(fā)。它會把內(nèi)容按照2的冪次方進行分割,比如第一段包含32個詞,第二段包含16個詞,第三段包含8個詞,以此類推。這種分割方法的巧妙之處在于,它為重要信息提供了不同層次的存儲粒度,就像一個多級的記憶系統(tǒng)。

對數(shù)分割的計算復(fù)雜度是O(L log L),比傳統(tǒng)Transformer的O(L?)要好很多,特別是處理超長內(nèi)容時優(yōu)勢更加明顯。但是,這種方法也有自己的局限性——對于需要精確回憶很久以前細節(jié)信息的任務(wù),它可能不如等長分割方法表現(xiàn)穩(wěn)定。

研究團隊通過大量實驗發(fā)現(xiàn),不同的分割策略適用于不同的應(yīng)用場景。對于需要高精度回憶的任務(wù),等長分割更可靠;對于追求高效率的應(yīng)用,對數(shù)分割更合適。這為用戶提供了靈活的選擇空間。

### 五、實驗室里的精彩表現(xiàn):多項測試全面勝出

為了全面評估記憶緩存技術(shù)的效果,研究團隊設(shè)計了一系列測試,就像給學(xué)生進行全科目的期末考試。這些測試涵蓋了語言理解、常識推理、長文本處理、信息檢索等多個方面。

在語言建模測試中,研究團隊使用了兩種規(guī)模的模型:7.6億參數(shù)和13億參數(shù)。結(jié)果顯示,所有裝備了記憶緩存的模型都比原版本有顯著提升。特別是Titans配合門控殘差記憶的組合,在各項指標(biāo)上都表現(xiàn)出色,不僅超過了原始的RNN模型,甚至在某些任務(wù)上接近了Transformer的性能。

"大海撈針"測試是評估AI長期記憶能力的經(jīng)典方法,就像在一本厚厚的小說中間藏一個重要信息,然后看AI能否在讀完整本書后還記得這個信息。在這項測試中,記憶緩存技術(shù)顯示出了明顯優(yōu)勢。裝備了記憶緩存的模型在處理4K、8K、16K長度的文本時,都能準(zhǔn)確找到隱藏的信息,而傳統(tǒng)RNN模型隨著文本長度增加,準(zhǔn)確率急劇下降。

更有挑戰(zhàn)性的是多查詢聯(lián)想回憶測試,這就像給AI一堆看似無關(guān)的信息,然后問它能否找出其中的隱含聯(lián)系。這種測試特別考驗AI的綜合記憶和推理能力。結(jié)果顯示,記憶緩存技術(shù)大幅提升了AI在這類復(fù)雜任務(wù)中的表現(xiàn),證明它不僅能記住信息,還能更好地理解信息之間的關(guān)系。

在實際應(yīng)用導(dǎo)向的測試中,研究團隊使用了包括閱讀理解、問答系統(tǒng)、文檔摘要等多種任務(wù)。雖然Transformer在某些任務(wù)上仍然保持最佳性能,但配備記憶緩存的RNN模型顯著縮小了差距,有時甚至表現(xiàn)更好。更重要的是,這些改進是在保持原有計算效率優(yōu)勢的基礎(chǔ)上實現(xiàn)的。

效率測試的結(jié)果更加令人印象深刻。隨著處理內(nèi)容長度的增加,傳統(tǒng)Transformer的計算時間呈平方增長,很快變得不可承受,而記憶緩存系統(tǒng)的處理時間增長要慢得多。在處理32K長度的文本時,記憶緩存系統(tǒng)比Transformer快幾十倍,同時保持了可接受的準(zhǔn)確性。

### 六、技術(shù)細節(jié)的巧妙設(shè)計:魔鬼藏在細節(jié)里

記憶緩存系統(tǒng)的成功不僅在于整體架構(gòu)的創(chuàng)新,更在于許多精巧的技術(shù)細節(jié)。這些細節(jié)就像一道精美菜肴中的各種調(diào)料,每一個都不起眼,但缺少任何一個都會影響最終效果。

在門控機制的設(shè)計上,研究團隊面臨一個重要選擇:應(yīng)該讓AI根據(jù)當(dāng)前輸入的內(nèi)容來決定調(diào)取哪些記憶,還是根據(jù)記憶內(nèi)容本身的特征來決定權(quán)重?最終他們選擇了一種更智能的方法——讓當(dāng)前輸入和歷史記憶進行"對話",通過計算相似性來決定哪些記憶最相關(guān)。這就像你在回憶時,會根據(jù)當(dāng)前的話題自動聯(lián)想到相關(guān)的過往經(jīng)歷。

在稀疏選擇機制中,研究團隊借鑒了"專家混合"系統(tǒng)的設(shè)計思路,但做了重要改進。傳統(tǒng)的專家混合系統(tǒng)需要為每個輸入重新計算所有專家的權(quán)重,計算量很大。而記憶緩存系統(tǒng)可以預(yù)先計算每個記憶段落的特征表示,只需要在查詢時進行快速的相似性計算,大大提高了效率。

對于線性記憶和非線性記憶的處理,系統(tǒng)采用了不同的策略。對于線性記憶,記憶融合方法在數(shù)學(xué)上等價于門控殘差記憶,這是一個有趣的發(fā)現(xiàn)。但對于非線性的深度記憶模塊,兩種方法產(chǎn)生了不同的效果,記憶融合通過混合參數(shù)創(chuàng)造了全新的記憶處理方式,而門控殘差通過加權(quán)輸出保持了原有記憶的完整性。

研究團隊還發(fā)現(xiàn)了一個重要的實現(xiàn)細節(jié):記憶緩存可以作為后訓(xùn)練技術(shù)應(yīng)用。也就是說,對于已經(jīng)訓(xùn)練好的模型,可以直接加裝記憶緩存系統(tǒng),而不需要重新訓(xùn)練整個模型。這大大降低了技術(shù)的應(yīng)用成本,讓更多研究者和開發(fā)者能夠受益。

### 七、局限性與未來展望:完美路上的下一步

盡管記憶緩存技術(shù)取得了顯著成果,但研究團隊也誠實地指出了當(dāng)前系統(tǒng)的一些局限性。這種科學(xué)的態(tài)度反而讓這項技術(shù)顯得更加可信和有發(fā)展?jié)摿Α?/p>

首先是存儲空間的考量。雖然記憶緩存比Transformer節(jié)省了大量計算資源,但它仍然需要存儲多個記憶快照,這意味著內(nèi)存使用量會隨著內(nèi)容長度增長。對于處理超長文檔的應(yīng)用,這可能成為一個需要權(quán)衡的因素。

其次是記憶質(zhì)量與壓縮率之間的平衡。當(dāng)段落長度增加時,每個記憶快照需要壓縮更多信息,可能導(dǎo)致一些細節(jié)丟失。當(dāng)段落長度減少時,雖然信息保存更完整,但需要存儲更多快照,計算量也會增加。找到最優(yōu)的平衡點需要根據(jù)具體應(yīng)用進行調(diào)優(yōu)。

在某些需要精確回憶遠程信息的任務(wù)中,記憶緩存系統(tǒng)仍然不如Transformer表現(xiàn)出色。這主要是因為壓縮過程不可避免地會丟失一些信息,而Transformer保留了所有原始信息。但考慮到效率上的巨大優(yōu)勢,這種權(quán)衡在大多數(shù)實際應(yīng)用中是值得的。

研究團隊也指出了幾個有前景的改進方向。首先是開發(fā)更智能的分割策略,比如根據(jù)內(nèi)容的語義結(jié)構(gòu)而不是簡單的長度來劃分段落。其次是設(shè)計更精巧的記憶壓縮算法,在保持效率的同時減少信息損失。再次是探索自適應(yīng)的記憶管理策略,讓系統(tǒng)能夠根據(jù)任務(wù)需求動態(tài)調(diào)整記憶的詳細程度。

更有趣的是,研究團隊提到了將記憶緩存與其他先進技術(shù)結(jié)合的可能性。比如,可以將它與檢索增強生成技術(shù)結(jié)合,創(chuàng)建更強大的知識管理系統(tǒng);或者與多模態(tài)技術(shù)結(jié)合,處理包含文本、圖像、音頻的復(fù)雜內(nèi)容。

說到底,Google團隊的這項記憶緩存技術(shù)代表了AI發(fā)展中的一個重要里程碑。它不是簡單地在現(xiàn)有技術(shù)中做選擇,而是創(chuàng)造性地找到了一條新路徑,在效率和能力之間實現(xiàn)了更好的平衡。這種思路本身就很有啟發(fā)性——當(dāng)面對看似對立的選擇時,也許答案不在于選擇其中一個,而在于創(chuàng)造第三種可能性。

對于普通人來說,這項技術(shù)意味著未來的AI助手將能夠更好地理解和記住長對話、長文檔,同時保持快速響應(yīng)。無論是處理工作報告、分析研究論文,還是進行長時間的對話交流,AI都將變得更加智能和實用。而且由于技術(shù)的高效性,這些改進不會帶來高昂的計算成本,讓更多人能夠享受到先進AI技術(shù)的便利。

這項研究也展示了科學(xué)研究的魅力——通過深入理解問題本質(zhì),用創(chuàng)新思維找到意想不到的解決方案。Google團隊沒有被傳統(tǒng)的思維模式局限,而是從生物記憶的啟發(fā)中找到靈感,最終創(chuàng)造出了這個優(yōu)雅而實用的技術(shù)。這提醒我們,最好的創(chuàng)新往往來自于跨領(lǐng)域的思考和不拘一格的探索。

Q&A

Q1:記憶緩存技術(shù)是什么原理?

A:記憶緩存技術(shù)就像給AI裝了一個智能相冊系統(tǒng)。它把長文本分成若干段落,為每個段落創(chuàng)建一個記憶快照并存儲起來,當(dāng)AI需要回憶信息時,會快速瀏覽這些記憶快照找到相關(guān)內(nèi)容,而不是翻遍所有原始信息。

Q2:記憶緩存比傳統(tǒng)AI方法好在哪里?

A:記憶緩存在效率和記憶力之間找到了完美平衡。比傳統(tǒng)RNN記憶力更強,能記住更久遠的信息;比Transformer效率更高,處理長文本時速度快幾十倍,同時計算成本大幅降低,讓更多人能使用先進AI技術(shù)。

Q3:這項技術(shù)什么時候能用到日常生活中?

A:這項技術(shù)目前還在研究階段,但已經(jīng)顯示出很好的應(yīng)用前景。未來可能會集成到AI助手、文檔處理工具、對話系統(tǒng)中,讓它們能更好地理解和記住長對話內(nèi)容,處理復(fù)雜文檔時既快速又準(zhǔn)確。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
鈞正平發(fā)文:中國人民永遠都要保持居安思危的清醒

鈞正平發(fā)文:中國人民永遠都要保持居安思危的清醒

閃電新聞
2026-03-02 12:29:06
伊朗最高國家安全委員會秘書:已為長期戰(zhàn)爭做好準(zhǔn)備

伊朗最高國家安全委員會秘書:已為長期戰(zhàn)爭做好準(zhǔn)備

財聯(lián)社
2026-03-02 20:44:25
“大力神”軍機墜毀 已致15人死亡 天空下鈔票雨 民眾瘋搶!

“大力神”軍機墜毀 已致15人死亡 天空下鈔票雨 民眾瘋搶!

每日經(jīng)濟新聞
2026-02-28 14:37:58
中方的資本,已經(jīng)開始不受管控了,政府必須要提高警惕!

中方的資本,已經(jīng)開始不受管控了,政府必須要提高警惕!

大靜吖
2026-02-07 23:30:36
巴拿馬運河兩端港口運營恢復(fù),MSC完成首船裝卸

巴拿馬運河兩端港口運營恢復(fù),MSC完成首船裝卸

海事服務(wù)網(wǎng)CNSS
2026-03-02 19:58:04
伊朗稱霍爾木茲海峽已關(guān)閉 將打擊所有試圖通過的船只

伊朗稱霍爾木茲海峽已關(guān)閉 將打擊所有試圖通過的船只

財聯(lián)社
2026-03-03 04:20:36
36歲副鎮(zhèn)長開會時腦出血暈倒,除夕當(dāng)天不幸離世:上任僅10余天,最后一條動態(tài)為督促社火排練,留下3個孩子

36歲副鎮(zhèn)長開會時腦出血暈倒,除夕當(dāng)天不幸離世:上任僅10余天,最后一條動態(tài)為督促社火排練,留下3個孩子

極目新聞
2026-03-02 15:45:15
560名美軍死傷,彈藥庫劇烈大爆炸,伊朗導(dǎo)彈雨把以色列炸成火海

560名美軍死傷,彈藥庫劇烈大爆炸,伊朗導(dǎo)彈雨把以色列炸成火海

策略述
2026-03-02 14:41:25
海瀾之家被“全軍拉黑”!中標(biāo)后拒簽合同,200億撐不起一單軍需

海瀾之家被“全軍拉黑”!中標(biāo)后拒簽合同,200億撐不起一單軍需

新浪財經(jīng)
2026-03-02 16:03:13
上海著名主持人淚目!中東戰(zhàn)火下,有人平安返航、有人新婚分離、有人只想回家

上海著名主持人淚目!中東戰(zhàn)火下,有人平安返航、有人新婚分離、有人只想回家

上觀新聞
2026-03-02 15:27:27
伊朗反擊太快,只給以2小時,導(dǎo)彈從天而降,以色列民眾抱頭鼠竄

伊朗反擊太快,只給以2小時,導(dǎo)彈從天而降,以色列民眾抱頭鼠竄

書紀(jì)文譚
2026-03-02 17:24:46
王毅外長:今后世上再無“中國臺灣省”之外的任何模糊稱謂。

王毅外長:今后世上再無“中國臺灣省”之外的任何模糊稱謂。

南權(quán)先生
2026-02-02 15:59:44
《大西洋月刊》丨所有人的目光都投向了古巴

《大西洋月刊》丨所有人的目光都投向了古巴

邸報
2026-03-02 10:33:45
8小時撤離德黑蘭,沈陽男子講述離開伊朗細節(jié):當(dāng)?shù)貙χ袊擞押茫?次盤問都順利放行

8小時撤離德黑蘭,沈陽男子講述離開伊朗細節(jié):當(dāng)?shù)貙χ袊擞押茫?次盤問都順利放行

瀟湘晨報
2026-03-02 19:49:19
伊朗生死關(guān)頭,一個關(guān)鍵人物走向前臺……

伊朗生死關(guān)頭,一個關(guān)鍵人物走向前臺……

補壹刀
2026-03-02 16:08:19
78:72爆冷!世預(yù)賽B組大亂,中國男籃自挖苦坑,日本隊坐收漁利

78:72爆冷!世預(yù)賽B組大亂,中國男籃自挖苦坑,日本隊坐收漁利

行舟問茶
2026-03-02 12:06:53
全國政協(xié)委員劉永好:建議全民發(fā)放500元通用消費券 可拉動消費近2萬億元

全國政協(xié)委員劉永好:建議全民發(fā)放500元通用消費券 可拉動消費近2萬億元

財聯(lián)社
2026-03-02 10:57:04
伊朗再對美以基地發(fā)動大規(guī)模襲擊

伊朗再對美以基地發(fā)動大規(guī)模襲擊

財聯(lián)社
2026-03-01 12:32:05
“天下第一村”崩了!從人人千萬富翁,到人均欠債1300萬?

“天下第一村”崩了!從人人千萬富翁,到人均欠債1300萬?

趣味萌寵的日常
2026-03-03 01:15:43
真想來了!婚禮當(dāng)天撕戶口本,新郎發(fā)聲報警,稱新娘才是受害者!

真想來了!婚禮當(dāng)天撕戶口本,新郎發(fā)聲報警,稱新娘才是受害者!

川渝視覺
2026-03-02 23:37:41
2026-03-03 05:55:00
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
7408文章數(shù) 553關(guān)注度
往期回顧 全部

科技要聞

蘋果中國官網(wǎng)上線iPhone 17e,4499元起

頭條要聞

媒體:拉里賈尼走向前臺 四大關(guān)鍵變量將決定伊朗命運

頭條要聞

媒體:拉里賈尼走向前臺 四大關(guān)鍵變量將決定伊朗命運

體育要聞

“想要我簽名嗎” 梅西逆轉(zhuǎn)后嘲諷對手主帥

娛樂要聞

李亞鵬與哥哥和解 只有一條真心話短信

財經(jīng)要聞

油價飆升 美伊沖突將如何攪動全球經(jīng)濟

汽車要聞

國民SUV再添一員 瑞虎7L靜態(tài)體驗

態(tài)度原創(chuàng)

藝術(shù)
時尚
親子
本地
手機

藝術(shù)要聞

這四位老人的花鳥畫,竟讓人欲罷不能!

今年春天一定要擁有的4件衣服,太好看了!

親子要聞

開學(xué)了!珠海香洲:筑牢安全防線,保障托育機構(gòu)順利開園復(fù)托

本地新聞

津南好·四時總相宜

手機要聞

小米17 Ultra徠卡版全新黑銀配色預(yù)售:7999元起,10日發(fā)售

無障礙瀏覽 進入關(guān)懷版