国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

Google又發(fā)布了一篇可能改變AI未來的論文,這次它教AI擁有了記憶。

0
分享至

   前兩天,Google發(fā)了一個(gè)非常有趣的論文:

   《Nested Learning: The Illusion of Deep Learning Architectures》

  

   非常有意思,很多人戲稱,這篇論文,是《Attention is all you need (V2)》。

  

   《Attention is all you need》,神中神。

   這篇論文提出的Transformer架構(gòu),現(xiàn)在是幾乎所有大模型的底層,比如GPT、Gemini、Claude、Qwen、DeepSeek等等等等。

   2017 年的論文,到了 2025 年,引用次數(shù)已經(jīng) 17 萬+,進(jìn)入 21 世紀(jì)被引用最多的論文前十名,被正式稱為現(xiàn)代 AI 的奠基工作之一。

   而現(xiàn)在,所謂的《Attention is all you need (V2)》雖然是個(gè)純粹的戲稱,但是也能看出來,如今的大模型發(fā)展到了個(gè)瓶頸,也急需一種新方法突破的階段了。

   所以,《Nested Learning: The Illusion of Deep Learning Architectures》應(yīng)運(yùn)而生。

   有趣的是,2017年的來自于《Attention is all you need》來自于Google Research,這次,依然是Google Research。

   遙相呼應(yīng)了屬于是。

  

   在我花了一些時(shí)間讀完這篇論文后。

   我覺得我還是學(xué)到了非常多的東西,有一種我之前看DeepSeek-OCR那篇論文的美感。

   我盡可能的用大白話,來聊聊這篇論文到底說了個(gè)啥,以及它為啥可能這么牛逼。

   話不多說,直接開始。

   要理解這篇論文的牛逼之處,我們得先理解現(xiàn)在的大模型有個(gè)非常致命的缺陷。

   這個(gè)缺陷,就是:

   失憶。

   更準(zhǔn)確地說,是:

   順行性遺忘癥。

  

   我們常說,人腦這東西,最厲害的一點(diǎn),從來不是計(jì)算的多又快,有多省功耗,而是能記多久,又能多聰明。

   你肯定見過那種經(jīng)典的神經(jīng)科普。

   比如告訴你,大腦有短期記憶、長期記憶,短期記憶大概能同時(shí)存 7±2 個(gè)東西,然后很容易忘掉,長期記憶存得久,但寫入很慢,要反復(fù)出現(xiàn)、要睡覺鞏固、要和別的東西勾連,你才能記很久很久很久。

   然后呢,現(xiàn)在的神經(jīng)科學(xué)也會(huì)提到一個(gè)觀點(diǎn),就是說:

   記憶是分階段鞏固的,有在線的那一段,也有離線的那一段。

   大概就是你白天學(xué)的東西,會(huì)先在海馬體里寫個(gè)草稿,晚上睡覺的時(shí)候,大腦會(huì)在各種腦波里反復(fù)replay,慢慢把重要的東西刻進(jìn)皮層,變成真正的長期記憶。

   所以啊,睡眠不好,會(huì)讓你的記憶力越來越差,不是沒有根據(jù)的,我現(xiàn)在就能明顯的感覺到,記憶力越來越差了。。。

   但是啊,如果你的這里出問題,就會(huì)出現(xiàn)我們?cè)谏衔恼f的那個(gè)很典型的病。

   順行性遺忘癥。

   這類病人以前的記憶都在,但從某個(gè)時(shí)間點(diǎn)以后,新東西統(tǒng)統(tǒng)寫不進(jìn)長期記憶。

   他們的世界只有“很久很久以前”和“剛剛這幾分鐘”,剩下的時(shí)間一片空白,每一天都像被困在剛剛發(fā)生的循環(huán)里。

   不知道大家有沒有看過諾蘭的一個(gè)很經(jīng)典的電影《記憶碎片》。

  

   主角只能記住幾分鐘內(nèi)發(fā)生的事,一旦超過這個(gè)時(shí)間,記憶就清零了,只能靠身上的紋身和紙條來提醒自己。

   他知道自己是誰,知道自己過去的一切,但他無法形成新的、長久的記憶。

   現(xiàn)在所有的大模型,GPT-5.1也好,Gemini 3 pro也好,再牛逼的模型,現(xiàn)在本質(zhì)上都是《記憶碎片》的主角。

   它們那個(gè)龐大的、包含了半個(gè)互聯(lián)網(wǎng)知識(shí)的模型參數(shù),就是主角過去的人生記憶,也是他的長期記憶。

   而我們跟它聊天時(shí)的那個(gè)上下文窗口,就是他那幾分鐘的短期記憶。

   你在一個(gè)對(duì)話里教它一個(gè)新知識(shí),它能記住,還能舉一反三。

   但只要你關(guān)掉對(duì)話框,重新開一個(gè),再問它,它就一臉無辜地看著你:“咱倆之前聊過這個(gè)嗎?”

   這里咱們不聊ChatGPT和Gemini里面那種記憶的能力,那個(gè)本質(zhì)上是RAG,不能算從模型層面,真的記住了那些你說過的知識(shí)。

   所以,我們其實(shí)可以看到,大模型的知識(shí),被永遠(yuǎn)凍結(jié)在了預(yù)訓(xùn)練結(jié)束的那一刻。

   從那以后,它就失去了形成新長期記憶的能力。

   每一次對(duì)話都是一場絢爛的煙火,美則美矣,但消散后,什么都不會(huì)留下。

   所以,這也意味著,現(xiàn)在你能用到的

   AI,也永遠(yuǎn)無法真正地成長。

   它無法從與你的互動(dòng)中真正地了解你,也無法從解決了一個(gè)新問題后把經(jīng)驗(yàn)固化下來。

   所以,其實(shí)我們每次跟AI開啟一個(gè)新的對(duì)話,都是在和一個(gè)全新的、只有出廠設(shè)置的AI打交道。

   這里還是再強(qiáng)調(diào)一下,我說的一直都是模型層面,不是ChatGPT上面的那種記憶功能,那是工程層面,跟模型本身沒啥關(guān)系。

  

   講到這里,我相信大家,都已經(jīng)理解了,在現(xiàn)在的AI架構(gòu)之下,這個(gè)致命的弊端。

   就是,順行性遺忘。

   所以,這篇《Nested Learning》(嵌套學(xué)習(xí),簡稱NL)的論文,就是沖著這個(gè)根本問題來的。

   他們關(guān)注到了人腦里,一個(gè)特別有意思的現(xiàn)象,就是腦電波。

  

   我們的大腦里,其實(shí)是有各種不同頻率的腦電波,他們各自騎著不同的作用。

   比如睡覺時(shí)的Delta波(0.5-4Hz),放松時(shí)的Alpha波(8-12Hz),專注時(shí)的Beta波(12-30Hz)等等。

   這些不同程度的腦電波,其實(shí)都代表著不同的神經(jīng)元在處理一些不同的任務(wù)。

   比如有些神經(jīng)元在飛速地處理眼前的信息,像電腦的GPU一樣,這是高頻活動(dòng)。

   有些則在慢悠悠地整理、歸納、存儲(chǔ)信息,把短期記憶變成長期記憶,這是低頻活動(dòng)。

   所以,我們的大腦,其實(shí)一直是一個(gè)非常復(fù)雜的多頻率多層次協(xié)同工作的系統(tǒng)。

   我用開車這事來舉個(gè)例子,比如你正在學(xué)開車。

   你的最高頻系統(tǒng),是你的手腳肌肉記憶。

   方向盤往左打多少,油門踩多深,這個(gè)反應(yīng)得非常快,幾乎是毫秒級(jí)的。這是最表層的、最快的學(xué)習(xí)。

   你的中頻系統(tǒng),是你的戰(zhàn)術(shù)決策。

   比如“前面紅燈了,我該踩剎車了”、“旁邊有車要并線,我得讓一下”。這個(gè)決策過程比肌肉反應(yīng)要慢,可能是秒級(jí)的,你需要一點(diǎn)點(diǎn)時(shí)間來處理路況信息,這是中頻。

   你的低頻系統(tǒng),是你的戰(zhàn)略規(guī)劃。

   比如“我今天要去A地,導(dǎo)航顯示這條路堵車,我應(yīng)該換一條路走”。

   這個(gè)學(xué)習(xí)和決策過程就更慢了,你可能在出發(fā)前就想好了,路上還會(huì)根據(jù)情況調(diào)整,這是低頻。

   你的最低頻系統(tǒng),是你的核心駕駛理念和能力。

   通過幾個(gè)月的練習(xí),你從一個(gè)新手變成了老司機(jī)。

   這個(gè)學(xué)會(huì)開車的過程,徹底改變了你大腦中關(guān)于駕駛的神經(jīng)連接,而這個(gè)變化是非常緩慢的,是以天、周、月為單位的,用AI的話說,就是,你的駕駛模型被重塑了。

   從這個(gè)學(xué)會(huì)開車這么一個(gè)小事上來說,你應(yīng)該能發(fā)現(xiàn),

   我們?nèi)祟惖膶W(xué)習(xí),天然就是嵌套式的,也是分層次分頻率的。

   我們不會(huì)用思考人生哲學(xué)的腦回路去控制踩剎車的肌肉,也不會(huì)用肌肉記憶去規(guī)劃一次長途旅行。

   現(xiàn)在的以Transformer為首的大模型架構(gòu),問題就出在這。它雖然有很多層,但本質(zhì)上,它是個(gè)單頻系統(tǒng)。

   在訓(xùn)練的時(shí)候,所有參數(shù)的更新節(jié)奏基本是一致的,訓(xùn)練結(jié)束后,整個(gè)系統(tǒng)就被鎖死,所有頻率都?xì)w零了。

   他再也沒有辦法學(xué)習(xí)了。

   而再《Nested Learning》這套框架下,論文又提出了一個(gè)新的模型模塊 ,HOPE,名字非常好聽,叫希望。

  

   HOPE里面,混了兩個(gè)東西,一部分是會(huì)自我修改權(quán)重的序列模型,一部分是多時(shí)間尺度的連續(xù)記憶帶(Continuum Memory System)。

   從而,讓HOPE,擁有了帶自我更新機(jī)制的記憶單元。

   它要把一個(gè)AI模型,明確地拆分成不同更新頻率的層級(jí)。

   再這套框架下,AI在跟你對(duì)話的時(shí)候:

   它的高頻層,在飛速處理你說的每個(gè)詞,理解你的意圖,生成回復(fù),這部分記憶是臨時(shí)的,對(duì)話結(jié)束可能就忘了。

   它的中頻層則在以一個(gè)稍慢的速度,分析你這整個(gè)對(duì)話的主題、你的情緒、你的知識(shí)盲區(qū),試圖形成一個(gè)關(guān)于這次互動(dòng)的概要記憶。

   它的低頻層則更慢,它在整合過去一段時(shí)間里,跟你的所有互動(dòng)。它可能會(huì)發(fā)現(xiàn):“哦,這個(gè)用戶最近總是在問關(guān)于古典音樂的問題,而且他似乎對(duì)巴赫特別感興趣。我應(yīng)該把‘該用戶是古典音樂愛好者’這個(gè)標(biāo)簽存入關(guān)于他的長期檔案里。”

   這個(gè)過程,就非常非常像人腦的記憶鞏固機(jī)制了。

   我們白天經(jīng)歷了很多事,這些都是碎片化的短期記憶,儲(chǔ)存在我們大腦的海馬體里。

   到了晚上睡覺的時(shí)候,大腦會(huì)像放電影一樣回放這些記憶片段(再論文里叫offline consolidation),把重要的信息篩選出來,然后寫入到大腦皮層,成為穩(wěn)定的長期記憶。

   嵌套學(xué)習(xí),就是給了AI一個(gè)睡覺和反思的能力。

   可以讓AI,成為一個(gè)可以日積月累、不斷沉淀的學(xué)習(xí)者。

   講到這里,你可能立刻會(huì)有一個(gè)疑問。

   就是這個(gè)ChatGPT的記憶。

  

   你可能會(huì)說:“等等,現(xiàn)在的大模型不是已經(jīng)有記憶了嗎?我告訴它我是一個(gè)素食主義者,它就能記住,下次會(huì)給我推薦素食餐廳。這不就是你說的那個(gè)低頻層在起作用嗎?”

   但這個(gè)地方,我想說,這其實(shí)是個(gè)隨身帶個(gè)筆記本和記在了腦子里的根本區(qū)別。

   你看到的ChatGPT的記憶功能,本質(zhì)上就是一個(gè)筆記本,當(dāng)你告訴它一個(gè)信息,比如“我是個(gè)大呆逼”,它并沒有真正把這個(gè)信息學(xué)進(jìn)它那個(gè)巨大的神經(jīng)網(wǎng)絡(luò)大腦里去。

   它的核心模型,那上萬億個(gè)參數(shù),一個(gè)子兒都沒動(dòng)。

   它做的是,把“用戶是個(gè)大呆逼”這個(gè)事實(shí),提煉出來,存進(jìn)一個(gè)外掛的數(shù)據(jù)庫里,這個(gè)就是非常常見的一個(gè)技術(shù),叫檢索增強(qiáng)生成,也就是RAG。

   下次你跟它聊天,它會(huì)先在這個(gè)數(shù)據(jù)庫里迅速翻一下,找到跟你相關(guān)的信息,然后把“已知該用戶是個(gè)大呆逼”這句話,悄悄地、自動(dòng)地塞進(jìn)你們對(duì)話的背景信息里,再來回答你的問題。

   所以,它的大腦本身還是那個(gè)失憶的大腦。

   它只是擁有了一個(gè)越來越厚的、關(guān)于你的外部參考資料庫。

   它不是真的記得,而是在每次對(duì)話前,都先看一遍筆記再來回答,僅此而已。

   這很強(qiáng)大,非常實(shí)用,但它有極限。這個(gè)極限就是,它無法將這些零散的知識(shí)點(diǎn)內(nèi)化為真正的理解或直覺。

   而《Nested Learning》提出的設(shè)想,是真正地去重塑大腦。

   當(dāng)它的低頻層運(yùn)行時(shí),它不是往外掛數(shù)據(jù)庫里寫一行字。

   它是用你和它的互動(dòng)數(shù)據(jù),去微調(diào)和更新它自己神經(jīng)網(wǎng)絡(luò)內(nèi)部的參數(shù)。

   這其實(shí)就像我們自己學(xué)習(xí)新技能,通過反復(fù)練習(xí),大腦里負(fù)責(zé)這項(xiàng)技能的神經(jīng)突觸被真正地加強(qiáng)、重塑了。

   再舉個(gè)例子,一個(gè)鋼琴家。

   給他一本新樂譜,他可以看著譜子(外部記憶)彈出來,彈得可能很準(zhǔn),但也許沒啥感情,你把樂譜拿走,他就彈不出來了,這就是現(xiàn)在ChatGPT的記憶。

   但,如果這位鋼琴家花了一個(gè)月的時(shí)間練習(xí)這首曲子,他早就已經(jīng)扔掉樂譜,曲子已經(jīng)融入了他的肌肉記憶和情感理解,他的大腦和手指的神經(jīng)也完全緊密連接。

   他不僅能彈,還能即興變奏,還能跟你探討這首曲子背后的情感。這就是嵌套學(xué)習(xí)所追求的境界。

   所以,你看,這完全是兩個(gè)層面的事。

   現(xiàn)有記憶,是一種行為上的模擬。它通過外部工具,讓AI看起來像有記憶,但其實(shí)AI的世界觀和底層邏輯是紋絲不動(dòng)的。

   而這個(gè)嵌套學(xué)習(xí)的方法,是一種結(jié)構(gòu)上的成長。它能讓AI的神經(jīng)網(wǎng)絡(luò)本身發(fā)生改變,把新的信息和經(jīng)驗(yàn),從零散的數(shù)據(jù)點(diǎn)內(nèi)化成模型自身能力的一部分,從而,讓知識(shí),真正變成了智慧。

   這就是為什么這篇論文,為啥讓我如此令人興奮的原因。

   這才是未來,真正的AI。

   一個(gè)真正懂你的個(gè)人助理,你不用每次都跟它重復(fù)你的個(gè)人偏好和背景信息,它記得你上次跟它聊過你的寵物狗,記得你對(duì)貓毛過敏,記得你正在籌備下個(gè)月的旅行。

   它跟你的互動(dòng)越多,就越懂你。

   這才是真正的。

   Personal AI。

   而在真正的評(píng)測里,論文作者拉來了Transformer++、RetNet、DeltaNet、Titans那些模型,在同樣的參數(shù)量和訓(xùn)練數(shù)據(jù)下,HOPE在一串常見評(píng)測上,平均成績都是第一檔。

  

   這條路,是有可能成功的。

   萬物皆是嵌套。

   一個(gè)細(xì)胞的生命周期,嵌套在一個(gè)器官的運(yùn)轉(zhuǎn)中。

   一個(gè)器官的運(yùn)轉(zhuǎn),嵌套在一個(gè)人的生命里。

   一個(gè)人的生命,嵌套在一部家族史里。

   一部家族史,又嵌套在一個(gè)文明的興衰中。

   每一層都有自己的節(jié)拍和韻律,它們彼此影響,共同構(gòu)成了這個(gè)復(fù)雜而美妙的世界。

   也許,我們大腦幾百萬年進(jìn)化出來的學(xué)習(xí)機(jī)制,可能真的,非常地道。

   而AI要做的,也許不是另起爐灶,而是更謙卑地去模仿這種嵌套的、多層次的、充滿韻律感的智慧。

   也許,當(dāng)AI真的學(xué)會(huì)了遺忘,學(xué)會(huì)丟棄不重要的信息,學(xué)會(huì)了沉淀,學(xué)會(huì)了鞏固重要的記憶,學(xué)會(huì)了在喧囂中保持一份緩慢的思考時(shí)。

   它才真正開始擁有智能的幻覺。

   甚至。

   靈魂的雛形。

   這條路還很長,但想想就讓人激動(dòng),不是嗎?

  以上,既然看到這里了,如果覺得不錯(cuò),隨手點(diǎn)個(gè)贊、在看、轉(zhuǎn)發(fā)三連吧,如果想第一時(shí)間收到推送,也可以給我個(gè)星標(biāo)?~謝謝你看我的文章,我們,下次再見。

  >/ 作者:卡茲克

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
瑞典軍工發(fā)布導(dǎo)彈視頻:1枚導(dǎo)彈命中摧毀中國052d型驅(qū)逐艦!

瑞典軍工發(fā)布導(dǎo)彈視頻:1枚導(dǎo)彈命中摧毀中國052d型驅(qū)逐艦!

達(dá)文西看世界
2026-01-11 19:10:20
伊朗政府宣布全國哀悼三天

伊朗政府宣布全國哀悼三天

每日經(jīng)濟(jì)新聞
2026-01-12 07:23:15
多地市委領(lǐng)導(dǎo)班子有調(diào)整

多地市委領(lǐng)導(dǎo)班子有調(diào)整

上觀新聞
2026-01-12 17:34:08
女孩不會(huì)殺豬上千網(wǎng)友驅(qū)車幫忙,有人帶著9頭活豬前來:小的給她養(yǎng),大的可以宰了招待大家

女孩不會(huì)殺豬上千網(wǎng)友驅(qū)車幫忙,有人帶著9頭活豬前來:小的給她養(yǎng),大的可以宰了招待大家

極目新聞
2026-01-12 16:00:55
特朗普發(fā)圖自稱委內(nèi)瑞拉代總統(tǒng)

特朗普發(fā)圖自稱委內(nèi)瑞拉代總統(tǒng)

界面新聞
2026-01-12 11:13:10
我連夜啃完馬斯克這173分鐘視頻,很震撼

我連夜啃完馬斯克這173分鐘視頻,很震撼

販財(cái)局
2026-01-11 18:19:53
在隱蔽場所吃喝,項(xiàng)目有油水就撈,唐仁健貪腐細(xì)節(jié)曝光

在隱蔽場所吃喝,項(xiàng)目有油水就撈,唐仁健貪腐細(xì)節(jié)曝光

大風(fēng)新聞
2026-01-11 21:32:18
西安交大匿名校友伉儷向母校捐贈(zèng)1億元,該校此前有多對(duì)伉儷單次捐贈(zèng)1億元,復(fù)旦曾收到10億元捐贈(zèng)

西安交大匿名校友伉儷向母校捐贈(zèng)1億元,該校此前有多對(duì)伉儷單次捐贈(zèng)1億元,復(fù)旦曾收到10億元捐贈(zèng)

極目新聞
2026-01-12 17:26:12
新華社消息|古巴國家主席:把一切都當(dāng)作生意的人,沒資格對(duì)古巴指手畫腳

新華社消息|古巴國家主席:把一切都當(dāng)作生意的人,沒資格對(duì)古巴指手畫腳

新華社
2026-01-12 10:30:34
網(wǎng)傳某“降糖”中藥摻入西藥二甲雙胍,央視20年前就曝過類似案例

網(wǎng)傳某“降糖”中藥摻入西藥二甲雙胍,央視20年前就曝過類似案例

爆角追蹤
2026-01-12 11:00:49
高市斗不過中國,邀6國反華,馬克龍打退堂鼓,得罪中方代價(jià)太重

高市斗不過中國,邀6國反華,馬克龍打退堂鼓,得罪中方代價(jià)太重

基斯默默
2026-01-12 14:07:46
悲催!中山一成立20年工廠關(guān)停,稱產(chǎn)業(yè)持續(xù)惡劣,與員工協(xié)商補(bǔ)償

悲催!中山一成立20年工廠關(guān)停,稱產(chǎn)業(yè)持續(xù)惡劣,與員工協(xié)商補(bǔ)償

火山詩話
2026-01-12 09:41:38
齊河縣委原書記孫修煒,被開除黨籍和公職

齊河縣委原書記孫修煒,被開除黨籍和公職

魯中晨報(bào)
2026-01-12 17:29:24
為什么不能去干涉別人的因果?網(wǎng)友:我30多了才明白這個(gè)道理

為什么不能去干涉別人的因果?網(wǎng)友:我30多了才明白這個(gè)道理

帶你感受人間冷暖
2026-01-11 00:05:11
手戴1000多萬名表,坐擁3.6億私人飛機(jī),“滬上皇”秦奮啥來頭?

手戴1000多萬名表,坐擁3.6億私人飛機(jī),“滬上皇”秦奮啥來頭?

小熊侃史
2026-01-12 07:40:07
漲瘋了,A股一天創(chuàng)2項(xiàng)記錄!老股民夢(mèng)回2015

漲瘋了,A股一天創(chuàng)2項(xiàng)記錄!老股民夢(mèng)回2015

說財(cái)貓
2026-01-12 17:23:57
美聯(lián)儲(chǔ)主席鮑威爾回應(yīng)遭刑事調(diào)查:大樓翻修工程只是借口,本質(zhì)是關(guān)于利率政策制定

美聯(lián)儲(chǔ)主席鮑威爾回應(yīng)遭刑事調(diào)查:大樓翻修工程只是借口,本質(zhì)是關(guān)于利率政策制定

澎湃新聞
2026-01-12 09:24:26
米萊交出亮眼答卷:阿根廷償清全部美債 貧困人口減半支持率破6成

米萊交出亮眼答卷:阿根廷償清全部美債 貧困人口減半支持率破6成

老馬拉車莫少裝
2026-01-11 22:31:11
拍照被喝止!市民發(fā)問地鐵站內(nèi)到底能否拍照?官方回應(yīng)

拍照被喝止!市民發(fā)問地鐵站內(nèi)到底能否拍照?官方回應(yīng)

南方都市報(bào)
2026-01-12 16:57:09
起拍價(jià)1元!一輛寶馬轎車將被司法拍賣:系涉刑資產(chǎn),初次登記日期為2001年

起拍價(jià)1元!一輛寶馬轎車將被司法拍賣:系涉刑資產(chǎn),初次登記日期為2001年

紅星新聞
2026-01-12 15:30:12
2026-01-12 18:52:49
數(shù)字生命卡茲克 incentive-icons
數(shù)字生命卡茲克
反復(fù)橫跳于不同的AI領(lǐng)域,努力分享一些很酷的AI干貨
437文章數(shù) 492關(guān)注度
往期回顧 全部

科技要聞

面對(duì)SpaceX瘋狂“下餃子” 中國正面接招

頭條要聞

夫妻匿名向西安交大捐贈(zèng)1億元 此前有多對(duì)伉儷捐贈(zèng)1億

頭條要聞

夫妻匿名向西安交大捐贈(zèng)1億元 此前有多對(duì)伉儷捐贈(zèng)1億

體育要聞

聰明的球員,不是教練教出來的

娛樂要聞

閆學(xué)晶:脫離群眾太久 忘了自己的根

財(cái)經(jīng)要聞

倍輕松信披迷霧 實(shí)控人占用資金金額存疑

汽車要聞

增配不加價(jià) 北京現(xiàn)代 第五代 勝達(dá)2026款上市

態(tài)度原創(chuàng)

本地
數(shù)碼
時(shí)尚
手機(jī)
公開課

本地新聞

云游內(nèi)蒙|“包”你再來?一座在硬核里釀出詩意的城

數(shù)碼要聞

Ventiva展示無扇散熱筆記本電腦參考設(shè)計(jì),支持44.3W平臺(tái)功耗

伊姐周日熱推:電視劇《御賜小仵作2》;電視劇《偶像瘋子》......

手機(jī)要聞

真我Neo8全球首發(fā)165Hz三星蒼穹屏:M14發(fā)光材料!峰值亮度6500nit

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版