国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

「星際之門」對撞「線蟲智慧」,誰代表AI的未來?

0
分享至


線蟲的大腦只有人類頭發(fā)絲粗細(xì),但這一微小器官卻能在覓食時精準(zhǔn)協(xié)調(diào)和計算各種復(fù)雜運動。麻省理工學(xué)院的計算機(jī)科學(xué)家Daniela Rus感嘆道:“當(dāng)我觀察線蟲的大腦時,它那深刻的優(yōu)雅和高效令我深深震撼!背鲇趯蟲大腦的著迷,Rus與人共同創(chuàng)立了Liquid AI,該公司致力于構(gòu)建一種受其啟發(fā)的新型AI。

Rus代表了一類研究人員的看法,他們認(rèn)為賦予傳統(tǒng)AI以更多的類腦屬性(brainlike),可以創(chuàng)造出更精簡、更敏捷或許更智能的技術(shù)。正如哈佛大學(xué)的計算神經(jīng)科學(xué)家Kanaka Rajan所言,“要真正改進(jìn)AI,我們需要結(jié)合來自神經(jīng)科學(xué)的見解!

英特爾加州圣克拉拉神經(jīng)形態(tài)計算實驗室主任Mike Davies認(rèn)為,這種神經(jīng)形態(tài)學(xué)(neuromorphic)技術(shù)可能不會完全取代普通計算機(jī)或傳統(tǒng)AI模型——未來將是一個多系統(tǒng)共存的時代。

模仿大腦并非新想法。20世紀(jì)50年代,神經(jīng)生物學(xué)家Frank Rosenblatt發(fā)明了感知機(jī)(perceptron)。這臺機(jī)器是大腦神經(jīng)元通信方式的高度簡化模型,包含一層相互連接的人工神經(jīng)元,每個神經(jīng)元執(zhí)行單一的數(shù)學(xué)函數(shù)。

幾十年后,感知機(jī)的基本設(shè)計理念啟發(fā)了深度學(xué)習(xí)——這是一種通過多層嵌套的人工神經(jīng)元以識別數(shù)據(jù)復(fù)雜模式的計算技術(shù)。這些人工神經(jīng)元依次運算、輸出,把數(shù)據(jù)傳遞出去。但這種方法無法比擬大腦靈活適應(yīng)新情況或從單一經(jīng)驗中學(xué)習(xí)的能力。相反,當(dāng)今大多數(shù)AI模型需要消耗大量數(shù)據(jù)和能源來學(xué)習(xí),才可以執(zhí)行令人印象深刻的任務(wù),例如自動駕駛汽車。

“人工神經(jīng)網(wǎng)絡(luò)只是變大、變大、變得更大,”Numenta公司首席技術(shù)官Subutai Ahmad指出,傳統(tǒng)的AI模型“太過依賴蠻力且低效”。他們正試圖從人腦網(wǎng)絡(luò)中尋找提高效率的方法。

2025年1月,特朗普政府宣布了“星際之門”(Stargate)項目,計劃投入5000億美元用于建設(shè)新的數(shù)據(jù)中心,以支持能源消耗巨大的AI模型。但中國公司DeepSeek發(fā)布的模型卻試圖打破這一趨勢,該模型用更少的數(shù)據(jù)和能源復(fù)制了聊天機(jī)器人的功能。蠻力與效率究竟誰將勝出,尚不明確。

與此同時,神經(jīng)形態(tài)計算專家們一直致力于讓硬件、架構(gòu)和算法更加“類腦”。田納西大學(xué)諾克斯維爾分校的計算機(jī)科學(xué)家Catherine Schuman表示,“人們不斷提出新概念和創(chuàng)新硬件實現(xiàn)技術(shù)!边@些進(jìn)步主要促進(jìn)了生物大腦研究和傳感器開發(fā),但尚未成為主流AI的一部分——至少目前還沒有。

下面列舉了四個具有改善AI潛力的神經(jīng)形態(tài)系統(tǒng)。


使人工神經(jīng)元更加逼真

真實的神經(jīng)元是具有多個部分的復(fù)雜活細(xì)胞。它們不斷從環(huán)境中接收信號,當(dāng)電荷波動超過特定閾值時,觸發(fā)動作電位,如此在細(xì)胞內(nèi)外及相鄰神經(jīng)元間傳播電脈沖。神經(jīng)形態(tài)計算工程師已經(jīng)成功地在人工神經(jīng)元中模擬了這種模式。這些神經(jīng)元構(gòu)成了脈沖神經(jīng)網(wǎng)絡(luò)(Spike neutral network,SNN),通過在網(wǎng)絡(luò)中產(chǎn)生離散的電脈沖來傳遞信息,模擬真實大腦的信號傳導(dǎo)方式。這樣的網(wǎng)絡(luò)可以通過軟件建模,也可以在硬件層面實現(xiàn)。

而傳統(tǒng)AI的深度學(xué)習(xí)網(wǎng)絡(luò),并不會模擬電脈沖。相反,在這些模型中,每個人工神經(jīng)元被描述為“一個具有單一類型信息處理的小球”,瑞士伯爾尼大學(xué)的神經(jīng)形態(tài)計算研究員Mihai Petrovici解釋說,這些“小球”通過“參數(shù)”的方式相互連接。通常,網(wǎng)絡(luò)中的每個輸入都會同時觸發(fā)所有參數(shù),這是低效的。而DeepSeek則將傳統(tǒng)AI的深度學(xué)習(xí)網(wǎng)絡(luò)劃分為可以單獨激活的小部分,這更加高效。

真實的大腦與人工的脈沖網(wǎng)絡(luò),在效率的實現(xiàn)方式上還是略有不同的:

  • 真實大腦中,每個神經(jīng)元并非與所有其他神經(jīng)元相連。

  • 只有當(dāng)電信號達(dá)到特定閾值時,神經(jīng)元才會放電并將信息傳遞給其連接。

  • 其網(wǎng)絡(luò)以稀疏方式激活,而非同時全部激活。

但重要的是,大腦和脈沖網(wǎng)絡(luò)將記憶和處理過程相結(jié)合。Petrovici介紹說,“代表記憶的連接,同時也是執(zhí)行計算的元件!


?圖1. 典型的深度學(xué)習(xí)網(wǎng)絡(luò)是密集的,其中所有同質(zhì)化的“神經(jīng)元”之間都存在相互連接。而大腦網(wǎng)絡(luò)是稀疏的,其神經(jīng)元可以承擔(dān)不同的角色。神經(jīng)科學(xué)家仍在研究復(fù)雜的大腦網(wǎng)絡(luò)實際上是如何組織的。

大多數(shù)AI運行所需的主流計算機(jī)硬件常將存儲和計算分離。AI處理通常在圖形處理單元(GPU)中進(jìn)行,而存儲則由隨機(jī)存取存儲器(RAM)等其他硬件組件負(fù)責(zé)。這種分離雖然簡化了計算機(jī)架構(gòu),但在各個組件之間來回傳輸數(shù)據(jù)的方式會消耗大量能量并減慢計算速度。

神經(jīng)形態(tài)計算機(jī)芯片BrainScaleS-2則結(jié)合了這些高效特性,在硬件層面物理構(gòu)建了稀疏連接的脈沖神經(jīng)元,使神經(jīng)連接同時執(zhí)行存儲及計算功能[1]。


? 圖2. BrainScaleS-2 計算芯片的構(gòu)造旨在模擬大腦的工作方式。它包含 512 個模擬神經(jīng)元,這些神經(jīng)元通過多達(dá) 212,000 個突觸相互連接。 圖源:海德堡大學(xué)

BrainScaleS-2是“人類大腦計劃”(Human Brain Project)的開發(fā)成果之一,該項為期10年的計劃旨在通過計算機(jī)模擬來理解人腦。但一些研究人員將關(guān)注投向“如何應(yīng)用該技術(shù)使AI更加高效”。

例如,Petrovici訓(xùn)練了不同的AI玩電子游戲“乒乓球”(Pong)。結(jié)果顯示,在BrainScaleS-2硬件上運行的脈沖網(wǎng)絡(luò),其能耗僅為CPU上運行相同網(wǎng)絡(luò)模擬的千分之一。更具說服力的是與GPU對比的測試結(jié)果:研究團(tuán)隊發(fā)現(xiàn),訓(xùn)練脈沖系統(tǒng)識別手寫文字所需的能耗僅為典型系統(tǒng)(GPU運行的深度神經(jīng)網(wǎng)絡(luò))的百分之一[2]。

但要讓脈沖神經(jīng)網(wǎng)絡(luò)硬件在AI領(lǐng)域成為真正的參與者,它必須實現(xiàn)規(guī)模化并廣泛應(yīng)用。而一旦實現(xiàn),屆時它將“為計算帶來更廣泛的價值”,Schuman對此寄予厚望。


連接數(shù)十億個脈沖神經(jīng)元

目前,BrainScaleS-2的研發(fā)團(tuán)隊并無擴(kuò)大芯片規(guī)模的計劃,但英特爾和IBM等全球科技巨頭卻已展開布局。

IBM于2023年推出了神經(jīng)形態(tài)芯片NorthPole[3],該芯片將內(nèi)存和處理相結(jié)合以節(jié)省能源。英特爾則于2024年發(fā)布了Hala Point,新墨西哥州桑迪亞國家實驗室的計算機(jī)科學(xué)家Craig Vineyard稱之為“目前世界上最大的神經(jīng)形態(tài)系統(tǒng)”。


? 圖3. NorthPole 是一種神經(jīng)推理架構(gòu),通過消除芯片外內(nèi)存、將計算與芯片上內(nèi)存交織,并在外部表現(xiàn)為一個主動式內(nèi)存芯片來模糊存儲與計算的邊界。在ResNet50基準(zhǔn)圖像分類網(wǎng)絡(luò)中,相對于采用相同制程12納米工藝技術(shù)的GPU,NorthPole實現(xiàn)了每瓦特幀每秒(FPS)這一能量指標(biāo)25倍的提升。圖源:research.ibm.com


? 圖4. Hala Point 是行業(yè)內(nèi)首個擁有11.5億神經(jīng)元和1280億個突觸,分布在140,544個神經(jīng)形態(tài)處理核心上,最大功耗為2,600瓦的神經(jīng)形態(tài)系統(tǒng)。Hala Point可支持高達(dá)200萬億次運算/秒,即20petaops,在執(zhí)行傳統(tǒng)深度神經(jīng)網(wǎng)絡(luò)時,其效率超過15萬億8位運算/秒/瓦特(TOPS/W),以傳統(tǒng)CPU和GPU架構(gòu)快50倍的速度,并消耗100倍更少的能量。圖源:newsroom.intel.com

Vineyard表示,盡管這是一個驚人的突破,該系統(tǒng)看起來并沒有什么特別之處。Hala Point被放置在一個行李箱大小的盒子中。然而,其內(nèi)部集成了1128塊英特爾Loihi 2神經(jīng)形態(tài)芯片,模擬神經(jīng)元數(shù)量達(dá)11.5億個,這個數(shù)字創(chuàng)造了新紀(jì)錄,與貓頭鷹大腦中的神經(jīng)元數(shù)量大致相當(dāng)。

類似于BrainScaleS-2,每塊Loihi 2芯片都內(nèi)置一個硬件版本的脈沖神經(jīng)網(wǎng)絡(luò)。這種模擬脈沖網(wǎng)絡(luò)同樣采用稀疏性設(shè)計,將存儲和處理相結(jié)合。Schuman強(qiáng)調(diào),這種神經(jīng)形態(tài)計算機(jī)與常規(guī)計算機(jī)具有“本質(zhì)上不同的計算特性”。

正是這些獨特計算特性使Hala Point的效能遠(yuǎn)超典型計算機(jī)硬件。Davies自信地表示:“我們實現(xiàn)的效率水平,確實大幅領(lǐng)先于當(dāng)前GPU技術(shù)所能達(dá)到的水平。”

2024年,Davies團(tuán)隊展示了Loihi 2硬件在運行標(biāo)準(zhǔn)深度學(xué)習(xí)算法時的顯著節(jié)能優(yōu)勢。研究人員針對多項音頻和視頻處理任務(wù),改造了其深度學(xué)習(xí)算法,使其能夠在新型脈沖硬件上高效運行。Davies解釋說,這一改造過程“為網(wǎng)絡(luò)活動引入了稀疏性特征”。

常規(guī)數(shù)字計算機(jī)上運行的深度學(xué)習(xí)網(wǎng)絡(luò),多會將每一幀的音頻或視頻都作為全新的信息處理。而脈沖硬件則能“保留一些之前出現(xiàn)的信息”,Davies說,當(dāng)連續(xù)幀內(nèi)容不變時,系統(tǒng)無需從頭開始計算,而是“在沒有顯著變化時,讓網(wǎng)絡(luò)盡可能處于低活躍狀態(tài)。”在視頻處理任務(wù)中,運行“稀疏化”深度學(xué)習(xí)算法的Loihi 2芯片,其能耗僅為運行常規(guī)算法的GPU的1/150[4]。

音視頻測試結(jié)果表明,特定架構(gòu)能夠良好運行某種深度學(xué)習(xí)算法。但是,通過多種方式重新配置在Loihi 2和BrainScaleS-2中的脈沖神經(jīng)網(wǎng)絡(luò),開發(fā)者可以構(gòu)建在硬件上不同實現(xiàn)方式的新型網(wǎng)絡(luò)架構(gòu);谶@些架構(gòu),他們還可以實現(xiàn)不同種類的算法。

目前研究者仍在探索哪種算法與架構(gòu)的組合,能最大化發(fā)揮該硬件的潛力并實現(xiàn)最佳效能比。2025年1月的一篇論文提出了一種脈沖網(wǎng)絡(luò)神經(jīng)元建模的新方法(梯度下降算法),該方法考慮了脈沖形狀及其時序特性。這一方法使節(jié)能型脈沖系統(tǒng)能夠應(yīng)用主流AI成功采用的某種學(xué)習(xí)技術(shù)[5]。

最適合神經(jīng)形態(tài)硬件的算法,可能尚未發(fā)明出來!澳乔∏∈亲盍钊伺d奮的部分,”桑迪亞國家實驗室的神經(jīng)科學(xué)家James Aimone表示,這項技術(shù)潛力巨大,能夠讓未來的計算“更加節(jié)能且強(qiáng)大。”


設(shè)計一個適應(yīng)性“大腦”

神經(jīng)科學(xué)家之間存在一個共識,活體大腦最重要的特征之一是隨時隨地學(xué)習(xí)的能力。而實現(xiàn)這一點并不需要一個很大的腦。線蟲(C. elegans)是首批完全繪制出大腦結(jié)構(gòu)的動物之一,它擁有302個神經(jīng)元和大約7,000個突觸,這些結(jié)構(gòu)就能支持它在探索世界的過程中持續(xù)、高效地學(xué)習(xí)。


? 圖5. 線蟲及其腦中神經(jīng)元

2017年,Ramin Hasani在研究生期間研究了秀麗隱桿線蟲(C. elegans)的學(xué)習(xí)方式,并致力于用計算機(jī)軟件模擬科學(xué)家認(rèn)知中的線蟲大腦。而彼時,Rus正在訓(xùn)練包含數(shù)十萬個人工神經(jīng)元和五十萬個參數(shù)的自動駕駛汽車的AI模型,她在一次學(xué)術(shù)會議期間同Hasani的導(dǎo)師一起跑步時聽說了這項工作。Rus意識到,如果蟲子不需要龐大的網(wǎng)絡(luò)就能學(xué)習(xí),那么AI模型或許也能用較小的網(wǎng)絡(luò)達(dá)到同樣的效果。

于是,她邀請了Hasani和他的一位同事搬到MIT,共同開展了一系列項目,為自動駕駛汽車和無人機(jī)提供參數(shù)更少且適應(yīng)性更強(qiáng)的“類線蟲大腦”。最終,團(tuán)隊研發(fā)出了一套名為“液態(tài)神經(jīng)網(wǎng)絡(luò)”(liquid neural network)的AI算法。哈佛神經(jīng)科學(xué)家Rajan評價稱,“你可以把這個看作是一種新的AI物種”。

標(biāo)準(zhǔn)的深度學(xué)習(xí)網(wǎng)絡(luò)盡管規(guī)模龐大,僅在開發(fā)過程中的訓(xùn)練階段進(jìn)行學(xué)習(xí)。當(dāng)訓(xùn)練完成后,網(wǎng)絡(luò)的參數(shù)就無法改變,也就是Rus所說的“模型凍結(jié)”。液態(tài)神經(jīng)網(wǎng)絡(luò)顧名思義,更加靈活。盡管它們采用了幾種與標(biāo)準(zhǔn)深度學(xué)習(xí)相同的技術(shù),但這些新型網(wǎng)絡(luò)可以在隨時間推移中調(diào)整和改變其參數(shù)。Rus表示,它們會“根據(jù)所接收的輸入信息,進(jìn)行學(xué)習(xí)和適應(yīng)……就像生物系統(tǒng)一樣”。

為了設(shè)計這個新算法,Hasani和他的團(tuán)隊編寫了一系列數(shù)學(xué)方程式,來模擬線蟲神經(jīng)元響應(yīng)時變信息的激活模式。這些方程式控制了液態(tài)神經(jīng)網(wǎng)絡(luò)的動力學(xué)行為。

這類方程式以難解而聞名,但該團(tuán)隊找到了一種近似解的方法,使網(wǎng)絡(luò)得以實時運行[6]。Rajan評價這一解決方案是“非凡的”。

2023年,Rus、Hasani及其同事展示了液態(tài)神經(jīng)網(wǎng)絡(luò)相較許多更大的典型AI模型在適應(yīng)新情況方面的優(yōu)勢[7]。該團(tuán)隊訓(xùn)練了兩種液態(tài)神經(jīng)網(wǎng)絡(luò)和四種典型深度學(xué)習(xí)網(wǎng)絡(luò),來讓無人機(jī)能飛向樹林中不同的目標(biāo)物體。訓(xùn)練完成后,他們將其中一個訓(xùn)練對象——一把紅色椅子——放入完全不同的環(huán)境(包括露臺和建筑物旁的草坪)中。結(jié)果顯示,最小規(guī)模的液態(tài)網(wǎng)絡(luò)(僅包含34個人工神經(jīng)元和約12,000個參數(shù)),其表現(xiàn)超越了測試中最大的標(biāo)準(zhǔn)AI網(wǎng)絡(luò)(包含約250,000個參數(shù))。


? 圖6. Liquid AI 官網(wǎng). 該公司開發(fā)非transformer的液態(tài)基礎(chǔ)模型(LFM, Liquid Foundation Models),產(chǎn)品包括4.5億參數(shù),可在終端設(shè)備運行的視頻理解模型LFM2-VL-450M.

該團(tuán)隊在此期間創(chuàng)立了Liquid AI公司,并與美國國防高級研究計劃局合作,測試其模型駕駛真實飛機(jī)。該公司還進(jìn)一步擴(kuò)大了其液態(tài)神經(jīng)網(wǎng)絡(luò)的模型規(guī)模,以直接與常規(guī)深度學(xué)習(xí)競爭。2025年1月,該公司發(fā)布了LFM-7B,這是一種擁有70億參數(shù)的液態(tài)神經(jīng)網(wǎng)絡(luò),能夠根據(jù)提示詞生成答案。該團(tuán)隊報告稱,該網(wǎng)絡(luò)在性能上優(yōu)于同等規(guī)模的典型語言模型。


? 圖7. LFM-7B和同尺寸模型的性能對比。圖源:liquid.ai

Rus表示,“我對Liquid AI感到興奮,我相信它能夠改變AI和計算的未來!

這種方法并非在所有方面都優(yōu)于主流AI,特別是在能耗方面。正如Rajan所言,液態(tài)神經(jīng)網(wǎng)絡(luò)的持續(xù)適應(yīng)機(jī)制其實屬于“計算密集型”系統(tǒng)。盡管如此,這種方法“代表著向更真實的AI邁出了重要一步”,越來越接近于模擬人腦。


基于人腦結(jié)構(gòu)

當(dāng)Rus參考線蟲大腦開展研究時,另一群人則從人腦的一個特殊區(qū)域中獲得了靈感,這個區(qū)域就是覆蓋大腦表面的褶皺組織——新皮層。

Rajan介紹,“新皮層是大腦進(jìn)行高級思考的動力源,它是感覺信息、決策和抽象推理匯聚的地方。”

這一腦區(qū)由六層薄薄的水平細(xì)胞層構(gòu)成,這些細(xì)胞層組成數(shù)萬個的垂直結(jié)構(gòu),稱為“皮質(zhì)柱”(cortical columns)。每個皮質(zhì)柱包含數(shù)百個垂直微柱,其中排列著約50,000到 100,000個神經(jīng)元。

神經(jīng)科學(xué)家兼計算機(jī)科學(xué)家Jeff Hawkins認(rèn)為,這些微柱結(jié)構(gòu)是智能的主要驅(qū)動者。在大腦的其他部分,網(wǎng)格細(xì)胞和位置細(xì)胞幫助動物感知其在空間中的位置。Hawkins提出,這些細(xì)胞神經(jīng)元就位于微柱中,在其中跟蹤和模擬我們所有的感覺和想法[8]。例如,當(dāng)指尖移動時,這些皮質(zhì)柱會對所接觸的物體進(jìn)行建模。我們的眼睛與所見之物也是如此,Hawkins在其著作《千腦智能》(A Thousand Brains: A New Theory of Intelligence,2021)中如此舉例。

在Rajan看來,“這是一個大膽的想法”。當(dāng)前神經(jīng)科學(xué)認(rèn)為,智能涉及許多不同大腦系統(tǒng)的相互作用,而不僅僅是這些映射細(xì)胞。盡管Hawkins的理論未獲得神經(jīng)科學(xué)界的廣泛認(rèn)可,但“它正引起大量關(guān)注”。特別是其在神經(jīng)形態(tài)計算方面的潛在應(yīng)用,正激起新一波的研究熱情。


? Numenta 由Jeff Hawkins創(chuàng)立,Hawkins在研究人腦神經(jīng)網(wǎng)絡(luò)時,發(fā)現(xiàn)了人腦在處理信息時用到的層級化時間記憶模型Hierarchical Temporal Memory,具體可閱讀《千腦智能》

Hawkins于2005年與人共同創(chuàng)立了Numenta公司(總部位于加利福尼亞州紅木市),并進(jìn)一步發(fā)展了他的理論。該公司于2024年宣布開啟“千腦計劃”,旨在將計算架構(gòu)與創(chuàng)新算法相結(jié)合[9]。

數(shù)年前在項目早期測試階段,該團(tuán)隊設(shè)計了一種架構(gòu),其中包含七個皮質(zhì)柱和數(shù)百個微柱,但僅跨越三層而非人類新皮層中的六層。團(tuán)隊還開發(fā)了一種新型AI算法,利用柱狀結(jié)構(gòu)來分析輸入數(shù)據(jù)。模擬結(jié)果顯示,每個柱狀結(jié)構(gòu)都能夠通過訓(xùn)練以識別數(shù)百個復(fù)雜對象[10]。該系統(tǒng)的實際效用仍有待測試,其理念在于,基于外界世界進(jìn)行實時學(xué)習(xí),類似于Liquid AI算法。

目前,Numenta公司正使用常規(guī)數(shù)字計算機(jī)硬件來測試這些理念。但Ahmad表示,未來定制的硬件可能會實現(xiàn)由皮層柱組織起來的脈沖神經(jīng)元的物理版本。

采用專為該架構(gòu)設(shè)計的硬件,將會讓整個系統(tǒng)更加高效和有效。Schuman認(rèn)為,“硬件的運行方式將影響算法的工作效果,這需要一個協(xié)同設(shè)計(codesign)的過程!

一種新的計算理念,只有在“算法、架構(gòu)和硬件”的正確組合下,才能取得成功。例如,DeepSeek的工程師們曾提出,他們通過協(xié)同設(shè)計“算法、框架和硬件”實現(xiàn)了效率的提升。

舊金山Cohere研究實驗室的計算機(jī)科學(xué)家薩拉·胡克(Sara Hooker)(她于2021年發(fā)表了高影響力論文《硬件彩票》(The Hardware Lottery)[11])指出,當(dāng)其中任何一個條件不成熟或不可用時,一個很好的想法可能會停滯不前。深度學(xué)習(xí)的情況就是這樣——其算法早在20世紀(jì)80年代就已開發(fā)出來,但直到2010年代初計算機(jī)科學(xué)家開始使用GPU進(jìn)行AI處理時,這項技術(shù)才取得成功。

很多時候“成功取決于運氣”,Hooker在2021年計算機(jī)協(xié)會(Association for Computing Machinery,ACM)的一條視頻中坦言。但如果有更多人力與時間投入到神經(jīng)形態(tài)硬件、架構(gòu)和算法的新組合的思考中,將會為AI和計算開辟引人矚目的全新可能。


譯者后記

能顛覆一個行業(yè)的創(chuàng)新,往往來自行業(yè)之外。當(dāng)下AI進(jìn)展放緩,GPU+transformer架構(gòu)下的Scaling Law似乎遇到了天花板。在這樣的時刻,我們更應(yīng)該重視來自其它領(lǐng)域的啟發(fā),即使這些技術(shù)路線當(dāng)下還無法大規(guī)模商用,例如本文中列出的四條技術(shù)路線。

該文發(fā)表于2025年2月,而該領(lǐng)域的進(jìn)展很快,這里補(bǔ)充兩個新發(fā)現(xiàn)。5月,新加坡國立大學(xué)Mario Lanza教授課題組在Nature發(fā)文[12],指出利用單個CMOS晶體管展現(xiàn)出類神經(jīng)元和類突觸的行為,為存算一體的新架構(gòu)提供了基礎(chǔ)。同年8月,浙江大學(xué)研制的新一代神經(jīng)擬態(tài)類腦計算機(jī)Darwin Monkey(“悟空”),是世界首臺神經(jīng)元規(guī)模超過20億的基于專用神經(jīng)擬態(tài)芯片的類腦計算機(jī),超過了文本所述的微軟Hala Point的11.5億個神經(jīng)元。


原文鏈接:https://www.sciencenews.org/article/brainlike-computers-ai-improvement

參考文獻(xiàn):

[1] Pehle, C., Billaudelle, S., Cramer, B., Kaiser, J., Schreiber, K., Stradmann, Y., Weis, J., Leibfried, A., Müller, E., & Schemmel, J. (2022). The BrainScaleS-2 accelerated neuromorphic system with hybrid plasticity. ArXiv.org. https://arxiv.org/abs/2201.11063

[2] G?ltz, J., Kriener, L., Baumbach, A. et al. Fast and energy-efficient neuromorphic deep learning with first-spike times. Nat Mach Intell 3, 823–835 (2021). https://doi.org/10.1038/s42256-021-00388-x

[3] Modha, D. S., Akopyan, F., Andreopoulos, A., Rathinakumar Appuswamy, Arthur, J. V., Cassidy, A., Datta, P., DeBole, M., Esser, S. K., Carlos Ortega Otero, Sawada, J., Taba, B., Amir, A., Deepika Bablani, Carlson, P. J., Flickner, M., Rajamohan Gandhasri, Garreau, G. J., Ito, M., & Klamo, J. L. (2023). Neural inference at the frontier of energy, space, and time. Science, 382(6668), 329–335. https://doi.org/10.1126/science.adh1174

[4] Shrestha, S. B., Timcheck, J., Frady, P., Leobardo Campos-Macias, & Davies, M. (2024). Efficient Video and Audio Processing with Loihi 2. ArXiv (Cornell University), 13481–13485. https://doi.org/10.1109/icassp48485.2024.10448003

[5] Klos, C., & Memmesheimer, R.-M. (2025). Smooth Exact Gradient Descent Learning in Spiking Neural Networks. Physical Review Letters, 134(2). https://doi.org/10.1103/physrevlett.134.027301

[6] Hasani, R., Lechner, M., Amini, A., Liebenwein, L., Ray, A., Tschaikowski, M., Teschl, G., & Rus, D. (2022). Closed-form continuous-time neural networks. Nature Machine Intelligence, 4(11), 992–1003. https://doi.org/10.1038/s42256-022-00556-7

[7] Chahine, M., Hasani, R., Kao, P., Ray, A., Shubert, R., Lechner, M., Amini, A., & Rus, D. (2023). Robust flight navigation out of distribution with liquid neural networks. Science Robotics, 8(77). https://doi.org/10.1126/scirobotics.adc8892

[8] Hawkins J, Lewis M, Klukas M, Purdy S, Ahmad S. A Framework for Intelligence and Cortical Function Based on Grid Cells in the Neocortex. Front Neural Circuits. 2019 Jan 11;12:121. doi: 10.3389/fncir.2018.00121. PMID: 30687022; PMCID: PMC6336927.

[9] Numenta, Clay, V., Leadholm, N., & Hawkins, J. (n.d.). The Thousand Brains Project. Retrieved September 3, 2025, from https://www.numenta.com/wp-content/uploads/2024/06/Short_TBP_Overview.pdf

[10] Hawkins, J., Ahmad, S., & Cui, Y. (2017). A Theory of How Columns in the Neocortex Enable Learning the Structure of the World. Frontiers in Neural Circuits, 11. https://doi.org/10.3389/fncir.2017.00081

[11] alley. (2021). The Hardware Lottery. Acm.org. https://doi.org/10.1145//3467017

[12] Synaptic and neural behaviours in a standard silicon transistor

Sebastian Pazos, Kaichen Zhu, Marco A. Villena, Osamah Alharbi, Wenwen Zheng, Yaqing Shen, Yue Yuan, Yue Ping & Mario Lanza

Nature 2025, 640, 69-76. DOI: 10.1038/s41586-025-08742-4









關(guān)于追問nextquestion

天橋腦科學(xué)研究院旗下科學(xué)媒體,旨在以科學(xué)追問為紐帶,深入探究AI與人類智能相互融合與促進(jìn),不斷探索科學(xué)的邊界。歡迎評論區(qū)留言,或后臺留言“社群”即可加入社群與我們互動。您也可以在后臺提問,我們將基于追問知識庫為你做出智能回復(fù)哦~

關(guān)于天橋腦科學(xué)研究院

天橋腦科學(xué)研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創(chuàng)建的世界最大私人腦科學(xué)研究機(jī)構(gòu)之一,圍繞全球化、跨學(xué)科和青年科學(xué)家三大重點,支持腦科學(xué)研究,造福人類。

Chen Institute與華山醫(yī)院、上海市精神衛(wèi)生中心設(shè)立了應(yīng)用神經(jīng)技術(shù)前沿實驗室、AI與精神健康前沿實驗室;與加州理工學(xué)院合作成立了加州理工天橋神經(jīng)科學(xué)研究院。

Chen Institute建成了支持腦科學(xué)和AI領(lǐng)域研究的生態(tài)系統(tǒng),項目遍布?xì)W美、亞洲和大洋洲,包括、、、科研型臨床醫(yī)生獎勵計劃、、等。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
你身邊有把一手好牌打的稀爛的人嗎?網(wǎng)友:都是上輩子欠人家的

你身邊有把一手好牌打的稀爛的人嗎?網(wǎng)友:都是上輩子欠人家的

帶你感受人間冷暖
2026-01-21 00:15:05
24 小時內(nèi),中美爆發(fā)兩波爭端,美軍艦硬闖臺海,解放軍火速出手

24 小時內(nèi),中美爆發(fā)兩波爭端,美軍艦硬闖臺海,解放軍火速出手

議紀(jì)史
2026-01-23 14:25:03
哈馬斯正式放下槍,交2000公里隧道圖換免死金牌,以色列立馬翻臉

哈馬斯正式放下槍,交2000公里隧道圖換免死金牌,以色列立馬翻臉

科普100克克
2026-01-24 18:11:25
祝賀國乒!一場3-1,林詩棟、黃友政打敗德國組合,斬獲男雙冠軍

祝賀國乒!一場3-1,林詩棟、黃友政打敗德國組合,斬獲男雙冠軍

齊帥
2026-01-24 18:41:12
特朗普:考慮全面封鎖!油價大漲!

特朗普:考慮全面封鎖!油價大漲!

魯中晨報
2026-01-24 09:55:02
《小城大事》直到解春來以死謝罪,鄭德誠方知,李秋萍入獄的真相

《小城大事》直到解春來以死謝罪,鄭德誠方知,李秋萍入獄的真相

娛樂傾城巷
2026-01-24 16:50:31
蒯曼做夢也沒想到,不被國乒重視的她,這次被7歲的妹妹找回來

蒯曼做夢也沒想到,不被國乒重視的她,這次被7歲的妹妹找回來

以茶帶書
2026-01-24 13:17:20
南海撞機(jī)王偉成功跳傘,咋10萬人都找不到他?直到20多年后才明白

南海撞機(jī)王偉成功跳傘,咋10萬人都找不到他?直到20多年后才明白

鶴羽說個事
2025-12-12 14:31:49
日本真子公主找到新工作!律師老公負(fù)責(zé)帶娃,比哈里和大布強(qiáng)太多

日本真子公主找到新工作!律師老公負(fù)責(zé)帶娃,比哈里和大布強(qiáng)太多

手工制作阿殲
2026-01-24 02:55:57
每天2包煙,頓頓8兩白酒,70歲李琦跟去世前楊少華狀態(tài)如出一轍

每天2包煙,頓頓8兩白酒,70歲李琦跟去世前楊少華狀態(tài)如出一轍

以茶帶書
2026-01-11 13:55:14
玻璃中鋒!打破隊史紀(jì)錄!湖人取消交易后悔嗎?

玻璃中鋒!打破隊史紀(jì)錄!湖人取消交易后悔嗎?

籃球教學(xué)論壇
2026-01-24 17:27:39
最新研究:烹飪3天,可引發(fā)肺炎,持續(xù)7天重創(chuàng)腸道;助推癌癥和心血管疾病,但這些方法可緩解

最新研究:烹飪3天,可引發(fā)肺炎,持續(xù)7天重創(chuàng)腸道;助推癌癥和心血管疾病,但這些方法可緩解

腫瘤醫(yī)學(xué)論壇
2026-01-22 18:54:02
普京:烏克蘭不割地,和平毫無可能;澤連斯基:沒有100萬烏軍,歐洲無法獨自面對 | 狼叔看世界

普京:烏克蘭不割地,和平毫無可能;澤連斯基:沒有100萬烏軍,歐洲無法獨自面對 | 狼叔看世界

狼叔看世界
2026-01-24 15:41:25
今晚第4次奪冠?中國男足曾3奪亞洲冠軍:高洪波金靴 王大雷MVP

今晚第4次奪冠?中國男足曾3奪亞洲冠軍:高洪波金靴 王大雷MVP

林子說事
2026-01-24 14:07:34
68歲反派專業(yè)戶程煜,私下財富狀況令人咋舌

68歲反派專業(yè)戶程煜,私下財富狀況令人咋舌

噶噶香的晚餐
2026-01-23 06:12:14
賣維尼修斯或貝林,TA:皇馬內(nèi)部有人認(rèn)為球隊需要激進(jìn)的重建

賣維尼修斯或貝林,TA:皇馬內(nèi)部有人認(rèn)為球隊需要激進(jìn)的重建

懂球帝
2026-01-24 19:03:13
錢再多有什么用?79歲身家525億的特朗普,給全部中老年人提了醒

錢再多有什么用?79歲身家525億的特朗普,給全部中老年人提了醒

阿器談史
2026-01-19 19:33:57
玄學(xué)提醒:若有余錢,不要不舍得,給自己添置這幾樣?xùn)|西“養(yǎng)老”

玄學(xué)提醒:若有余錢,不要不舍得,給自己添置這幾樣?xùn)|西“養(yǎng)老”

木言觀
2026-01-23 06:16:13
范志毅英籍女兒男友:一任沒錢,二任太老,三任才是老范心中貴婿

范志毅英籍女兒男友:一任沒錢,二任太老,三任才是老范心中貴婿

小熊侃史
2025-12-10 07:05:13
冬天最該吃的是它,而不是蘿卜白菜!清肝明目,一覺睡到大天亮

冬天最該吃的是它,而不是蘿卜白菜!清肝明目,一覺睡到大天亮

江江食研社
2026-01-23 14:30:08
2026-01-24 21:00:49
追問Nextquestion incentive-icons
追問Nextquestion
科研就是不斷探索問題的邊界
642文章數(shù) 30關(guān)注度
往期回顧 全部

科技要聞

特斯拉Cybercrab即將落地 每公里不到1塊錢

頭條要聞

安徽女教師校內(nèi)宿舍病亡2天后才被發(fā)現(xiàn) 學(xué)校:建議起訴

頭條要聞

安徽女教師校內(nèi)宿舍病亡2天后才被發(fā)現(xiàn) 學(xué)校:建議起訴

體育要聞

當(dāng)家球星打替補(bǔ),他們在故意擺爛?

娛樂要聞

回歸還是頂流 鳳凰傳奇將現(xiàn)身馬年春晚

財經(jīng)要聞

“百年老字號”張小泉遭60億債務(wù)壓頂

汽車要聞

有增程和純電版可選 日產(chǎn)NX8或于3-4月間上市

態(tài)度原創(chuàng)

藝術(shù)
時尚
旅游
親子
健康

藝術(shù)要聞

梁益君 2025風(fēng)景油畫寫生

冬天最佳“顯瘦”公式:上短+下長

旅游要聞

在積木王國感受中國年味,上海樂高樂園新春主題盛典即將啟幕

親子要聞

孩子的改變真是一瞬間,以前哭嚎著不去幼兒園,上了三年哭了三年,一提幼兒園就惱,自從開始上小學(xué)了,突然...

耳石脫落為何讓人天旋地轉(zhuǎn)+惡心?

無障礙瀏覽 進(jìn)入關(guān)懷版