国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號(hào) > 正文 申請入駐

學(xué)界大佬吵架金句不斷,智譜和MiniMax太優(yōu)秀被點(diǎn)名,Agent竟然能寫GPU內(nèi)核了?!

0
分享至


作者|高允毅

“如果一個(gè) AI 能解 IMO,但解決不了任何現(xiàn)實(shí)問題,那它不是通用人工智能。”

這是卡內(nèi)基梅隆大學(xué)助理教授、艾倫人工智能研究所研究科學(xué)家,蒂姆·德特默斯對(duì) AGI 給出的判斷,他用一篇文章《通用人工智能為何不會(huì)成為現(xiàn)實(shí)》直接把 AGI 從神壇上拽了下來。


有意思的是,幾天后,加州大學(xué)圣地亞哥分校助理教授、Together AI 內(nèi)核副總裁丹·傅,給出了完全相反的判斷。他寫了一篇《通用人工智能終將成為現(xiàn)實(shí)》,說我們也許早就已經(jīng)實(shí)現(xiàn)了 AGI。


于是,兩篇文章,一場關(guān)于“AGI ”的爭論,被帶進(jìn)了播客現(xiàn)場。

這場討論并非空談,兩位嘉賓都是同時(shí)深耕學(xué)術(shù)界與產(chǎn)業(yè)界的一線研究者

蒂姆·德特默斯長期深耕深度學(xué)習(xí)量化領(lǐng)域,即模型壓縮,如何在更低精度、更少算力下,讓模型保持可用性能。


在蒂姆·德特默斯看來,判斷 AGI 是否成立,首先要回到一個(gè)常被忽略的前提:計(jì)算是物理的。

在他看來,內(nèi)存遷移、帶寬、延遲,以及馮·諾依曼瓶頸,決定了算力不可能無限擴(kuò)張。他說“幾乎所有指數(shù)增長,最終都會(huì)撞上資源和物理極限”。所以,指數(shù)增長終將放緩,Scaling Law 也不例外。

但丹·傅顯然不這么看。在他看來,現(xiàn)在談“算力見頂”,還太早了。丹·傅每天都在和 GPU 內(nèi)核、算力利用率打交道,在他看來,“我們甚至還沒真正用好上一代硬件?!?/strong>


在現(xiàn)實(shí)系統(tǒng)中,算力其實(shí)被嚴(yán)重低估和浪費(fèi)了,大量性能消耗在內(nèi)核調(diào)度、系統(tǒng)開銷和工程細(xì)節(jié)上。更關(guān)鍵的是,人們今天評(píng)測和使用的“最強(qiáng)模型”,往往是基于一到兩年前的算力集群訓(xùn)練出來的,它們并不能代表當(dāng)下硬件和大規(guī)模集群所能達(dá)到的真實(shí)上限。

他因此提出了一個(gè)直觀的估算思路,用來說明算力增長的潛力來自多個(gè)維度的疊加:

  • 新一代硬件 帶來約 2–3 倍 的性能提升;

  • 系統(tǒng)與工程優(yōu)化 將算力利用率提升 約 3 倍;

  • 更大規(guī)模的集群 再帶來 約 10 倍 的規(guī)模效應(yīng)。

這三者相乘,意味著可用算力在理論上可以提升接近90 倍。這并不是紙面上的推算,而是正在產(chǎn)業(yè)中逐步發(fā)生、逐步兌現(xiàn)的現(xiàn)實(shí)潛力。

有意思的是,當(dāng)爭論繼續(xù)推進(jìn),兩人反而在一個(gè)問題上開始靠攏:AGI 到底是什么?

關(guān)于 AGI 的定義,大致有兩種主流視角:

一種從認(rèn)知能力出發(fā),看模型能否覆蓋足夠多的認(rèn)知任務(wù);

另一種則從經(jīng)濟(jì)角度出發(fā),看它是否真的改變了生產(chǎn)方式。

這一點(diǎn)上,雙方達(dá)成一個(gè)共識(shí):AGI 是什么并不重要,重要的是,它有沒有改變我們工作的方式。

在訪談后后半部分,大家從未來拉回到了現(xiàn)實(shí),Agent 成為了關(guān)鍵話題。

丹·傅在節(jié)目中提到一個(gè)有趣的時(shí)間點(diǎn):2025 年 6 月,那是他第一次意識(shí)到,Agent 可能真的越過了拐點(diǎn)。


他當(dāng)時(shí)發(fā)現(xiàn)機(jī)器學(xué)習(xí)工程中最難的技能之一、編程領(lǐng)域的終極難題——“GPU 內(nèi)核編程”被代碼智能體啃下來了。他自己親測:原本一個(gè) GPU 內(nèi)核功能開發(fā)得磨一周,那天靠著代碼智能體,一天就搞定了三四個(gè),工作效率直接提升了 5 倍。而他的團(tuán)隊(duì)用上后,那些原本需要整支團(tuán)隊(duì)耗數(shù)月的復(fù)雜系統(tǒng)開發(fā),也變得輕裝上陣。

這讓丹·傅想起了自己對(duì)自動(dòng)駕駛的態(tài)度變化,從長期懷疑到真正坐上 Waymo,他意識(shí)到技術(shù)的突破可能藏在某個(gè)猝不及防的瞬間。

針對(duì) Agent 的爆發(fā)式潛力,蒂姆·德特默斯曾發(fā)布了一篇擲地有聲的文章《要么善用 Agent,要么被時(shí)代淘汰》。在他看來,代碼 Agent 本身就是高度通用的 Agent,因?yàn)榇a幾乎可以描述和解決所有數(shù)字化問題。他甚至直言,“超過 90% 的代碼和文本,本就應(yīng)該由 Agent 來生成。但同時(shí)他也強(qiáng)調(diào),“人類必須對(duì)最終結(jié)果承擔(dān)責(zé)任,而非盲目依賴 AI 的輸出?!?/p>


兩人將 Agent 形象地比作“需要精細(xì)化管理的實(shí)習(xí)生”,只要給它明確背景信息、拆解任務(wù)邊界、設(shè)定執(zhí)行約束,人類無需過度干預(yù)其執(zhí)行過程,而是把注意力聚焦在把控方向上,用專業(yè)判斷力校驗(yàn)結(jié)果。而在 Agent 時(shí)代,真正吃到紅利的將是有深厚積累的專家,其專業(yè)基礎(chǔ)越深厚,Agent 能為其創(chuàng)造的效率增量就越顯著。

在節(jié)目的最后,關(guān)乎對(duì) AI 行業(yè)未來的預(yù)判,雙方拋出了一系列深刻洞見。

在他們看來,小模型會(huì)成為行業(yè)新熱點(diǎn)、開源模型會(huì)進(jìn)一步飛躍;新硬件、多模態(tài)、端側(cè) AI 都會(huì)有進(jìn)一步發(fā)展。

其中,硬件賽道將走向多元化發(fā)展,模型訓(xùn)練與推理環(huán)節(jié)的專業(yè)化分化會(huì)進(jìn)一步加劇。

更值得關(guān)注的是,Transformer 架構(gòu)獨(dú)霸天下的時(shí)代會(huì)落幕,各類新架構(gòu)會(huì)登上時(shí)代舞臺(tái)。

他們還特別提到了中國的GLM-4.7、MiniMax、DeepSeek 等優(yōu)秀模型,對(duì)中國大模型的快速進(jìn)步表達(dá)了高度認(rèn)可。

在他們看來,相比技術(shù)路線相對(duì)集中的美國,中國團(tuán)隊(duì)反而更敢于探索多種可能性,比如狀態(tài)空間模型、線性注意力以及混合架構(gòu)等,通過架構(gòu)創(chuàng)新或極致性能,讓開源模型脫穎而出。

同時(shí),他們也指出,中國的模型團(tuán)隊(duì)在技術(shù)路線上更務(wù)實(shí)。與“先做出最強(qiáng)模型,再等待應(yīng)用出現(xiàn)”的硅谷思路不同,中國團(tuán)隊(duì)更關(guān)注模型是否真正能落地、是否能在現(xiàn)實(shí)場景中產(chǎn)生價(jià)值。正是這種務(wù)實(shí)的發(fā)展思維,可能會(huì)在未來深刻影響人工智能的技術(shù)形態(tài)以及它所能創(chuàng)造的社會(huì)價(jià)值。

以下是播客全文,更多精彩細(xì)節(jié),歡迎來看:

“AGI 能否成為現(xiàn)實(shí)”之爭

主持人:蒂姆,幾周前你發(fā)表了一篇極具爭議性的精彩博文,標(biāo)題是《通用人工智能為何不會(huì)成為現(xiàn)實(shí)》。而丹,你在幾天后也發(fā)布了一篇同樣引人入勝的回應(yīng)博文,標(biāo)題為《通用人工智能終將成為現(xiàn)實(shí)》。我想先了解一下二位的背景,你們都有著一個(gè)有趣的特點(diǎn),就是兼具產(chǎn)業(yè)界和學(xué)術(shù)界的從業(yè)經(jīng)歷。蒂姆,不如你先講講吧。

蒂姆?德特默斯:我是卡內(nèi)基梅隆大學(xué)機(jī)器學(xué)習(xí)與計(jì)算機(jī)科學(xué)系的助理教授,同時(shí)也是艾倫人工智能研究所的研究科學(xué)家。

我過往的研究主要聚焦于高效深度學(xué)習(xí)量化技術(shù),簡單來說就是模型壓縮,把大模型從 16 位精度壓縮到 4 位精度左右,這方面我做了不少核心研究。比如一種高效的微調(diào)方法,我們將模型壓縮至 4 位精度,在模型上使用適配器,這樣所需的內(nèi)存相比全精度模型能減少多達(dá) 16 倍。

目前我正致力于代碼 Agent 的研究,我們將在約兩周后發(fā)布一項(xiàng)非常令人振奮的成果,打造出了目前最先進(jìn)的 Agent,它能快速適配私有數(shù)據(jù),在任意代碼庫上都能實(shí)現(xiàn)出色的性能表現(xiàn),這一成果真的讓人充滿期待。

主持人:丹,該你了。

丹?傅:我是加州大學(xué)圣地亞哥分校的助理教授,同時(shí)擔(dān)任合聚人工智能公司的內(nèi)核副總裁。

在產(chǎn)業(yè)界,我的工作主要集中在提升模型的運(yùn)行速度,GPU 內(nèi)核正是將模型轉(zhuǎn)化為實(shí)際在 GPU 上運(yùn)行程序的關(guān)鍵,你可以把它理解為專門的 GPU 程序。

我的博士階段以及實(shí)驗(yàn)室的大量研究都圍繞這一方向展開,比如我研發(fā)了快速注意力機(jī)制,這是一款針對(duì)當(dāng)下多數(shù)語言模型核心運(yùn)算的高效內(nèi)核。我還研究了 Transformer 架構(gòu)之外的替代架構(gòu),比如狀態(tài)空間模型等。

在合聚人工智能,我主要關(guān)注如何打造當(dāng)下最優(yōu)的語言模型,以及如何進(jìn)一步提升它們的運(yùn)行速度。

就在本期節(jié)目錄制的今早,我們還和庫爾索公司聯(lián)合發(fā)布了一篇博文,介紹了我們?nèi)绾螢槠涠嗫钅P蛯?shí)現(xiàn)加速,并助力他們在英偉達(dá)的布萊克韋爾(Blackwell) GPU 上推出了作曲者 2.0 模型,這大概就是我的工作內(nèi)容。

從 AGI 的定義,

聊到對(duì) AGI 的現(xiàn)實(shí)判斷

主持人:接下來我們聊聊通用人工智能的話題,節(jié)目后半段再探討 Agent 和代碼 Agent,以及二位的相關(guān)見解。通用人工智能這個(gè)術(shù)語被大家廣泛使用,但我想大家都認(rèn)同,目前還沒有人能準(zhǔn)確定義它。為了本次探討,二位認(rèn)為什么樣的通用人工智能定義是實(shí)用的?

丹?傅:當(dāng)然。我和蒂姆在這一系列博文中反復(fù)探討的一個(gè)問題,就是通用人工智能的定義。

就我而言,我最近一直在思考,以當(dāng)下的模型發(fā)展水平,尤其是語言模型,再結(jié)合后續(xù)會(huì)談到的 Agent 來看,以 5 年前、10 年前,甚至我和蒂姆剛開始讀博時(shí)任何人給出的通用人工智能定義,我們其實(shí)已經(jīng)實(shí)現(xiàn)了當(dāng)時(shí)的設(shè)想。如今的模型能寫代碼、能生成人類語言,即便有時(shí)用詞上會(huì)有些小瑕疵,但確實(shí)能完成這些令人驚嘆的任務(wù)。我還會(huì)思考,這種技術(shù)發(fā)展到何種程度,會(huì)引發(fā)一場新的工業(yè)革命,真正改變我們當(dāng)下的工作方式,并產(chǎn)生巨大的經(jīng)濟(jì)影響。

在軟件工程領(lǐng)域,我覺得我們已經(jīng)身處這樣的變革中,或者說即將迎來全面變革。雖然在一些高度專業(yè)化的領(lǐng)域,比如模型未必能寫出世界上最優(yōu)質(zhì)的福蘭語和鈷語言代碼,但在網(wǎng)頁開發(fā),甚至很多底層系統(tǒng)工程方面,它們的表現(xiàn)已經(jīng)非常出色。

我寫那篇博文的一個(gè)原因就是,審視當(dāng)下的發(fā)展,我們或許已經(jīng)實(shí)現(xiàn)了通用人工智能,或者說某種形式的通用人工智能。即便尚未完全實(shí)現(xiàn),下一代正在訓(xùn)練的模型,只要比當(dāng)下的模型表現(xiàn)更好,我們就已經(jīng)取得了令人驚嘆的突破。

蒂姆?德特默斯:我寫那篇博文時(shí)發(fā)現(xiàn),自己竟然忘了在文中給出通用人工智能的定義,盡管整篇文章都圍繞這個(gè)主題展開。我想這在某種程度上也反映了我們對(duì)通用人工智能的思考現(xiàn)狀 —— 我們并未認(rèn)真去界定它。當(dāng)然,目前存在多種定義,各有優(yōu)劣,正如你所說,沒有一個(gè)定義能獲得所有人的認(rèn)同。

我簡單提幾種比較主流的,一種是將通用人工智能視為認(rèn)知能力、認(rèn)知任務(wù)的集合,關(guān)注模型能完成哪些認(rèn)知層面的工作。軟件工程、文本創(chuàng)作都是高度依賴認(rèn)知的任務(wù),而讓機(jī)器人在空間中移動(dòng)則更偏向操作層面,當(dāng)然也有人認(rèn)為肢體移動(dòng)的規(guī)劃也屬于認(rèn)知范疇,但多數(shù)人會(huì)將其區(qū)分開來,認(rèn)為所有數(shù)字化的任務(wù)都屬于認(rèn)知領(lǐng)域,物理層面的操作則超出了這一范疇。

另一種我認(rèn)為很有意義的定義視角是經(jīng)濟(jì)層面,看人工智能是否能引發(fā)一場新的工業(yè)革命,是否具備廣泛的實(shí)用性,能應(yīng)用到各個(gè)領(lǐng)域,推動(dòng)各類工作的效率提升,就像計(jì)算機(jī)的出現(xiàn)那樣。當(dāng)然,計(jì)算機(jī)剛出現(xiàn)時(shí),生產(chǎn)率其實(shí)出現(xiàn)了下降,直到其在經(jīng)濟(jì)中廣泛普及,生產(chǎn)率才重新回升。通用人工智能的發(fā)展或許也會(huì)經(jīng)歷類似過程,在軟件工程等領(lǐng)域,其帶來的效率提升已經(jīng)十分顯著。

主持人:我們直接切入核心爭論吧。蒂姆,你曾提到 AGI 的相關(guān)構(gòu)想的起源,這一點(diǎn)讓我覺得很有意思,你能展開講講嗎?

蒂姆?德特默斯:好的。先梳理一下整體的背景,當(dāng)下關(guān)于 AGI 的一些觀點(diǎn),根植于特定的思維模式,主要來源于有效利他主義社群和理性主義社群。

我 15 年前也曾是這些社群的一員。在推特上,總能看到有人說 “兩年內(nèi)就能實(shí)現(xiàn)通用人工智能”,一年后又有人說 “兩年內(nèi)就能實(shí)現(xiàn)通用人工智能”,年年如此。我覺得這種想法有些草率,也體現(xiàn)出一種信息繭房的狀態(tài),持這種觀點(diǎn)的人很少接觸不同的想法。這也是我寫那篇博文的主要?jiǎng)訖C(jī),我希望提出一些不同的觀點(diǎn),為當(dāng)下主流的思考提供一種反視角。

算力是否見頂

主持人:你核心的觀點(diǎn)是,這些構(gòu)想與實(shí)際的計(jì)算現(xiàn)實(shí)之間存在矛盾,這樣概括準(zhǔn)確嗎?

蒂姆?德特默斯:沒錯(cuò)。這其中既涉及物理層面的限制,也有理論層面的問題,而這兩方面都存在一個(gè)共同的規(guī)律 —— 收益遞減。所有指數(shù)級(jí)增長的事物最終都會(huì)放緩,因?yàn)榘l(fā)展需要資源,而資源總會(huì)耗盡,這里的資源可以有多種解讀。

從物理層面來看,技術(shù)的進(jìn)一步發(fā)展會(huì)變得越來越困難,幾乎所有研究和開發(fā)領(lǐng)域都是如此。前期的進(jìn)展往往容易實(shí)現(xiàn),而后續(xù)要取得突破,需要投入更多資源,發(fā)展速度也會(huì)越來越慢。

再看計(jì)算設(shè)備的物理現(xiàn)實(shí),以及計(jì)算本身的結(jié)構(gòu),其實(shí)有用的計(jì)算主要包含兩個(gè)環(huán)節(jié):

首先是將數(shù)據(jù)從不同位置收集起來,匯聚到指定位置,然后對(duì)這些信息進(jìn)行整合,完成信息的轉(zhuǎn)化處理。簡單來說,就是結(jié)合已知信息,計(jì)算出未知的新信息。有用的信息,必然是從已有的信息中轉(zhuǎn)化而來的。如果只是大量轉(zhuǎn)移信息,卻不進(jìn)行處理,就無法產(chǎn)生新信息;如果只是對(duì)現(xiàn)有信息進(jìn)行大量計(jì)算,又會(huì)錯(cuò)失跨領(lǐng)域的洞察和間接的啟發(fā)。我認(rèn)為這一點(diǎn)與我們當(dāng)下的神經(jīng)網(wǎng)絡(luò)架構(gòu)高度契合。

早期的卷積神經(jīng)網(wǎng)絡(luò)表現(xiàn)出色,原因就在于它們幾乎不怎么移動(dòng)內(nèi)存,而是專注于大量計(jì)算,這意味著這類設(shè)備需要強(qiáng)大的浮點(diǎn)運(yùn)算能力,而內(nèi)存帶寬則沒那么重要。當(dāng)發(fā)展到大規(guī)模密集計(jì)算、大矩陣運(yùn)算階段,就到了當(dāng)下神經(jīng)網(wǎng)絡(luò)的發(fā)展方向,但此時(shí)仍保留著循環(huán)機(jī)制的特點(diǎn),需要關(guān)注之前的狀態(tài)。不過由于循環(huán)的特性,計(jì)算的內(nèi)存復(fù)用率極低。

而 Transformer 架構(gòu),先是通過大矩陣將前一層的輸入信息進(jìn)行轉(zhuǎn)化,再通過注意力機(jī)制實(shí)現(xiàn)跨時(shí)間或空間的信息關(guān)聯(lián)。我認(rèn)為這是處理信息最根本的兩種方式:一是讓信息之間建立關(guān)聯(lián),或?qū)π畔⑦M(jìn)行轉(zhuǎn)化;

二是讓信息與關(guān)聯(lián)較遠(yuǎn)的其他信息建立聯(lián)系,也就是挖掘長期關(guān)聯(lián),并基于已有信息進(jìn)行轉(zhuǎn)化。

主持人:你認(rèn)為這一發(fā)展進(jìn)程正在放緩,對(duì)吧?你的博文中有一句非常引人注目的話,稱 “圖形處理器的發(fā)展將不再有實(shí)質(zhì)性突破”,這是核心觀點(diǎn),能說說原因嗎?

蒂姆?德特默斯:這個(gè)觀點(diǎn)包含兩層含義,首先是一個(gè)非常根本的物理問題,也就是我剛才提到的內(nèi)存轉(zhuǎn)移和計(jì)算的關(guān)系。

計(jì)算要產(chǎn)生價(jià)值,就必須將內(nèi)存數(shù)據(jù)轉(zhuǎn)移到進(jìn)行計(jì)算的本地區(qū)域,這其實(shí)是一個(gè)幾何問題。你需要一個(gè)大容量的信息存儲(chǔ)區(qū),然后將其中的信息轉(zhuǎn)移到計(jì)算區(qū)域。而我們已經(jīng)找到了實(shí)現(xiàn)這一過程的最優(yōu)物理方式:配備大容量但速度較慢的動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器,再將數(shù)據(jù)轉(zhuǎn)移到高速緩存中。

從幾何結(jié)構(gòu)來看,這是實(shí)現(xiàn)高速運(yùn)算的最優(yōu)解,針對(duì)特定規(guī)模的計(jì)算任務(wù),這種架構(gòu)的效率是最高的。如果是矩陣乘法這類不同規(guī)模的計(jì)算任務(wù),就需要使用圖形處理器而非中央處理器,因?yàn)閳D形處理器雖然延遲更高,但吞吐量更大,能傳輸更多數(shù)據(jù),只是速度稍慢。我們可以對(duì)緩存的結(jié)構(gòu)、大小,以及核心的共享方式做一些微調(diào),但歸根結(jié)底,核心的問題始終存在 —— 這是一個(gè)幾何難題,空間的利用方式是有限的,這就決定了數(shù)據(jù)的訪問模式和延遲始終存在固定的限制,其中最大的延遲來自大容量的動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器,這也是主要的性能瓶頸。這一瓶頸也被稱為馮?諾依曼瓶頸,幾乎所有計(jì)算機(jī)都受此限制,具體來說,就是需要將程序傳輸?shù)綀?zhí)行區(qū)域才能運(yùn)行。對(duì)于神經(jīng)網(wǎng)絡(luò)而言,就是要將權(quán)重和輸入數(shù)據(jù)傳輸?shù)綇埩亢诵倪@一執(zhí)行單元。

想要繞開這一瓶頸的方法寥寥無幾,唯一的途徑是進(jìn)行本地內(nèi)存存儲(chǔ)和本地計(jì)算,市面上也有一些處理器嘗試實(shí)現(xiàn)這一點(diǎn),比如存算一體處理器,能在很大程度上在芯片內(nèi)部解決馮?諾依曼瓶頸問題,但這類處理器仍需要從外部向芯片內(nèi)傳輸數(shù)據(jù),這就使得馮?諾依曼瓶頸從芯片內(nèi)部轉(zhuǎn)移到了存儲(chǔ)設(shè)備或網(wǎng)絡(luò)層面,問題只是發(fā)生了轉(zhuǎn)移,本質(zhì)并未改變。你仍需要通過網(wǎng)絡(luò)將存儲(chǔ)在磁盤或內(nèi)存中的程序加載到芯片中,這還是同一個(gè)物理問題,只是調(diào)整了幾個(gè)變量而已。這是問題的第一個(gè)層面,目前還沒有能解決這一問題的架構(gòu)。

第二個(gè)層面,也是我的核心觀點(diǎn)所在:想要突破瓶頸,需要依靠新技術(shù),但當(dāng)新技術(shù)的潛力被充分挖掘后,又需要新的技術(shù)實(shí)現(xiàn)進(jìn)一步突破。

比如,我們從動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器發(fā)展到了高帶寬存儲(chǔ)器,也就是堆疊式的動(dòng)態(tài)隨機(jī)存取存儲(chǔ)器,速度大幅提升,但這種存儲(chǔ)器的堆疊層數(shù)有限,因?yàn)槠渲圃旌蜏y試的難度極高,良品率很低。到 2026 年,高帶寬存儲(chǔ)器的產(chǎn)能將會(huì)不足,無法實(shí)現(xiàn)規(guī)?;a(chǎn),因?yàn)橹圃祀y度實(shí)在太大。我們已經(jīng)見證了諸多技術(shù)創(chuàng)新,張量核心的出現(xiàn)是一大突破,8 位精度、4 位精度的量化技術(shù)也相繼落地,我和其他研究者的研究都表明,這些技術(shù)在信息論層面和實(shí)際應(yīng)用中都是接近最優(yōu)的。

如果基于足夠多的數(shù)據(jù)進(jìn)行訓(xùn)練,4 位精度是不夠的,實(shí)際需要 8 位精度,這意味著量化技術(shù)已經(jīng)發(fā)展到了極限。硬件的潛力也被挖掘殆盡,目前沒有新的技術(shù)可以突破,我們能做的只是優(yōu)化制造工藝,降低成本,卻無法提升速度。各項(xiàng)功能的開發(fā)也已到極致,稀疏化技術(shù)是很多人嘗試的方向,這一研究已經(jīng)持續(xù)了 50 年,我自己也做過相關(guān)嘗試,這或許是最后一個(gè)可探索的方向,但 4 位精度的量化技術(shù)已經(jīng)意味著量化領(lǐng)域的發(fā)展走到了盡頭。

簡單來說,功能和硬件都已被開發(fā)到極限,這就是我們當(dāng)下的處境

主持人:太有意思了。丹,你對(duì)這些觀點(diǎn)有什么看法?

丹?傅:我非常認(rèn)可蒂姆的這篇博文,因?yàn)楫?dāng)下有不少關(guān)于通用人工智能的討論,只是簡單地按照指數(shù)增長的趨勢去推演,認(rèn)為到某個(gè)時(shí)間點(diǎn),人工智能會(huì)發(fā)展到掌控整個(gè)宇宙的程度,我一直覺得這種思考方式有些片面。我認(rèn)同蒂姆從實(shí)際物理限制角度出發(fā)的分析,正如他所說,這些都是依賴物理輸入、進(jìn)行實(shí)際物理計(jì)算的系統(tǒng)。

我的觀點(diǎn)是,看看當(dāng)下的系統(tǒng)和我們訓(xùn)練的模型,我們甚至連上一代硬件的潛力都遠(yuǎn)未充分挖掘,更不用說新推出的硬件了。

從技術(shù)層面,我在博文中主要提出了兩個(gè)核心觀點(diǎn):

第一,看看當(dāng)下那些表現(xiàn)出色的模型,我在博文中主要以開源模型為例,因?yàn)殚_源領(lǐng)域會(huì)更多地披露模型的訓(xùn)練過程和所耗資源,而開放人工智能和思存人工智能等公司并未公開相關(guān)數(shù)據(jù)。

以 DeepSeek 模型為例,這是目前最優(yōu)秀的開源模型之一,它在 2024 年底完成訓(xùn)練,使用的是上一代的英偉達(dá) H800 GPU,這款顯卡因出口限制做了性能閹割,并非原版 H100。根據(jù)公開報(bào)告,該模型的訓(xùn)練使用了約 2000 塊 H800 顯卡,耗時(shí)約一個(gè)月。計(jì)算一下實(shí)際的算力利用情況會(huì)發(fā)現(xiàn),芯片的有效利用率僅約 20%,行業(yè)內(nèi)將這一指標(biāo)稱為模型浮點(diǎn)運(yùn)算利用率。而在 21 世紀(jì) 20 年代初,我們在舊硬件上訓(xùn)練不同架構(gòu)的模型時(shí),輕松就能實(shí)現(xiàn) 50% 甚至 60% 的模型浮點(diǎn)運(yùn)算利用率。如果能將這一指標(biāo)提升,再加上我的好友崔最近發(fā)布了一系列能優(yōu)化模型訓(xùn)練的新內(nèi)核,單是這一項(xiàng)優(yōu)化,就能讓算力利用率提升 3 倍。

第二,需要意識(shí)到的是,這款 2024 年年中開始訓(xùn)練的 DeepSeek 模型,在 2026 年初仍是眾多優(yōu)秀開源或類開源模型的基礎(chǔ)。而從那之后,我們已經(jīng)搭建了全新的算力集群,搭載了當(dāng)下最新的硬件,比如英偉達(dá)的布萊克韋爾系列顯卡。普爾賽德、瑞弗萊克申等公司都在搭建包含數(shù)萬個(gè) B200、GB200 芯片的算力集群。

對(duì)比來看,新一代硬件即便保持和之前相同的精度、相同的配置,運(yùn)算速度也能提升 2 至 3 倍,算力集群的規(guī)模更是擴(kuò)大了 10 倍,再加上 3 倍的純技術(shù)優(yōu)化空間,整體的可用算力能提升 3×3×10,也就是 90 倍。這還沒有考慮未來的算力集群建設(shè),只是當(dāng)下已經(jīng)落地、有人正在用于模型訓(xùn)練的集群。

我的核心觀點(diǎn)是,單從這些基礎(chǔ)的硬件條件來看,就能發(fā)現(xiàn)可用算力相比我們當(dāng)下所依賴的模型,還有多達(dá)兩個(gè)數(shù)量級(jí)的提升空間,也就是 100 倍。當(dāng)然,我們可以爭論算力規(guī)模擴(kuò)大是否會(huì)帶來收益遞減,縮放曲線是否依然有效,但現(xiàn)實(shí)的算力潛力就擺在眼前。

這還沒考慮蒂姆提到的那些點(diǎn),比如目前的訓(xùn)練大多采用 8 位精度,而 4 位精度的訓(xùn)練方法才剛剛開始形成相關(guān)研究成果;GB200 芯片有 72 個(gè)連接速度極快的核心,而我們甚至還沒看到基于這款芯片訓(xùn)練的首個(gè)預(yù)訓(xùn)練模型。開放人工智能的報(bào)告中提到,GPT-5.2 是首個(gè)基于 H100、H200 和 GP200 芯片訓(xùn)練的模型,這在我看來,意味著它的預(yù)訓(xùn)練其實(shí)是在老舊的算力集群上完成的,只是在新的 GP200 芯片上進(jìn)行了一些微調(diào)。

主持人:你提到,不僅硬件的利用率不足,模型本身也是硬件發(fā)展的滯后指標(biāo),對(duì)吧?

丹?傅:沒錯(cuò)。我們當(dāng)下能使用、能體驗(yàn)到的模型,都是在一兩年前搭建的算力集群上完成預(yù)訓(xùn)練的。

因?yàn)榇罱ㄒ粋€(gè)算力集群需要時(shí)間,完成大規(guī)模的預(yù)訓(xùn)練需要時(shí)間,后續(xù)的微調(diào)、人類反饋強(qiáng)化學(xué)習(xí)等后訓(xùn)練環(huán)節(jié)也需要時(shí)間。所以我們當(dāng)下所看到的、用來衡量模型質(zhì)量的這些模型,其實(shí)都是在一年半前的硬件上訓(xùn)練的。而在這之后,我們已經(jīng)搭建了規(guī)模大得多的算力集群,不難想象,這些集群會(huì)被用于訓(xùn)練新一代模型。

也就是說,我們當(dāng)下所依賴的優(yōu)質(zhì)模型,訓(xùn)練所使用的硬件其實(shí)已經(jīng)相當(dāng)老舊,而我們擁有了新一代的硬件、更多的軟件優(yōu)化方案,更不用說架構(gòu)層面的創(chuàng)新了。

蒂姆剛才提到,處理數(shù)據(jù)的核心是先轉(zhuǎn)移、再計(jì)算,而變形金剛架構(gòu)其實(shí)一直在發(fā)展,只是在研究者看來,發(fā)展速度稍慢。但我們能看到,計(jì)算的核心方式已經(jīng)在發(fā)生變化,哪怕再找到 1.5 倍或 2 倍的優(yōu)化空間,整體的可用算力就能達(dá)到 100 甚至 150 倍。所以當(dāng)下還有大量的算力潛力可以挖掘,用來訓(xùn)練更優(yōu)質(zhì)的模型。

預(yù)訓(xùn)練是綜合訓(xùn)練,

后訓(xùn)練是專項(xiàng)訓(xùn)練

主持人:我理解這場討論的核心是預(yù)訓(xùn)練,也就是我們能否用更多的數(shù)據(jù)和算力訓(xùn)練出更大的模型。但在本播客之前的對(duì)話中,很多人都強(qiáng)調(diào)后訓(xùn)練的重要性,以及構(gòu)建結(jié)合預(yù)訓(xùn)練和強(qiáng)化學(xué)習(xí)的人工智能系統(tǒng)的意義。這一點(diǎn)在當(dāng)下的討論中該如何定位?

丹?傅:這是個(gè)非常好的問題,我和蒂姆的博文其實(shí)都沒有重點(diǎn)探討這一點(diǎn)。我喜歡這樣比喻,預(yù)訓(xùn)練就像是在健身房進(jìn)行的綜合力量訓(xùn)練,通過大重量訓(xùn)練提升整體的力量和能力;而后訓(xùn)練就像是針對(duì)特定項(xiàng)目的專項(xiàng)訓(xùn)練,讓你在具體任務(wù)上表現(xiàn)更出色。

從算力消耗來看,歷史上預(yù)訓(xùn)練消耗的算力占絕對(duì)主導(dǎo),其目的是打造具備通用能力的模型,讓模型掌握大量知識(shí),能完成多種任務(wù),甚至擁有比普通人更多的知識(shí)儲(chǔ)備,比如我自己的知識(shí)量肯定比不上聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器。

而后訓(xùn)練的作用,一方面是讓模型變得更實(shí)用,比如聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器,能理解用戶的需求,并盡力完成任務(wù);另一方面,我們也發(fā)現(xiàn),后訓(xùn)練正越來越多地被用于培養(yǎng)模型的特定技能。比如擅長輔助編程的模型,雖然依托于預(yù)訓(xùn)練積累的大量知識(shí),但正是通過后訓(xùn)練,才讓它在編程領(lǐng)域具備了出色的能力;同理,擅長法律工作的模型,也是在預(yù)訓(xùn)練的基礎(chǔ)上,通過后訓(xùn)練實(shí)現(xiàn)了專業(yè)領(lǐng)域的優(yōu)化。

從純計(jì)算的角度來看,預(yù)訓(xùn)練的算力消耗通常遠(yuǎn)大于后訓(xùn)練。后訓(xùn)練的工作,我雖然不是這方面的專家,但感覺更多地像是如何打造一款實(shí)用的產(chǎn)品,如何獲取用戶反饋,諸如此類。

當(dāng)然,也有一種可能是,下一代預(yù)訓(xùn)練模型的基礎(chǔ)能力已經(jīng)足夠強(qiáng)大,只要針對(duì)經(jīng)濟(jì)領(lǐng)域的各個(gè)垂直賽道進(jìn)行后訓(xùn)練,就能打造出極具實(shí)用性的模型。所以這也是計(jì)算領(lǐng)域的另一個(gè)重要維度,或許我們根本不需要那 100 倍的額外算力,更多的是需要像培養(yǎng)人類一樣,深入理解問題,找到合適的訓(xùn)練方法 —— 就像你如何培養(yǎng)一名實(shí)習(xí)生完成特定任務(wù),如何讓一個(gè)能力強(qiáng)大的預(yù)訓(xùn)練模型發(fā)揮出實(shí)際價(jià)值,這正是后訓(xùn)練要解決的問題。

主持人:二位都提到了 “實(shí)用性” 這個(gè)概念,這或許是你們觀點(diǎn)的交匯點(diǎn)。通用人工智能的定義眾說紛紜,但最終的關(guān)鍵還是看它在產(chǎn)業(yè)中的實(shí)際實(shí)用性。所以即便由于收益遞減,我們無法實(shí)現(xiàn)那個(gè)大家都無法準(zhǔn)確定義的、理想化的通用人工智能,也無關(guān)緊要,因?yàn)槲覀冞€有巨大的潛力可以挖掘,足以讓人工智能在整個(gè)經(jīng)濟(jì)領(lǐng)域發(fā)揮真正的價(jià)值,而不僅限于編程領(lǐng)域。

蒂姆?德特默斯:沒錯(cuò)。我那篇博文的核心結(jié)論正是如此,我們不必過分糾結(jié)于通用人工智能的定義,更應(yīng)該思考如何讓人工智能發(fā)揮最大的實(shí)用價(jià)值,而這不僅關(guān)乎模型本身,丹剛才提到后訓(xùn)練是產(chǎn)品化的過程,這一點(diǎn)很重要。計(jì)算機(jī)的發(fā)展歷程告訴我們,技術(shù)在經(jīng)濟(jì)中的普及需要一種截然不同的思維模式。

美國的思維模式往往是 “打造出最優(yōu)的模型,自然會(huì)有人使用”,而中國的思維模式則更注重務(wù)實(shí),思考如何讓技術(shù)惠及更多人。我認(rèn)為這種務(wù)實(shí)的思維模式至關(guān)重要。談及實(shí)用性,一方面是模型的能力,另一方面就是這種發(fā)展思維。

我相信我和丹,以及大多數(shù)人都會(huì)認(rèn)同一個(gè)觀點(diǎn):如果一個(gè)人工智能能完成數(shù)學(xué)奧林匹克競賽這類高難度任務(wù),卻無法解決任何實(shí)際問題,那它算不上通用人工智能。而當(dāng)下的模型已經(jīng)具備了實(shí)用性,所以不會(huì)出現(xiàn)那種 “有能力卻無用處” 的情況。

我們真正追求的,是實(shí)用性極強(qiáng)的模型,而這樣的模型我們已經(jīng)擁有,并且還能不斷優(yōu)化。我認(rèn)為按照某些定義,我們或許無法實(shí)現(xiàn)通用人工智能,但人工智能必將產(chǎn)生巨大的社會(huì)影響。

丹?傅:我想補(bǔ)充一點(diǎn),蒂姆你提到了經(jīng)濟(jì)領(lǐng)域的物理性工作和知識(shí)性工作的劃分,美中兩國在這方面的差異非常有意思。

最近有一本丹?王寫的書很火,探討了制造型經(jīng)濟(jì)、工程型經(jīng)濟(jì)與偏法務(wù)型經(jīng)濟(jì)的區(qū)別。美國有大量優(yōu)秀的知識(shí)性工作有待人工智能去賦能,而從經(jīng)濟(jì)的實(shí)際產(chǎn)業(yè)結(jié)構(gòu)來看,醫(yī)療、教育占了很大比重,科技領(lǐng)域雖然也是重要組成部分,引領(lǐng)著股市的走向,但還有更多領(lǐng)域等待挖掘。

現(xiàn)在有很多優(yōu)秀的研究者正在嘗試用新一代模型研發(fā)新藥、推動(dòng)醫(yī)療領(lǐng)域的實(shí)際變革;如果機(jī)器人技術(shù)能實(shí)現(xiàn)突破,助力完成一些體力勞動(dòng) —— 未必是建造房屋這類重活,而是日常的家務(wù)勞動(dòng),那將挖掘出經(jīng)濟(jì)領(lǐng)域的巨大潛力。這些方向的發(fā)展已經(jīng)能看到初步的成果,自動(dòng)駕駛的發(fā)展歷程對(duì)我很有啟發(fā)。

在我讀博初期,大概 2018、2019 年,我對(duì)自動(dòng)駕駛持非常懷疑的態(tài)度,當(dāng)時(shí)大家總說自動(dòng)駕駛 “再有一兩年就能實(shí)現(xiàn)”,專家則說 “五年內(nèi)有望落地”。但去年我乘坐了威莫的自動(dòng)駕駛車輛,如今在加州灣區(qū),我甚至能使用威莫的高速自動(dòng)駕駛服務(wù)。理論上,我現(xiàn)在甚至可以賣掉自己的車 —— 當(dāng)然我不會(huì)這么做,因?yàn)槲覀€(gè)人喜歡開車。

但技術(shù)的進(jìn)步就是這樣,在這之前一直毫無起色,突然有一天就實(shí)現(xiàn)了突破,你會(huì)發(fā)現(xiàn)它不僅表現(xiàn)出色,甚至比優(yōu)步、出租車這類人工服務(wù)還要好。如果人工智能在家庭清潔、洗碗這類家務(wù)勞動(dòng)上也實(shí)現(xiàn)這樣的突破,那將是非常令人振奮的,也會(huì)徹底改變?nèi)藗兊目捶?。我自己并非機(jī)器人領(lǐng)域的研究者,但一直密切關(guān)注著這個(gè)領(lǐng)域的發(fā)展。

多硬件、多芯片的未來方向

主持人:丹,借著這個(gè)話題,我想問問,從你的觀察來看,人工智能領(lǐng)域是否會(huì)朝著多硬件、多芯片的方向發(fā)展?顯然英偉達(dá)的發(fā)展勢頭迅猛,還有賽博拉斯等公司,以及眾多從底層技術(shù)切入的專用集成電路企業(yè)。從你深耕底層技術(shù)的視角,你怎么看這一趨勢?

丹?傅:這是個(gè)很棒的問題,我在實(shí)驗(yàn)室的工作中會(huì)花大量時(shí)間思考這個(gè)問題,產(chǎn)業(yè)界的工作中也會(huì)密切關(guān)注。當(dāng)下正處于一個(gè)非常令人振奮的階段:英偉達(dá)的芯片性能強(qiáng)勁、穩(wěn)定性高,圍繞其構(gòu)建的軟件生態(tài)也非常完善;而 AMD 的芯片也開始展現(xiàn)出同樣的潛力,相關(guān)的研究也在推進(jìn)。

比如在實(shí)驗(yàn)室,我的好友西姆龍?奧羅拉主導(dǎo)開發(fā)了一個(gè)名為希普基滕斯的庫,核心就是探索如何設(shè)計(jì)合適的軟件抽象層,實(shí)現(xiàn) AMD GPU 的編程。研究發(fā)現(xiàn),AMD GPU 和英偉達(dá) GPU 的軟件抽象層存在明顯差異,即便這兩款 GPU 的參數(shù)規(guī)格相對(duì)接近 —— 更不用說和格羅克、賽博拉斯、薩博諾瓦等公司的芯片相比了,它們的編程方式也截然不同。

現(xiàn)在越來越多的人開始關(guān)注這一領(lǐng)域,投入時(shí)間和精力進(jìn)行研究。英偉達(dá)收購了格羅克,當(dāng)下張量處理單元也備受關(guān)注,賽博拉斯和開放人工智能也剛宣布達(dá)成合作。所以未來必然會(huì)涌現(xiàn)出更多的硬件方案,英偉達(dá)無疑會(huì)繼續(xù)保持良好的發(fā)展態(tài)勢,甚至在本期節(jié)目錄制時(shí),其市值已經(jīng)突破 5 萬億美元,但硬件領(lǐng)域的多樣性會(huì)大幅提升,尤其是在模型推理層面。

訓(xùn)練和推理是兩種截然不同的計(jì)算過程,因此需要的芯片也大相徑庭。在推理層面,模型可能需要在手機(jī)、筆記本電腦等本地設(shè)備上運(yùn)行。我的手機(jī)是一款幾年前的蘋果手機(jī),但其運(yùn)算能力已經(jīng)超過了我讀博初期使用的一些 GPU,硬件算力的增長速度令人驚嘆。

2025 年 6 月是 Agent 的拐點(diǎn)

主持人:丹,你剛才提到自動(dòng)駕駛實(shí)現(xiàn)突破的那個(gè)節(jié)點(diǎn),Agent 的發(fā)展是否也已經(jīng)到了這樣的時(shí)刻?你還提到過 “軟件奇點(diǎn)”,我們當(dāng)下是否正處于 Agent 發(fā)展的關(guān)鍵突破點(diǎn)?

丹?傅:我認(rèn)為是的。就我個(gè)人的經(jīng)歷而言,這個(gè)突破點(diǎn)出現(xiàn)在 2025 年 6 月左右。

給大家做個(gè)背景介紹,我在合聚人工智能的日常工作就是編寫這些 GPU 內(nèi)核,在機(jī)器學(xué)習(xí)領(lǐng)域,GPU 內(nèi)核的編程被認(rèn)為是最難掌握的技能之一,它需要高度的并行化設(shè)計(jì),使用的是 C++ 這種資深工程師使用了數(shù)十年的老牌語言,而非 Python 這類易用的語言。招聘能編寫 GPU 內(nèi)核的工程師難度極大,這是一項(xiàng)極具挑戰(zhàn)性的技能,無疑是編程能力的頂尖體現(xiàn)。

而 2025 年 6 月,我們有了一個(gè)非常有趣的發(fā)現(xiàn):云代碼、庫爾索 Agent 這類代碼 Agent,在編寫 GPU 內(nèi)核方面的表現(xiàn)非常出色。那一周,我完成了三四個(gè)原本各自需要一周時(shí)間才能完成的功能開發(fā),全部工作一天就搞定了。當(dāng)時(shí)我就意識(shí)到,這個(gè)工具讓我這個(gè)內(nèi)核領(lǐng)域的專家,工作效率提升了 5 倍。

我讓團(tuán)隊(duì)都開始使用這個(gè)工具,現(xiàn)在團(tuán)隊(duì)借助它搭建了許多復(fù)雜的系統(tǒng),能快速完成原本需要整個(gè)團(tuán)隊(duì)耗時(shí)數(shù)月才能實(shí)現(xiàn)的功能開發(fā)。而 GPU 內(nèi)核編程,正是編程領(lǐng)域最難的 “終極挑戰(zhàn)”,所以在我們看來,代碼 Agent,尤其是在高難度的 GPU 內(nèi)核編程領(lǐng)域,已經(jīng)實(shí)現(xiàn)了關(guān)鍵性的突破。

幾個(gè)月前,我在斯拉什大會(huì)上做了一場演講,提出了“軟件奇點(diǎn)”的概念,核心就是意識(shí)到在軟件工程領(lǐng)域,即便是這類非常小眾的高難度技能,人工智能的表現(xiàn)也已經(jīng)超越了普通程序員,甚至能為資深程序員帶來效率的大幅提升。就本期節(jié)目錄制的當(dāng)下而言,讓 Agent 獨(dú)立完成開發(fā),可能還無法產(chǎn)出完美的結(jié)果,但如果資深程序員借助這些工具,工作效率能提升 10 倍,這是一個(gè)非常令人振奮的發(fā)展階段。

要么善用 Agent,

要么被時(shí)代淘汰。

主持人:聊到 Agent,蒂姆,你最近還發(fā)表了一篇精彩的博文,標(biāo)題是 《要么善用 Agent,要么被時(shí)代淘汰》,其中探討了代碼 Agent 和適用于其他各類任務(wù)的 Agent。從代碼 Agent 的出色表現(xiàn),到 Agent 在日常生活各領(lǐng)域發(fā)揮實(shí)用價(jià)值,這一發(fā)展進(jìn)程當(dāng)下處于什么階段?

蒂姆?德特默斯:我寫這篇博文,也是因?yàn)榘l(fā)現(xiàn)使用代碼 Agent 能為各類任務(wù)帶來巨大的生產(chǎn)效率提升。作為一名教授,我平時(shí)的編程工作并不多,但借助代碼 Agent,編程變得前所未有的輕松,這在以往是難以想象的。

當(dāng)然,Agent 在非編程任務(wù)上的表現(xiàn)也同樣出色。從我自身的體驗(yàn)來看,生產(chǎn)效率的提升幅度不一,有時(shí)是兩三倍,有時(shí)甚至能達(dá)到 10 倍,而且工作質(zhì)量沒有下降,甚至有時(shí)還能提升。Agent 的能力或許未必比我強(qiáng),但它不會(huì)疲憊,不會(huì)犯低級(jí)錯(cuò)誤,也不會(huì)在整合復(fù)雜信息時(shí)出現(xiàn)認(rèn)知上的困難 —— 這和丹剛才提到的 GPU 內(nèi)核編程的情況是一樣的。

我認(rèn)為馬特你將其分為代碼 Agent 和通用 Agent,但在我看來,代碼 Agent 本身就是通用 Agent。代碼 Agent 能編寫程序解決各類問題,而代碼的通用性極強(qiáng),任何數(shù)字化的問題都能通過代碼解決。代碼 Agent 讓解決問題的過程變得無比輕松,讓我們能以以往無法想象的方式和速度解決各類問題,實(shí)現(xiàn)多任務(wù)并行處理。Agent 不會(huì)疲憊,可以持續(xù)工作,讓工作變得輕松很多。

我的博文中有一個(gè)觀點(diǎn)我自己很認(rèn)同,開篇我先區(qū)分了炒作和現(xiàn)實(shí),而后基于自己在直播中測試 Agent 的實(shí)際體驗(yàn)得出結(jié)論:超過 90% 的代碼和文本都應(yīng)該由 Agent 來生成,不這么做,就會(huì)被時(shí)代淘汰。我想對(duì)于很多工程師來說,這一點(diǎn)已經(jīng)成為現(xiàn)實(shí)。

有些人認(rèn)為,Agent 生成的代碼和文本質(zhì)量一定低下,但關(guān)鍵在于,你需要對(duì) Agent 的輸出進(jìn)行檢查和編輯。你所做的這 10% 的工作,能帶來巨大的改變。通過這種對(duì)輸出內(nèi)容的檢查、編輯和優(yōu)化,讓成果成為屬于自己的作品。

人工智能生成的內(nèi)容,并不比你自己寫的內(nèi)容缺乏個(gè)性。比如我借助 Agent 撰寫科研基金申請,成品會(huì)讓我覺得充滿生命力,能感受到其中的吸引力,相信評(píng)審人看到后會(huì)覺得 “這是一項(xiàng)優(yōu)秀的研究,值得資助”?,F(xiàn)實(shí)就是如此,如果你只是讓 Agent 生成內(nèi)容,不做任何檢查就直接使用,那肯定無法達(dá)到預(yù)期效果;但如果你能快速審核內(nèi)容、調(diào)整優(yōu)化,發(fā)現(xiàn)不妥之處并進(jìn)行修改,最終就能得到優(yōu)質(zhì)的成果,這會(huì)成為未來的常態(tài)。

而適應(yīng)這種工作方式所需的技能,大多數(shù)人還未完全掌握,我自己也在學(xué)習(xí)中,目前仍處于探索階段。模型在更新,框架在迭代,我們需要不斷適應(yīng)、持續(xù)學(xué)習(xí),雖然要學(xué)的東西很多,但一旦掌握,帶來的回報(bào)是巨大的。

曾經(jīng)有人認(rèn)為軟件工程師會(huì)因此消失,但現(xiàn)在大家都不再這么想了。Agent 極大地提升了生產(chǎn)效率,而掌握使用 Agent 的能力,正是當(dāng)下最需要學(xué)習(xí)的技能。善用 Agent,能讓你完成更多工作,這是核心所在。如果不懂得如何有效使用 Agent,你就會(huì)被淘汰,這將成為一項(xiàng)必備的核心技能。

主持人:聊到 Agent,蒂姆,你最近還發(fā)表了一篇精彩的博文,標(biāo)題是 《要么善用 Agent,要么被時(shí)代淘汰》,其中探討了代碼 Agent 和適用于其他各類任務(wù)的 Agent。從代碼 Agent 的出色表現(xiàn),到 Agent 在日常生活各領(lǐng)域發(fā)揮實(shí)用價(jià)值,這一發(fā)展進(jìn)程當(dāng)下處于什么階段?

蒂姆?德特默斯我認(rèn)為最關(guān)鍵的是保持務(wù)實(shí),思考需要解決的問題,并嘗試用代碼實(shí)現(xiàn)。

當(dāng)然,對(duì)于非程序員來說,編程本身就有很高的門檻,會(huì)覺得 “我從沒寫過代碼,根本做不到”。但如果和 Agent 互動(dòng),它能直接幫你搭建程序,你只需要進(jìn)行少量的學(xué)習(xí) —— Agent 還會(huì)為你講解相關(guān)知識(shí),很快就能上手,實(shí)現(xiàn)程序的運(yùn)行、網(wǎng)站的搭建等,還能快速獲得反饋,現(xiàn)在做這些事情已經(jīng)不再困難。

當(dāng)然,我之前提到過需要檢查 Agent 的輸出,但如果你只是為自己搭建一些簡單的工具提升工作效率,其實(shí)往往不需要這么做,Agent 生成的代碼質(zhì)量已經(jīng)足夠高。如果是在公司工作,需要將代碼整合到正式的代碼庫中,那肯定需要進(jìn)行審核;但如果只是搭建個(gè)人使用的小程序,提升自己的工作效率,那非常容易。

舉個(gè)隨機(jī)的例子,我會(huì)錄制自己和 Agent 互動(dòng)的視頻,視頻中會(huì)有我講解的片段,也有我查看輸出、思考分析的片段。我借助 Agent 搭建了一個(gè)工具,它能識(shí)別語音,記錄我說話的時(shí)間戳,然后對(duì)視頻進(jìn)行剪輯,只保留我講解的部分,去掉無意義的片段。這個(gè)工具我只用了 20 分鐘就搭建好了,我相信所有人都能做到,因?yàn)槲疑踔翛]有檢查 Agent 生成的代碼,直接使用后,剪輯出的視頻效果非常好。

只要建立起 “提出需求 — Agent 生成 — 獲得反饋” 的循環(huán),你根本不需要自己編程,只需要學(xué)會(huì)檢查輸出內(nèi)容,或者掌握 Python 程序、bash 腳本的基本運(yùn)行方法,就能實(shí)現(xiàn)工作的自動(dòng)化。

主持人:那該如何選擇要自動(dòng)化的工作呢?該從哪些角度思考生活中的自動(dòng)化需求?

蒂姆?德特默斯:我在博文中也探討過這個(gè)問題,其實(shí)可以分為直覺層面和精細(xì)化分析層面。

直覺層面很簡單,就是思考哪些工作自動(dòng)化后會(huì)帶來便利,哪怕是一些復(fù)雜的需求,比如 “我想要一個(gè)能實(shí)現(xiàn)某某功能的安卓或蘋果應(yīng)用”,一開始你可能覺得這很難,但只要向 Agent 提出需求,它能立刻實(shí)現(xiàn)。你可以充分發(fā)揮想象力,打造任何自己想要的工具,那些以往沒人開發(fā)、自己又迫切需要的產(chǎn)品,現(xiàn)在都能借助 Agent 實(shí)現(xiàn)。

這種思維方式能讓你打造出實(shí)用的工具,提升生產(chǎn)效率,同時(shí)也能鍛煉你使用 Agent 的能力。當(dāng)然,有時(shí)嘗試后可能會(huì)失敗,這時(shí)你會(huì)明白 Agent 的局限性,以及自己還需要學(xué)習(xí)哪些知識(shí)才能解決問題。

這是直覺層面的方法,能讓你快速入門,從最初的興奮,到面對(duì)現(xiàn)實(shí)的冷靜,再到繼續(xù)嘗試,最終會(huì)發(fā)現(xiàn)自己的生產(chǎn)效率在一天天提升。

而精細(xì)化分析層面的方法,來自我在德國自動(dòng)化行業(yè)三年的工作經(jīng)歷,當(dāng)時(shí)主要負(fù)責(zé)工廠的自動(dòng)化改造,這是一種非常嚴(yán)謹(jǐn)?shù)挠?jì)算方法:先梳理自己的工作流程,為每個(gè)步驟計(jì)時(shí),然后分析如果將某個(gè)步驟自動(dòng)化,能帶來多少收益、節(jié)省多少時(shí)間,再計(jì)算開發(fā)這個(gè)自動(dòng)化工具需要投入多少時(shí)間,通過這種成本收益分析,快速判斷哪些工作的自動(dòng)化改造是有價(jià)值的。

我的博文中提到,郵件的自動(dòng)化處理效果并不好,還有一些事情也是如此,比如創(chuàng)建會(huì)議日歷邀請,沒人喜歡做這件事,但仔細(xì)想想,人們對(duì)會(huì)議的安排有很多個(gè)性化的需求,比如某天想多安排會(huì)議,某天想把會(huì)議安排在午飯前,這些需求 Agent 無法感知。即便你向 Agent 詳細(xì)說明這些需求,它生成的日歷邀請也未必能符合預(yù)期,最終的效率提升其實(shí)非常有限。

通過這種精細(xì)化的分析,能讓我們避開這些無意義的嘗試,找到真正能通過自動(dòng)化提升效率的工作。

主持人:丹,從你的角度來看,在 Agent 的應(yīng)用中,哪些方法是有效的,哪些目前還不成熟但未來有望實(shí)現(xiàn),又該如何管理 Agent?

丹?傅:我發(fā)現(xiàn) Agent 的有效應(yīng)用,主要有兩個(gè)核心要點(diǎn)。

第一,讓 Agent 發(fā)揮效用的方式,和管理團(tuán)隊(duì)中的初級(jí)員工、公司里的實(shí)習(xí)生非常相似。比如,你不會(huì)對(duì)一個(gè)剛來的實(shí)習(xí)生說 “去把公司的營收提升一倍”,或許你會(huì)嘗試一次,但顯然不可能得到想要的結(jié)果。相反,你會(huì)給實(shí)習(xí)生安排一些簡單的入門任務(wù),讓他們熟悉復(fù)雜的代碼庫,并告訴他們可能會(huì)遇到的問題 —— 因?yàn)槟阕约河羞^相關(guān)的經(jīng)歷。當(dāng)你給 Agent 提供這樣的背景信息,讓它能接觸到相關(guān)的資料,它通常就能順利完成任務(wù)。

另外,對(duì)待新員工,你不會(huì)直接把生產(chǎn)環(huán)境的所有權(quán)限、數(shù)據(jù)庫信息都交給他們,而是會(huì)給他們足夠的工具,讓他們能開展工作。對(duì)待 Agent 也是如此,有些人會(huì)擔(dān)心 Agent 誤刪生產(chǎn)環(huán)境的所有數(shù)據(jù),于是對(duì)其處處限制,每一步都進(jìn)行監(jiān)控,但如果用這種方式對(duì)待人類員工,他們根本不可能高效工作。這是一個(gè)很重要的點(diǎn),當(dāng)下的 Agent,至少可以把它當(dāng)作實(shí)習(xí)生或初級(jí)員工來對(duì)待。

第二,我發(fā)現(xiàn)一個(gè)非常有趣的現(xiàn)象,尤其是從教授的教育視角,思考如何培養(yǎng)學(xué)生適應(yīng)這個(gè) Agent 成為工作核心的未來,那就是:一個(gè)人的專業(yè)知識(shí)越扎實(shí),比如蒂姆在流程自動(dòng)化領(lǐng)域的專業(yè)積累,或是我在 GPU 內(nèi)核編程領(lǐng)域的深耕,Agent 能為其帶來的能力提升就越大。

因?yàn)閷I(yè)知識(shí)扎實(shí)的人,能在更高的抽象層面開展工作,知道工作的核心要點(diǎn)、方向,了解常見的問題和陷阱,知道哪些事情容易實(shí)現(xiàn)、哪些事情有難度,知道如何將復(fù)雜任務(wù)拆解為多個(gè)步驟。

之前有一段時(shí)間,大家一直在討論 Agent 是否會(huì)取代所有軟件工程師,或者取代所有初級(jí)員工,而從當(dāng)下的發(fā)展來看,顯然不會(huì)出現(xiàn)這種情況。如果一個(gè)工具能讓我的團(tuán)隊(duì)工作效率提升 10 倍,我不會(huì)解雇 90% 的員工,而是會(huì)讓他們?nèi)ネ瓿筛袃r(jià)值的工作,實(shí)現(xiàn) 100 倍的效率提升。這是一方面。

另一方面,成為某個(gè)領(lǐng)域?qū)<业穆窂?,其?shí)和以往并沒有太大區(qū)別:你需要深入學(xué)習(xí)、深入理解相關(guān)知識(shí),需要親手實(shí)踐、真正解決問題。在當(dāng)下這個(gè)時(shí)代,聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器能教你很多東西,我自己就嘗試過讓它教我汽車的各類工作原理,雖然目前效果還一般,但不可否認(rèn),現(xiàn)在學(xué)習(xí)知識(shí)的難度比以往低了很多,哪怕是兩三年前,都沒有這么便捷的學(xué)習(xí)方式。

所以總結(jié)來說,對(duì)待 Agent,要像扮演管理者的角色,幫助它解決遇到的問題,不能只是把問題丟給它就撒手不管;同時(shí),你需要不斷提升自己,成為更優(yōu)秀的 “管理者”,積累更多的領(lǐng)域知識(shí),更深入地理解工作內(nèi)容。

主持人:也就是說,成為專家、持續(xù)學(xué)習(xí)的需求并沒有改變,這一點(diǎn)很有意思,也很有道理。但有一個(gè)問題,如果一名年輕的內(nèi)核工程師第一天入職,以往的培養(yǎng)方式是先安排簡單的任務(wù),第二年再安排更復(fù)雜的工作,那在 Agent 時(shí)代,這種實(shí)操性的職場培訓(xùn)該如何開展?

丹?傅:我們在合聚人工智能也一直在思考這個(gè)問題,即便在模型和 Agent 如此強(qiáng)大的當(dāng)下,我們?nèi)栽诜e極招聘人才。

我們的做法是:首先,我以教授的身份,錄制了一系列關(guān)于 GPU 工作原理的課程,要求所有新員工都必須學(xué)習(xí);然后,我會(huì)給他們布置一個(gè)從零開始的任務(wù),比如修改快速注意力機(jī)制的內(nèi)核,實(shí)現(xiàn)某個(gè)新功能,具體的功能可以由他們自己選擇。Agent 的優(yōu)勢在于,能讓新員工更快地參與到高價(jià)值的工作中。

對(duì)于一名初級(jí)工程師來說,第一次嘗試管理他人是非常有意義的經(jīng)歷,因?yàn)檫@會(huì)讓他們開始用更精準(zhǔn)的語言思考問題。比如,軟件工程師常會(huì)遇到這種情況:產(chǎn)品經(jīng)理給出一個(gè)需求,寫了長長的需求文檔,但當(dāng)你讓別人去實(shí)現(xiàn)這個(gè)需求時(shí),才會(huì)發(fā)現(xiàn)描述一個(gè)功能需要多么精準(zhǔn)的表達(dá)。

而 Agent 的出現(xiàn),讓這一過程得以簡化,初級(jí)工程師不需要真正成為管理者,依然可以作為工程師開展工作,但能以管理者的思維方式,甚至產(chǎn)品經(jīng)理的視角來思考問題。因?yàn)楹?Agent 溝通時(shí),你必須精準(zhǔn)地描述自己的需求。我發(fā)現(xiàn),團(tuán)隊(duì)中那些剛從大學(xué)或碩士畢業(yè)的年輕員工,只要積極學(xué)習(xí)和使用人工智能 Agent,他們的溝通能力會(huì)比以往的工程師強(qiáng)很多,對(duì)知識(shí)的理解和掌握速度也會(huì)大幅提升,并且能以以往 5 到 10 年都難以想象的速度搭建工具、完成工作。

蒂姆?德特默斯:我從教育的角度補(bǔ)充一點(diǎn),這一點(diǎn)其實(shí)和丹的觀點(diǎn)形成了一定的對(duì)比,也很有意思。我一直強(qiáng)調(diào) “要么善用 Agent,要么被時(shí)代淘汰”,這一點(diǎn)對(duì)學(xué)生也同樣適用,但正如丹所說,使用 Agent 的前提是具備一定的領(lǐng)域知識(shí)。

我們發(fā)現(xiàn),如果允許學(xué)生使用 Agent,他們的學(xué)習(xí)效率會(huì)非常高,但有時(shí)他們借助 Agent 完成的解決方案,表面上看起來沒問題,實(shí)際上卻漏洞百出,而學(xué)生自己卻意識(shí)不到。

當(dāng)下我們正面臨一個(gè)困境:很難同時(shí)培養(yǎng)學(xué)生的領(lǐng)域知識(shí)和 Agent 使用能力,這兩者的平衡很難把握。我們既不想培養(yǎng)出對(duì)知識(shí)一知半解的學(xué)生,也希望學(xué)生能掌握 Agent 的使用方法,否則他們進(jìn)入職場后將無法勝任工作。

丹提到,具備扎實(shí)知識(shí)基礎(chǔ)的人,借助 Agent 能實(shí)現(xiàn)能力的飛躍,但對(duì)于剛開始學(xué)習(xí)計(jì)算機(jī)科學(xué)的學(xué)生來說,該讓他們學(xué)習(xí)多少專業(yè)知識(shí),又該讓他們在多大程度上借助 Agent 完成工作,這是一個(gè)非常棘手的問題,目前還沒有完美的解決方案。

如果讓學(xué)生過度依賴 Agent,他們的基礎(chǔ)知識(shí)點(diǎn)掌握會(huì)非常薄弱;如果讓學(xué)生完全靠自己完成所有學(xué)習(xí)任務(wù),不使用 Agent,他們又無法掌握這項(xiàng)核心技能,進(jìn)入職場后缺乏競爭力。

或許一個(gè)解決方案是:先讓學(xué)生扎實(shí)掌握基礎(chǔ)知識(shí),再學(xué)習(xí)使用 Agent。但學(xué)生并不會(huì)這樣做,他們能輕易接觸到這些人工智能工具,并且會(huì)因?yàn)槠浔憬菪远l繁使用。

所以或許真正的解決之道,是培養(yǎng)學(xué)生一種全新的信息處理和知識(shí)學(xué)習(xí)的思維方式,這種能力甚至超越了批判性思維 —— 學(xué)生需要學(xué)會(huì)識(shí)別自己不知道的未知事物,也就是那些自己沒有考慮到、不理解,甚至從未想過的問題。只有具備這種能力,才能跟上 Agent 的發(fā)展步伐。因?yàn)樵谖磥?,我們很可能?huì)面對(duì)自己無法理解的問題,而 Agent 卻能理解,我們需要找到一種方式,跟上 Agent 的節(jié)奏,這無疑是一大挑戰(zhàn)。

小模型是未來趨勢

主持人:二位對(duì) 2026 年人工智能的發(fā)展有哪些具體的期待?認(rèn)為哪些趨勢會(huì)成為現(xiàn)實(shí),哪些則不會(huì)?

蒂姆?德特默斯:我覺得自己的看法比較矛盾,一方面,我認(rèn)為很多領(lǐng)域的發(fā)展會(huì)趨于平淡,不會(huì)有太多創(chuàng)新;另一方面,又會(huì)有一些意想不到的突破出現(xiàn)。而在前沿模型領(lǐng)域,我認(rèn)為不會(huì)有太多驚喜。

當(dāng)下一個(gè)公開的事實(shí)是,預(yù)訓(xùn)練數(shù)據(jù)已經(jīng)耗盡,正如丹所說,我們可以通過合成數(shù)據(jù)來彌補(bǔ)這一缺口,代碼 Agent 的訓(xùn)練,就是在各類環(huán)境中生成大量合成數(shù)據(jù),并進(jìn)行數(shù)據(jù)融合,我們在這方面會(huì)取得一些進(jìn)展,但整體來看,機(jī)器學(xué)習(xí)領(lǐng)域的發(fā)展已經(jīng)顯現(xiàn)出疲態(tài)。

我認(rèn)為代碼 Agent 的性能不會(huì)有太大提升,主要的進(jìn)步會(huì)體現(xiàn)在用戶體驗(yàn)的優(yōu)化上。當(dāng)下各款模型的性能已經(jīng)趨于同質(zhì)化,比如我使用 GLM-4.7 的配置時(shí),一度以為自己用的是 Opus 4.5,后來才發(fā)現(xiàn)是不同的模型,因?yàn)樗鼈兊谋憩F(xiàn)實(shí)在太相似了。

所以前沿模型的性能發(fā)展會(huì)陷入停滯,而小模型領(lǐng)域則會(huì)迎來快速發(fā)展。如果針對(duì)特定的專業(yè)數(shù)據(jù)訓(xùn)練小模型,其性能會(huì)非常出色,而且小模型的部署難度低,能力卻不容小覷。

比如 1000 億參數(shù)的模型,能輕松實(shí)現(xiàn)部署,即便是 RTX 6000 這類售價(jià) 6000 美元的入門級(jí)數(shù)據(jù)中心 GPU,也能勝任。我認(rèn)為對(duì)于很多企業(yè)來說,這會(huì)是一個(gè)極具吸引力的選擇,它們不再需要依賴前沿的大模型,定制化的小模型甚至能表現(xiàn)出更優(yōu)的性能,因?yàn)槠溽槍?duì)特定領(lǐng)域做了優(yōu)化。

當(dāng)下存在一個(gè)很大的問題,正如 Anthropic 首席執(zhí)行官所指出的,市面上有很多性能強(qiáng)大的開源模型,但實(shí)際使用的人卻很少,原因就在于部署難度極高。一旦模型的部署需要超過 8 塊 GPU,不僅需要用戶進(jìn)行大量的效率優(yōu)化,還涉及復(fù)雜的系統(tǒng)工程問題,而目前還沒有能實(shí)現(xiàn)這一功能的開源系統(tǒng),需要實(shí)現(xiàn)推理任務(wù)的解耦、跨序列長度的拆分等技術(shù)。或許我們能為異構(gòu) GPU 設(shè)備、小模型打造這樣的部署系統(tǒng),屆時(shí) 1000 億參數(shù)模型的運(yùn)行效率,將能媲美當(dāng)下的前沿大模型。

小模型兼具效率和靈活性的優(yōu)勢,再加上能通過大模型的知識(shí)蒸餾實(shí)現(xiàn)性能提升,這些因素結(jié)合起來,將徹底改變?nèi)斯ぶ悄艿陌l(fā)展格局。

丹?傅:我也對(duì)小模型的發(fā)展充滿期待,認(rèn)為它們會(huì)釋放出更多的能力。

我會(huì)密切關(guān)注開源模型的發(fā)展,GLM-4.7 的出現(xiàn),已經(jīng)讓開源模型的性能開始媲美當(dāng)下最優(yōu)秀的前沿模型,我認(rèn)為 2026 年開源模型的能力會(huì)實(shí)現(xiàn)又一次大的飛躍。

我也非常期待新硬件的推出,目前已經(jīng)有一些關(guān)于英偉達(dá)下一代 NVIDIA Rubin GPU、AMD 400 系列顯卡的消息,即便我們還未充分挖掘當(dāng)下硬件的潛力,我也很想看看下一代硬件能帶來怎樣的性能突破。

此外,我還期待多模態(tài)領(lǐng)域的發(fā)展,去年視頻生成模型迎來了發(fā)展的小高峰,比如 Sora 2、Gemini、Veo 等模型都表現(xiàn)出色,我很想看看它們后續(xù)的發(fā)展。

最后,我也期待能看到,在筆記本電腦、手機(jī)這類終端設(shè)備上,人工智能的智能水平能達(dá)到怎樣的高度,能被推進(jìn)到什么程度。我想說,當(dāng)下投身人工智能領(lǐng)域,恰逢最激動(dòng)人心的時(shí)刻。

主持人:二位早些時(shí)候提到了狀態(tài)空間架構(gòu)(SSM),你們認(rèn)為這會(huì)是人工智能的近期發(fā)展方向嗎?也就是說,我們會(huì)逐漸走出 Transformer 架構(gòu)的時(shí)代,向狀態(tài)空間模型、世界模型等新架構(gòu)發(fā)展嗎?這是否是你認(rèn)為值得期待且勢在必行的發(fā)展趨勢?

丹?傅:我認(rèn)為在很多領(lǐng)域,新架構(gòu)已經(jīng)落地應(yīng)用了。比如當(dāng)下全球最優(yōu)秀的一些音頻模型,就部分基于狀態(tài)空間模型打造。英偉達(dá)最近也發(fā)布了多款優(yōu)秀的混合架構(gòu)模型,比如神經(jīng)變形金剛,就是其中的代表。

所以相關(guān)的研究已經(jīng)取得了很多不錯(cuò)的成果,架構(gòu)的進(jìn)化還會(huì)繼續(xù)。比如 DeepSeek 的模型壓縮技術(shù),就借鑒了狀態(tài)空間模型的一些理念;MiniMax 的一款模型,則采用了線性注意力的思路。

所以未來人工智能的架構(gòu)會(huì)變得更加多元,這一趨勢已經(jīng)顯現(xiàn)。

而中國的實(shí)驗(yàn)室在這方面會(huì)有更多的探索和突破,因?yàn)橹袊]有像開放人工智能那樣,集產(chǎn)品、模型、營收于一體的巨頭企業(yè),也就沒有統(tǒng)一的技術(shù)發(fā)展范式。所以中國的實(shí)驗(yàn)室會(huì)更敢于嘗試,想要讓自己的開源模型脫穎而出,架構(gòu)創(chuàng)新就是一個(gè)重要的方向,當(dāng)然,純性能的提升也是一個(gè)途徑。因此,未來人工智能的架構(gòu)會(huì)迎來爆發(fā)式的創(chuàng)新。

https://www.youtube.com/watch?v=XCCkgRzth6Q、

聲明:本文為 AI 前線整理,不代表平臺(tái)觀點(diǎn),未經(jīng)許可禁止轉(zhuǎn)載。

InfoQ 老友!請留步!極客邦 1 號(hào)客服上線工作啦!

后續(xù)我將通過微信視頻號(hào),以視頻的形式持續(xù)更新技術(shù)話題、未來發(fā)展趨勢、創(chuàng)業(yè)經(jīng)驗(yàn)、商業(yè)踩坑教訓(xùn)等精彩內(nèi)容,和大家一同成長,開啟知識(shí)交流之旅歡迎

今日薦文

你也「在看」嗎?

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
邁阿密股東:每年總共給梅西7-8千萬美元薪水,每分錢都物超所值

邁阿密股東:每年總共給梅西7-8千萬美元薪水,每分錢都物超所值

硯底沉香
2026-03-08 03:21:02
汪峰前妻葛薈婕自曝:父母會(huì)找自己每任前任要20多萬,還說應(yīng)該的

汪峰前妻葛薈婕自曝:父母會(huì)找自己每任前任要20多萬,還說應(yīng)該的

觀魚聽雨
2026-03-07 23:00:05
法國和浙江同為6000萬人口,2025年法國創(chuàng)3萬億美元GDP,浙江呢?

法國和浙江同為6000萬人口,2025年法國創(chuàng)3萬億美元GDP,浙江呢?

八斗小先生
2026-02-28 18:56:17
全新一代雷克薩斯ES美國售價(jià)揭曉:48795美元起,下月登陸國內(nèi)

全新一代雷克薩斯ES美國售價(jià)揭曉:48795美元起,下月登陸國內(nèi)

IT之家
2026-03-06 18:19:38
神交易?加盟湖人的肯納德,什么水平?

神交易?加盟湖人的肯納德,什么水平?

籃球?qū)嶄?/span>
2026-03-08 12:49:54
開戰(zhàn)第8天,伊朗通報(bào)全球,美軍航母被炸,特朗普向32國求助

開戰(zhàn)第8天,伊朗通報(bào)全球,美軍航母被炸,特朗普向32國求助

輝輝歷史記
2026-03-08 12:21:47
健身餐竟變折壽餐?哈醫(yī)大最新發(fā)現(xiàn):高蛋白飲食或?qū)⒖s短壽命27%

健身餐竟變折壽餐?哈醫(yī)大最新發(fā)現(xiàn):高蛋白飲食或?qū)⒖s短壽命27%

思思夜話
2026-03-06 16:04:32
謝賢前女友再曝猛料!相識(shí)第一天拒絕了兩次謝賢,當(dāng)時(shí)行情非常好

謝賢前女友再曝猛料!相識(shí)第一天拒絕了兩次謝賢,當(dāng)時(shí)行情非常好

念得小柔
2026-02-13 02:19:33
快船3配角徹底奠定輪換!杰克遜鞏固籃下,桑德斯米勒得分太穩(wěn)!

快船3配角徹底奠定輪換!杰克遜鞏固籃下,桑德斯米勒得分太穩(wěn)!

籃球資訊達(dá)人
2026-03-08 14:30:25
全天24小時(shí)禁止!深圳電動(dòng)自行車限行將調(diào)整

全天24小時(shí)禁止!深圳電動(dòng)自行車限行將調(diào)整

小鹿姐姐情感說
2026-03-08 11:27:54
出軌、凈身出戶?這次,74歲的梁錦松,終究在伏明霞身上栽了跟頭

出軌、凈身出戶?這次,74歲的梁錦松,終究在伏明霞身上栽了跟頭

秋姐居
2026-02-10 09:19:42
建議:若不差錢,咬咬牙也要添置這5個(gè)“高級(jí)貨”,早買早享受

建議:若不差錢,咬咬牙也要添置這5個(gè)“高級(jí)貨”,早買早享受

家居設(shè)計(jì)師宅哥
2026-02-27 17:52:20
沒有人比五糧液更懂腦血栓

沒有人比五糧液更懂腦血栓

老斯基財(cái)經(jīng)
2026-03-06 17:18:30
67歲老太獵殺眾多老頭,騙取近10億巨款,自己戶頭卻是空的

67歲老太獵殺眾多老頭,騙取近10億巨款,自己戶頭卻是空的

三目觀史
2026-01-26 22:09:10
給廳長開車三年從不提私事,父親拉貨的車被扣,廳長一眼看穿了我

給廳長開車三年從不提私事,父親拉貨的車被扣,廳長一眼看穿了我

深度解析熱點(diǎn)
2026-03-07 14:06:30
19:30開球!中國女籃VS捷克,韓旭李月汝能否出戰(zhàn)?宮魯鳴很糾結(jié)

19:30開球!中國女籃VS捷克,韓旭李月汝能否出戰(zhàn)?宮魯鳴很糾結(jié)

體育大學(xué)僧
2026-03-08 10:14:06
如果打開全部閘門,把三峽水庫的水全部放光,需要多久?

如果打開全部閘門,把三峽水庫的水全部放光,需要多久?

心中的麥田
2026-02-19 20:29:21
廣東一路段被市民自發(fā)接力擺了數(shù)百米木棉花,街道辦:浪漫又暖心,支持,會(huì)保留這份春日美好

廣東一路段被市民自發(fā)接力擺了數(shù)百米木棉花,街道辦:浪漫又暖心,支持,會(huì)保留這份春日美好

環(huán)球網(wǎng)資訊
2026-03-08 07:23:48
俄羅斯沒想到,美國更沒想到,如今的中國石油,成為石油遙遙領(lǐng)先

俄羅斯沒想到,美國更沒想到,如今的中國石油,成為石油遙遙領(lǐng)先

博覽歷史
2025-12-16 06:15:03
改朝換代不期而至,2匹黑馬闖進(jìn)全英男單決賽,石宇奇輸?shù)貌辉?>
    </a>
        <h3>
      <a href=真理是我親戚
2026-03-08 00:35:10
2026-03-08 15:00:49
AI前線 incentive-icons
AI前線
面向AI愛好者、開發(fā)者和科學(xué)家,提供AI領(lǐng)域技術(shù)資訊。
1347文章數(shù) 133關(guān)注度
往期回顧 全部

科技要聞

OpenClaw最大的推手是閑魚和小紅書

頭條要聞

伊朗小學(xué)遭襲致超165人遇難 特朗普:是伊朗干的

頭條要聞

伊朗小學(xué)遭襲致超165人遇難 特朗普:是伊朗干的

體育要聞

大傷后被交易,他說:22歲的我已經(jīng)死了

娛樂要聞

周迅新戀情曝光,李亞鵬等人已成過去

財(cái)經(jīng)要聞

油價(jià)要失控?

汽車要聞

9分鐘充飽 全新騰勢Z9GT首搭閃充技術(shù)26.98萬起

態(tài)度原創(chuàng)

親子
本地
藝術(shù)
教育
公開課

親子要聞

杰森休息日又要去公司加班,跟他商量換工作后,得再考慮考慮

本地新聞

食味印象|一口入魂!康樂烤肉串起千年絲路香

藝術(shù)要聞

“北京意象·活力通州”繪畫作品展 | 油畫作品選

教育要聞

致敬每一個(gè)閃光的她:在學(xué)而思,看見教育里的她力量

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版