国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易科技 > 網(wǎng)易科技 > 正文

黃仁勛GTC重磅發(fā)聲:每家公司都必須懂“養(yǎng)蝦”|3萬字完整實錄

0
分享至

出品 | 網(wǎng)易智能

作者 | 小小

編輯 | 王鳳枝

3月16日,加州圣何塞,逾一萬八千名聽眾見證了英偉達年度GTC大會的開幕。黃仁勛在兩個多小時的密集發(fā)布中,揭示了AI市場最核心的轉(zhuǎn)變:從“訓(xùn)練”全面走向“推理” 。基于此,他拋出了一個震撼的預(yù)期——到2027年底,Blackwell與Vera Rubin兩代架構(gòu)將帶來至少一萬億美元的累計收入機會 。

為應(yīng)對推理時代的巨大算力缺口,英偉達打破了單芯片處理的傳統(tǒng),將推理拆分為兩步分工處理:第一階段“預(yù)填充”(把自然語言轉(zhuǎn)為token)由下一代旗艦處理器Vera Rubin負(fù)責(zé);第二階段“解碼”(根據(jù)token生成答案)則交由新整合的Groq芯片專門負(fù)責(zé) 。這種搭配使得每瓦特性能實現(xiàn)了幾十倍的躍升 。其中,專注于低延遲計算的Groq(已命名為Groq 3 LPU)預(yù)計今年下半年就會出貨 ;而Vera Rubin系統(tǒng)的高價值層級性能比上一代Grace Blackwell高出了十倍,預(yù)計2026年下半年出貨 。

在更長遠(yuǎn)的硬件規(guī)劃上,黃仁勛預(yù)告了代號為 Kyber的下一代架構(gòu)。它將144個GPU垂直集成在計算托盤上,旨在進一步提高密度、降低延遲,預(yù)計將應(yīng)用于2027年出貨的 Vera Rubin Ultra 。此外,他還暗示了繼 Rubin 之后的長遠(yuǎn)產(chǎn)品線——以物理學(xué)家命名的 Feynman 芯片 。此外,英偉達的野心已不僅限于地球,他們宣布與Axiom Space等公司合作推出 Vera Rubin Space-1模塊,正式開啟“軌道數(shù)據(jù)中心”計劃,進軍太空AI計算 。

除了硬核算力的升級,這場變革同樣席卷了軟件生態(tài)。面對火爆的開源項目OpenClaw,黃仁勛形容其重要性堪比Linux和HTML 。它不僅能讓AI智能體調(diào)用工具、分解任務(wù)并自主執(zhí)行 ,更標(biāo)志著軟件架構(gòu)的重塑。為了確保企業(yè)級應(yīng)用的安全可控,英偉達順勢推出了 NemoClaw 參考設(shè)計 。

“今天,世界上的每家公司都需要有一個OpenClaw戰(zhàn)略,一個智能體系統(tǒng)戰(zhàn)略。這是新的計算機?!?黃仁勛強調(diào),傳統(tǒng)的SaaS將全面進化為“智能體即服務(wù)(GaaS)” 。在未來的企業(yè)運轉(zhuǎn)中,為每位工程師配備“年度token預(yù)算”,將成為推動生產(chǎn)力十倍增長的新標(biāo)配 。

以下是黃仁勛演講全文,共2.5萬字,小標(biāo)題為編輯所加

01算力平臺基石

CUDA二十年飛輪與神經(jīng)渲染融合

歡迎來到GTC。我想先提醒大家,這是一個技術(shù)會議。

一大早大家就排起了長隊。很高興在這里見到各位。

GTC,我們要談技術(shù),談平臺。英偉達有三個平臺。

各位可能以為我們主要只談其中一個,就是與CUDA X相關(guān)的平臺。我們的系統(tǒng)是另一個平臺,現(xiàn)在又多了一個新平臺,叫做“AI工廠”。

這些我們都會談到,最重要的是,我們還要談生態(tài)系統(tǒng)。但在開始之前,我要感謝幾位暖場環(huán)節(jié)的主持人,他們做得非常出色,包括AI投資公司Conviction創(chuàng)始人郭睿、紅杉資本合伙人林君叡(英偉達的第一位風(fēng)險投資人),還有科技投資人加文·貝克(Gavin Baker,英偉達的第一家主要機構(gòu)投資者)。這三位對技術(shù)有很深的理解,對當(dāng)下行業(yè)動向洞若觀火,而且在技術(shù)生態(tài)系統(tǒng)中的覆蓋面非常廣。還有我親自挑選來參加今天活動的所有VIP,全明星陣容。感謝各位。

也要感謝所有來參會的公司。

英偉達是一家平臺公司,如各位所知。我們有技術(shù),有平臺,有豐富的生態(tài)系統(tǒng)。今天,總規(guī)模高達100萬億美元的行業(yè),基本上百分之百都匯聚于此。有450家公司贊助了這次活動。感謝各位。

1000場技術(shù)會議,2000位演講者。這次會議將覆蓋AI這個“五層蛋糕”的每一層——從土地、電力和機房外殼(shell)等基礎(chǔ)設(shè)施,到芯片、平臺、模型,當(dāng)然最后也是最重要的,是那些能讓這個行業(yè)真正起飛的應(yīng)用。

這一切都始于CUDA。今年是CUDA誕生20周年。

我們在CUDA上深耕已有20年。20年來,我們一直專注于這個架構(gòu)。這是一項革命性的發(fā)明,叫做SIMT(單指令多線程)。你只需編寫標(biāo)量代碼,它能衍生出多線程應(yīng)用。最近我們又增加了Tile結(jié)構(gòu),幫助開發(fā)者為張量核心編程,這些數(shù)學(xué)結(jié)構(gòu)是當(dāng)今AI的根基。

我們有數(shù)千種開源的工具、編譯器、框架和庫。公開的項目大概有幾十萬個。CUDA已經(jīng)真正融入了每一個生態(tài)系統(tǒng)。

這張圖基本上描述了英偉達的全部戰(zhàn)略。歸根結(jié)底,最難實現(xiàn)的就是最底層的這個東西:裝機量。我們花了20年,現(xiàn)在全球有數(shù)億顆運行CUDA的GPU和計算系統(tǒng)。我們在每一個云中,在每一家計算機公司里,服務(wù)著幾乎每一個行業(yè)。

CUDA的龐大裝機量就是飛輪加速的原因。裝機量吸引開發(fā)者,開發(fā)者創(chuàng)造新算法,實現(xiàn)突破,比如深度學(xué)習(xí),還有很多其他突破。這些突破帶來全新市場,圍繞它們形成新的生態(tài)系統(tǒng),吸引其他公司加入,又創(chuàng)造了更大的裝機量。這個飛輪正在加速。英偉達軟件庫的下載量呈爆炸式增長,規(guī)模非常大,而且比以往任何時候增長得都快。正是這個飛輪,讓這個計算平臺能夠支撐這么多應(yīng)用、這么多新突破。

但最重要的是,它也讓這些基礎(chǔ)設(shè)施擁有極長的使用壽命。原因很簡單:能夠在CUDA上運行的應(yīng)用太多了。我們支持AI生命周期的每一個階段,服務(wù)于每一個數(shù)據(jù)處理平臺,加速各種不同類型的基于科學(xué)原理的求解器。

應(yīng)用范圍如此之廣,一旦你采用了英偉達GPU,它的使用壽命會非常長。這也是為什么我們大約六年前出貨的Ampere架構(gòu)GPU,在云中的價格不降反升。所有這一切之所以可能,根本上是因為裝機量大,飛輪轉(zhuǎn)得快,開發(fā)者覆蓋廣。當(dāng)這一切發(fā)生,再加上我們持續(xù)更新軟件,計算成本就會下降。

加速計算極大地提升了應(yīng)用程序的運行速度。同時,我們在其生命周期內(nèi)持續(xù)維護和更新軟件,你不僅在第一次使用時能獲得性能提升,隨著時間推移,還能持續(xù)享受加速計算帶來的成本降低。我們愿意維護、愿意支持全球每一塊這樣的GPU,因為它們都是架構(gòu)兼容的。我們之所以愿意這樣做,是因為裝機量非常大。如果我們發(fā)布一個新的優(yōu)化,它能使數(shù)百萬顆GPU受益,造福全球每個人。

這種動態(tài)組合使得英偉達的架構(gòu)能夠擴大覆蓋范圍,加速增長,同時降低計算成本,最終又進一步刺激了新的增長。所以CUDA是這一切的核心。但我們的旅程實際上始于25年前——GeForce。

我知道各位中有很多人是玩著GeForce長大的。GeForce是英偉達最成功的營銷活動。早在你自己還負(fù)擔(dān)不起的時候,我們就開始吸引你這位未來的客戶了。你的父母付了錢,讓你成為英偉達的客戶。他們年復(fù)一年地為你買單,直到有一天,你成為了一名出色的計算機科學(xué)家,成為了真正的客戶、真正的開發(fā)者。

但這一切都是GeForce在25年前打下的基礎(chǔ)。我們從那里起步,一路走到CUDA。25年前,我們發(fā)明了可編程著色器。這是一個在當(dāng)時完全看不出發(fā)明必要性的想法:讓加速器變得可編程。世界上第一個可編程加速器——像素著色器,就出現(xiàn)在25年前。正是它引導(dǎo)我們不斷深入探索。

5年后,我們發(fā)明了CUDA。這是我們做過的最大的投資之一,當(dāng)時我們其實根本負(fù)擔(dān)不起。它消耗了公司絕大多數(shù)的利潤,但我們還是讓CUDA搭乘GeForce的便車,進入了每一臺電腦。我們?nèi)硇耐度雱?chuàng)建這個平臺,因為我們強烈地感受到了它的潛力。最終,正是公司對它的執(zhí)著,盡管起初困難重重,但我們?nèi)諒?fù)一日地堅信它,歷經(jīng)13代產(chǎn)品、20年光陰,現(xiàn)在我們讓CUDA變得無處不在。

像素著色器當(dāng)然帶來了GeForce的革命。然后10年前,我們推出了RTX,為現(xiàn)代計算機圖形時代徹底重新設(shè)計了架構(gòu)。GeForce將CUDA帶向了世界,也因此讓亞歷克斯·克里舍夫斯基 (Alex Krizhevsky)、伊利亞·蘇茨克維 (Ilya Sutskever)、杰弗里·辛頓 (Geoffrey Hinton) 、吳恩達 (Andrew Ng)以及許多其他人發(fā)現(xiàn),GPU可以幫助他們加速深度學(xué)習(xí)。這引發(fā)了AI的大爆炸。

10年前,我們決定融合可編程著色,并引入兩個新想法:一個是光線追蹤,包括硬件光線追蹤,這極其困難;另一個在當(dāng)時是個新想法——大約10年前,我們就認(rèn)為AI將徹底改變計算機圖形。就像GeForce將AI帶給世界一樣,現(xiàn)在AI將反過來徹底改變計算機圖形的整個運作方式。今天,我要向各位展示未來的方向。這是我們下一代圖形技術(shù),我們稱之為神經(jīng)渲染,即3D圖形與AI的融合。它就是DLSS 5。

計算機圖形活過來了,我們把可控的3D圖形、結(jié)構(gòu)化數(shù)據(jù)與生成式AI、概率計算結(jié)合在一起。一個是完全預(yù)測性的,另一個是概率性的但高度逼真。我們把這兩個想法結(jié)合起來,通過結(jié)構(gòu)化數(shù)據(jù)實現(xiàn)完美控制,同時又進行生成。結(jié)果是,內(nèi)容既驚艷美麗,又完全可控。

這種融合結(jié)構(gòu)化信息和生成式AI的概念,會一個行業(yè)接一個行業(yè)地重演。結(jié)構(gòu)化數(shù)據(jù)是可信任AI的基礎(chǔ)。

02數(shù)據(jù)基礎(chǔ)設(shè)施

cuDF/cuVS核心庫與云端生態(tài)整合

你們聽說過SQL、Spark、Pandas、Velox,以及許多非常重要的大平臺,比如Snowflake、Databricks、Amazon EMR、Azure Fabric、Google Cloud BigQuery。所有這些平臺都在處理數(shù)據(jù)幀。這些數(shù)據(jù)幀是巨大的電子表格,裝載著生活中的所有信息。這是結(jié)構(gòu)化數(shù)據(jù),也是商業(yè)的事實基準(zhǔn),是企業(yè)計算的事實基準(zhǔn)。

為了讓AI能夠處理數(shù)據(jù),我們必須把數(shù)據(jù)處理的速度提升到極致。過去,就算不加速也能應(yīng)付過去,當(dāng)然我們也會想辦法提升結(jié)構(gòu)化數(shù)據(jù)的處理速度,這樣就能處理更多數(shù)據(jù)、成本更低、每天運行的次數(shù)更頻繁,讓整個公司的運轉(zhuǎn)更加同步。

但未來,這些數(shù)據(jù)結(jié)構(gòu)是要給AI用的,而AI的處理速度比人類快得多。未來的智能體也會使用結(jié)構(gòu)化數(shù)據(jù)庫。當(dāng)然還有非結(jié)構(gòu)化數(shù)據(jù)庫和生成式數(shù)據(jù)庫,這些數(shù)據(jù)庫涵蓋了世界上絕大部分的信息。每年生成的信息中,大約有90%是非結(jié)構(gòu)化數(shù)據(jù)。

直到現(xiàn)在,這些數(shù)據(jù)對世界來說基本是沒用的。我們讀了,存進文件系統(tǒng),然后就束之高閣了。沒辦法查詢,很難進行搜索,處理起來非常麻煩。原因在于非結(jié)構(gòu)化數(shù)據(jù)很難建立索引,你得理解它的含義和用途才行。

所以現(xiàn)在我們要讓AI來做這件事。就像AI能夠解決多模態(tài)感知和理解的問題一樣,你可以用同樣的技術(shù)去讀取PDF,理解它的含義,然后基于這個含義把它嵌入到一個更大、可以搜索和查詢的結(jié)構(gòu)中。

為此,英偉達創(chuàng)建了兩個基礎(chǔ)庫。就像我們?yōu)?D圖形領(lǐng)域打造了RTX一樣,我們?yōu)閿?shù)據(jù)幀和結(jié)構(gòu)化數(shù)據(jù)打造了cuDF,為向量存儲、語義數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù)和AI數(shù)據(jù)打造了cuVS。這兩個平臺未來將成為最重要的兩個平臺。

看到這兩個庫在整個網(wǎng)絡(luò)、在這個復(fù)雜的全球數(shù)據(jù)處理系統(tǒng)中被廣泛采用,我特別興奮。因為數(shù)據(jù)處理這個領(lǐng)域已經(jīng)存在很長時間了,因此有這么多不同的公司、平臺和服務(wù)。我們花了很長時間才真正深入集成到這個生態(tài)系統(tǒng)中。我對我們在該領(lǐng)域所做的工作感到非常自豪。

今天我們還要發(fā)布幾項重要進展。

首先是IBM。作為SQL的發(fā)明者——SQL是有史以來最重要的領(lǐng)域特定語言之一——IBM正在用cuDF加速他們的Watson X Data平臺?;仡櫄v史,60年前IBM推出了System/360,這是通用計算的第一個現(xiàn)代平臺,開啟了整個計算時代。隨后誕生的SQL作為一種聲明式語言,讓人們無需一步步指示計算機就能查詢數(shù)據(jù),再加上數(shù)據(jù)倉庫的出現(xiàn),這些都奠定了現(xiàn)代企業(yè)計算的基石。而今天,IBM和英偉達正在用GPU計算庫加速IBM Watson X Data的SQL引擎,為AI時代重塑數(shù)據(jù)處理方式。

數(shù)據(jù)是賦予AI背景和意義的事實基準(zhǔn)。AI需要快速訪問海量數(shù)據(jù),但傳統(tǒng)基于CPU的數(shù)據(jù)處理系統(tǒng)已經(jīng)跟不上這個需求了。

舉個例子,雀巢每天要處理幾千個供應(yīng)鏈決策。他們的“訂單到現(xiàn)金”數(shù)據(jù)集市,匯集了全球185個國家和地區(qū)所有的供應(yīng)訂單和交付事件。過去在CPU上,雀巢每天只能刷新數(shù)據(jù)集市幾次?,F(xiàn)在用了加速后的、運行在GPU上的Watson X Data,他們能以5倍的速度運行同樣的工作負(fù)載,成本降低了83%。這說明面向AI時代的加速計算平臺已經(jīng)到來。

英偉達不僅在云端加速數(shù)據(jù)處理,也在加速本地部署的數(shù)據(jù)處理。戴爾作為全球領(lǐng)先的計算機系統(tǒng)制造商和存儲供應(yīng)商,正與我們合作創(chuàng)建戴爾AI數(shù)據(jù)平臺。這個平臺集成了cuDF和cuVS,為AI時代打造了加速的數(shù)據(jù)基礎(chǔ)設(shè)施。他們與NTT Data合作的項目已經(jīng)實現(xiàn)了性能的大幅提升。

再看Google Cloud,我們與Google Cloud有著長期的合作關(guān)系。我們正在加速Google的Vertex AI,現(xiàn)在也開始加速BigQuery——這是一個非常重要的框架和平臺。與Snapchat的合作項目顯示,我們幫他們把計算成本降低了近80%。

當(dāng)你加速數(shù)據(jù)處理、加速計算時,你不僅能獲得速度的提升、規(guī)模的增長,更重要的是還能獲得成本的優(yōu)勢。所有這些好處融為一體。

過去,這種進步來自摩爾定律——每幾年性能翻一番。換句話說,在價格基本不變的情況下,計算機要么每兩年性能翻倍,要么計算成本減半。如今摩爾定律已經(jīng)走到盡頭,我們需要新的方法來實現(xiàn)持續(xù)的性能提升和成本優(yōu)化。

加速計算讓我們能夠?qū)崿F(xiàn)這些巨大的性能飛躍。而且,隨著我們不斷優(yōu)化算法,加上我們廣泛的覆蓋范圍和龐大的裝機量,我們可以持續(xù)為全球每個人降低計算成本、擴大規(guī)模、提升速度。這里還是以Google Cloud為例,各位可以看到我剛才提到的模式。

英偉達構(gòu)建了一個加速計算平臺,上面運行著一系列軟件庫。我舉了三個例子:RTX是其中之一,cuDF是另一個,cuVS是第三個。這些軟件庫都構(gòu)建在我們的平臺之上。但我們最終要集成到全球的云服務(wù)和原始設(shè)備制造商中,并與其他平臺一起,觸達整個世界。這種模式將會一次又一次地復(fù)制。這只是一個例子。英偉達和Google Cloud合作,我們加速Vertex AI,加速BigQuery。我為我們與JAX XLA的合作感到自豪。我們在PyTorch上表現(xiàn)卓越,是世界上唯一在PyTorch和JAX XLA上都表現(xiàn)如此出色的加速器。

我們支持的客戶,比如Baseten、CrowdStrike、Puma、Salesforce——他們不是我們的直接客戶,但他們是我們的開發(fā)者。我們已經(jīng)將英偉達技術(shù)集成到他們的系統(tǒng)中,最終落地到云上。我們與云服務(wù)提供商的關(guān)系,本質(zhì)上是我們把客戶帶給它們。我們集成軟件庫,加速工作負(fù)載,把這些客戶帶到云中。所以,正如各位所見,大多數(shù)云服務(wù)提供商都喜歡與我們合作,他們總是要求我們把下一個客戶放到他們的云上。我想告訴各位,客戶數(shù)量很多。我們將加速所有人。會有很多很多客戶能夠落地到你們的云中,請耐心等待。

此外,我們與AWS合作已久。今年我特別興奮的一件事是,我們將把OpenAI帶到AWS。這將推動AWS上云計算的大量消耗,擴大OpenAI的覆蓋范圍和計算能力。如各位所知,OpenAI目前完全受限于計算能力。在AWS上,我們加速EMR,加速SageMaker,加速Bedrock。英偉達與AWS的集成非常深入。AWS是我們的第一個云合作伙伴。

接下來是Microsoft Azure。英偉達的A100超級計算機——我們制造的第一臺超級計算機是給自己用的,而第一臺安裝就落地在Azure上。那次合作促成了與OpenAI的巨大成功。我們與Azure合作已久。我們現(xiàn)在加速Azure云,并與他們的AI Foundry深度合作。我們加速必應(yīng)搜索,在Azure區(qū)域上與微軟合作。這個領(lǐng)域非常重要,因為我們正在全球范圍內(nèi)持續(xù)擴展AI。

我們提供的一項關(guān)鍵能力是機密計算。在機密計算中,你要確保即使是操作員也無法看到你的數(shù)據(jù),無法觸碰或看到你的模型。英偉達的GPU是世界上第一個實現(xiàn)這一點的。現(xiàn)在,它能夠支持機密計算,并保護OpenAI和Anthropic這些極具價值的模型在云端和不同地區(qū)的部署,這都?xì)w功于我們的機密計算能力。機密計算非常重要。舉個例子,Synopsys是我們很好的合作伙伴。我們正在加速他們所有的EDA和CAE工作流程,并落地在Microsoft Azure上。

我們是甲骨文的第一個AI客戶。大多數(shù)人可能會以為我們是他們的第一個供應(yīng)商——我們的確是他們的第一個供應(yīng)商,但我們同時也是他們的第一個AI客戶。我很自豪,當(dāng)年是我第一次向甲骨文解釋了AI云的概念,然后我們成了他們的第一個客戶。自那以后,甲骨文真正起飛了。我們在那里落地了一大批合作伙伴,包括CoreWeave和Fireworks AI,當(dāng)然還有OpenAI與CoreWeave的合作。CoreWeave是全球第一個AI原生云。這家公司成立的唯一目的,就是為了迎接加速計算時代,提供GPU托管,托管AI云。他們擁有非常出色的客戶,增長驚人。

我相當(dāng)興奮的另一個平臺是Palantir和戴爾的組合。我們?nèi)夜韭?lián)手,使得建立一個全新類型的AI平臺成為可能,即Palantir的本體論平臺和AI平臺。我們可以在任何國家、任何隔離區(qū)域、完全本地部署、完全現(xiàn)場部署、完全在野外部署這些平臺。如果沒有我們的機密計算能力,如果沒有我們構(gòu)建端到端系統(tǒng)的能力,以及提供從數(shù)據(jù)處理(無論是向量還是結(jié)構(gòu)化數(shù)據(jù))一直到AI的整個加速計算和AI軟件棧的能力,這一切都不可能實現(xiàn)。

我想向各位展示這些例子,這正是我們與全球云服務(wù)提供商的特殊合作關(guān)系。他們?nèi)慷荚谶@里。我能在展臺巡視時看到他們,這令人非常興奮。感謝各位的辛勤工作。

英偉達是一家垂直整合、但在水平層面保持開放的公司。之所以必須這樣,原因很簡單:加速計算不是芯片問題,也不是系統(tǒng)問題。加速計算這個詞其實省略了一個部分,那就是“應(yīng)用加速”。如果我能讓一臺計算機運行所有程序都快,那叫CPU。但那已經(jīng)無法持續(xù)了。未來要繼續(xù)實現(xiàn)應(yīng)用程序的巨大加速、持續(xù)降低成本,唯一的方法是通過特定應(yīng)用或特定領(lǐng)域的加速。這就是為什么英偉達必須一個軟件庫接一個軟件庫、一個領(lǐng)域接一個領(lǐng)域、一個垂直行業(yè)接一個垂直行業(yè)地推進。

我們是一家垂直整合的計算公司。沒有別的辦法。我們必須理解應(yīng)用程序,必須從根本上理解算法。我們必須弄清楚如何在任何期望的場景中部署算法,無論是在數(shù)據(jù)中心、云端、本地、邊緣,還是在機器人系統(tǒng)中——所有這些計算系統(tǒng)都不相同。最后才是系統(tǒng)和芯片。我們與任何你希望我們集成的平臺合作,將英偉達技術(shù)集成進去。我們提供軟件,提供軟件庫,與你們的技術(shù)集成,將加速計算帶給全球每個人。

這次GTC就是對此的一個很好展示。 在座的各位代表了英偉達的生態(tài)系統(tǒng),包括我們供應(yīng)鏈的上游和下游。非常令人興奮的是,去年我們整個上游供應(yīng)鏈,不管是成立50年的公司、70年的公司,還是有一家150年歷史的公司,現(xiàn)在都成了英偉達供應(yīng)鏈的一部分,與我們合作。去年各位都度過了創(chuàng)紀(jì)錄的一年,對吧?祝賀各位。

我們正在做一件大事。而這,正是一件極其重大的事件的開端。

03垂直行業(yè)賦能

CUDA X軟件庫與AI原生公司爆發(fā)

大家可以看到,加速計算的計算平臺我們已經(jīng)奠定了基礎(chǔ)。但要真正激活這些平臺,我們還需要針對特定領(lǐng)域的軟件庫,去解決每一個垂直領(lǐng)域中至關(guān)重要的核心問題?,F(xiàn)在,我們正在服務(wù)每一個領(lǐng)域。

拿自動駕駛汽車來說,我們的覆蓋范圍、廣度和影響力,已經(jīng)達到了令人難以置信的程度。我們有專門的會議探討這個領(lǐng)域。在金融服務(wù)領(lǐng)域,算法交易正從傳統(tǒng)機器學(xué)習(xí)加人工特征工程,轉(zhuǎn)向用超級計算機研究海量數(shù)據(jù),讓系統(tǒng)自行發(fā)現(xiàn)洞察和模式。這個領(lǐng)域正在經(jīng)歷自己的深度學(xué)習(xí)和Transformer時刻。

醫(yī)療健康也在經(jīng)歷自己的ChatGPT時刻。我們在該領(lǐng)域有一些非常令人興奮的工作,有很出色的專題演講。我們探討用于藥物發(fā)現(xiàn)的AI物理學(xué)或AI生物學(xué),用于客戶服務(wù)和輔助診斷的AI智能體,當(dāng)然還有物理AI和機器人系統(tǒng)。所有這些不同方向的AI,都有各自不同的平臺,而英偉達都提供支持。

在工業(yè)領(lǐng)域,我們正在完全重置并啟動人類歷史上最大規(guī)模的建設(shè)。全球大多數(shù)正在建設(shè)AI工廠、芯片廠、計算機廠的行業(yè),今天都有代表在這里。媒體和娛樂(當(dāng)然也包括游戲),我們擁有實時AI平臺,可以支持翻譯、廣播、直播游戲和直播視頻,其中很大一部分內(nèi)容都將被AI增強。

在量子領(lǐng)域,這里有35家不同公司與我們合作,共同構(gòu)建下一代量子-GPU混合系統(tǒng)。零售和消費品行業(yè),人們正在使用英偉達技術(shù)進行供應(yīng)鏈管理,創(chuàng)建生成式購物系統(tǒng),構(gòu)建用于客戶支持的AI智能體,這是一個價值35萬億美元的行業(yè),大量工作正在進行。

機器人技術(shù)是制造業(yè)中價值50萬億美元的行業(yè),英偉達在這個領(lǐng)域已經(jīng)耕耘了十年,構(gòu)建了三臺計算機——這是構(gòu)建機器人系統(tǒng)所必需的基礎(chǔ)計算機。我們實際上與全球所有知名的機器人制造公司都有合作。本次展會上有110個機器人參展。

電信行業(yè)規(guī)模大約和全球IT行業(yè)相當(dāng),約2萬億美元?;緹o處不在,是全球最大的基礎(chǔ)設(shè)施之一。它是上一代計算的基礎(chǔ)設(shè)施,但即將被徹底重塑。原因很簡單:過去的基站只做基站這一件事,而未來它將成為一個運行AI的基礎(chǔ)設(shè)施平臺。AI將在邊緣運行。所以會有很多精彩的討論。我們在這個領(lǐng)域的平臺叫Aerial或AI-RAN。我們正在與諾基亞、T-Mobile和其他許多公司展開大規(guī)模合作。

回到我們業(yè)務(wù)的核心,我剛才提到的所有東西都建立在計算平臺之上,但非常重要的一點是,我們的CUDA X軟件庫。CUDA X軟件庫是英偉達發(fā)明的算法,我們本質(zhì)上是一家算法公司。這正是我們的獨特之處。這種能力讓我能夠進入每一個上述行業(yè),想象未來,讓全球最優(yōu)秀的計算機科學(xué)家去描述問題、解決問題、重構(gòu)問題、重新表達問題,然后將其轉(zhuǎn)化為軟件庫。

我們已經(jīng)取得了非常多的成果,我想本次展會我們發(fā)布了大概七十個軟件庫,也許還有四十個模型。我們一直在更新它們。這些軟件庫是我們公司皇冠上的明珠。正是它們,讓那個計算平臺真正被激活,去解決實際問題,去創(chuàng)造深遠(yuǎn)影響。

我們創(chuàng)造過的最重要、最重大的軟件庫之一是cuDNN,即CUDA深度神經(jīng)網(wǎng)絡(luò)軟件庫。它徹底改變了AI領(lǐng)域,引發(fā)了現(xiàn)代AI的大爆炸。

早在20年前,我們構(gòu)建了CUDA,一個用于加速計算的單一架構(gòu)。今天,我們徹底改變了計算。一千個CUDA X軟件庫幫助開發(fā)者在每個科學(xué)和工程領(lǐng)域取得突破。cuOpt用于決策優(yōu)化,cuLitho用于計算光刻,cuDSS用于直接稀疏求解器,cuEquivariance用于幾何感知神經(jīng)網(wǎng)絡(luò),Aerial用于AI-RAN,Warp用于可微物理,ParaBricks用于基因組學(xué)。它們的核心是算法,而且它們很美。

各位剛才看到的一切都是模擬。其中一些是基于原理的求解器,即基礎(chǔ)物理求解器。其中一些是AI智能體模型,AI物理模型。還有一些是物理AI機器人模型。一切都是模擬的。沒有任何東西是手工動畫的,沒有任何動作是人工擺拍的。這就是英偉達從根本上在做的事。正是通過對算法的理解與我們計算平臺的連接,我們才能開啟這些機會。

這就是CUDA X。剛才各位看到了一大批公司,比如沃爾瑪、歐萊雅這些非常成熟的頂尖企業(yè),還有摩根大通,這些都是定義了當(dāng)今社會的公司。豐田也在其中。這些都是全球最大的公司。同時,還有一大批各位可能從未聽說過的公司,我們稱之為AI原生公司——數(shù)量眾多的初創(chuàng)企業(yè)。

在這個列表里,有一大批全新的公司。各位可能聽說過其中幾個,比如OpenAI、Anthropic。但除此之外,還有更多服務(wù)于不同垂直領(lǐng)域的公司。過去兩年發(fā)生了一些重大變化,尤其是去年。我們與AI原生公司合作已久,但去年這個領(lǐng)域突然爆發(fā)了。我想解釋一下為什么。

這個行業(yè)迎來了爆發(fā),有1500億美元的風(fēng)險投資涌入初創(chuàng)公司,這是人類歷史上規(guī)模最大的一輪投資。這也是第一次,投資規(guī)模從過去的幾百萬、幾千萬美元躍升到幾億甚至幾十億美元。原因是,這是歷史上第一次,每一家這樣的公司都需要計算能力,而且需要非常、非常多的計算能力。

它們需要海量的token。它們要么需要自己創(chuàng)建和生成token,要么需要集成并增值由Anthropic、OpenAI等公司創(chuàng)造的現(xiàn)有token。所以這個行業(yè)在很多方面都不同以往,但有一點很清楚:它們正在產(chǎn)生的影響,以及它們已經(jīng)在交付的令人難以置信的價值,都是相當(dāng)切實的。AI原生公司的興起,這一切都是因為我們重塑了計算。

就像個人電腦革命時期、互聯(lián)網(wǎng)革命時期或移動云時代一樣,催生了無數(shù)新企業(yè)。每一個時代都有自己的標(biāo)志性公司,而我們正在談?wù)摰恼沁@個時代剛剛發(fā)生的一個重大變革。在這一代,我們同樣迎來了自己的一大批非常、非常特別的公司。

我們重塑了計算。按理說,必然會有一大批新的重要公司涌現(xiàn),那些對未來世界有重大影響的公司。像Google、Amazon、Meta這樣的公司,正是上一次計算平臺轉(zhuǎn)變的結(jié)果。而我們現(xiàn)在,正處于一個新平臺轉(zhuǎn)變的開端。

04范式轉(zhuǎn)變

推理工作負(fù)載的激增與Token經(jīng)濟

我要重點強調(diào)三件事。

首先,ChatGPT當(dāng)然開啟了生成式AI時代。它不僅能理解、感知,還能翻譯和生成,創(chuàng)造出獨特的內(nèi)容。我剛才給大家展示了生成式AI與計算機圖形的融合,它讓計算機圖形變得栩栩如生。各位,全球每個人都該用ChatGPT。我每天早上都在用,今天早上也用了不少。ChatGPT開啟了生成式AI時代。

第二,生成式計算與我們過去做計算的方式完全不同。生成式AI是軟件的一種能力,但它深刻地改變了計算的完成方式。過去的計算是基于檢索的,你需要什么就去查找什么;而現(xiàn)在是生成式的,系統(tǒng)自己創(chuàng)造內(nèi)容。大家在聽我談?wù)撨@些時如果記住這點,就會意識到,為什么我們做的所有事情都會改變計算機的架構(gòu)方式、提供方式、構(gòu)建方式,乃至計算的整個意義。

生成式AI,那是2022年底到2023年的事。接下來是推理式AI,從o1模型開始,然后隨著o3真正起飛。推理能力讓它能夠反思,能夠自己思考,能夠計劃,能夠把一個它無法理解的問題分解成它能理解的步驟或部分。它可以基于研究得出結(jié)論。o1讓生成式AI變得可信賴、基于事實,這讓ChatGPT徹底起飛了。那是一個非常、非常重要的時刻。要達到好的效果,所需的輸入token數(shù)量,以及為了推理而生成的輸出token數(shù)量,都大大增加了。當(dāng)然你可以有更大的模型,o1模型稍微大了一點,但大不了太多,然而它用于理解上下文的輸入token,以及用于思考過程的輸出token,極大地增加了計算量。

然后是Claude Code,第一個真正的智能體模型。它能夠讀取文件、編寫代碼、編譯、測試、評估,然后返回迭代結(jié)果。Claude Code徹底改變了軟件工程。各位都知道,英偉達現(xiàn)在所有人都在使用Claude Code,或者通常是三個工具的組合——Claude Code、Codex、Cursor。今天,沒有一位軟件工程師不是在一個或多個智能體的幫助下編寫代碼的。Claude Code開創(chuàng)了這個轉(zhuǎn)折點,而且是第一次。

現(xiàn)在我們不再只是問AI“什么、在哪里、什么時候、怎么樣”這些基礎(chǔ)問題。我們開始讓它去創(chuàng)造、執(zhí)行、構(gòu)建。它學(xué)會了使用工具:接入你的上下文環(huán)境、讀取文件。它能智能地把復(fù)雜問題拆解開來,一步步推理、反思,最終不僅找到答案,還能實際執(zhí)行任務(wù)。一個能夠感知的AI,變成了能夠生成的AI,然后又變成了能夠推理的AI,現(xiàn)在變成了能夠工作的AI——而且是極富效率的工作。

過去兩年,計算需求的增長幅度之大,在座各位都很清楚——對英偉達GPU的需求已經(jīng)高得離譜了?,F(xiàn)貨價格飛漲,就算想找一塊GPU也找不到。但與此同時,我們出貨了巨量的GPU,需求卻還在持續(xù)上升。這背后是有原因的:一個根本性的轉(zhuǎn)折正在發(fā)生。最終,AI能夠從事有生產(chǎn)力的工作了,因此推理的轉(zhuǎn)折點已經(jīng)到來。

AI現(xiàn)在必須思考,要思考就必須推理;AI現(xiàn)在必須行動,要行動就必須推理;AI必須閱讀,要閱讀就必須推理。AI的每一個部分,每一次它都需要思考、需要推理、需要行動、需要生成token。現(xiàn)在已經(jīng)過了單純訓(xùn)練的階段,進入了推理的領(lǐng)域。所以推理的轉(zhuǎn)折點已經(jīng)到來,而此時所需的token量、計算量,相比之前增加了大約一萬倍。

現(xiàn)在我把這些結(jié)合起來看:過去兩年,工作的計算需求增加了一萬倍,使用量大概增加了一百倍。人們聽我說過,我相信過去兩年計算需求實際增加了100萬倍。這是我們所有人的感受,是每個初創(chuàng)公司的感受,是OpenAI或Anthropic的感受。如果能有更多算力,他們就能生成更多token,收入就會增加,更多人能夠使用,AI就能變得更先進、更智能。我們現(xiàn)在正處于那個正向循環(huán)的飛輪系統(tǒng)中。我們已經(jīng)到了那個時刻。推理的轉(zhuǎn)折點已經(jīng)到來。

去年這個時候,我站在這里,說我們看到了大約5000億美元的、置信度非常高的需求,以及到2026年的Blackwell和Rubin采購訂單。我不知道各位有沒有同感,但5000億美元是極其龐大的收入,但似乎沒人感到驚訝。我知道各位為什么不驚訝——因為各位所有人都度過了創(chuàng)紀(jì)錄的一年。

而今天,在去年GTC之后僅僅一年,我站在這里要告訴各位的是:我們現(xiàn)在看到了到2027年至少一萬億美元的市場機會。這聽起來合理嗎?這就是我接下來要談的內(nèi)容。事實上,我們的供應(yīng)還會跟不上需求。我確信實際的計算需求會比這高得多。這背后是有原因的。

首先,去年我們做了大量工作。2025年無疑是英偉達的推理之年。我們要確保不僅在訓(xùn)練和后期訓(xùn)練方面做得好,而且在AI的每一個階段都做到極致。這樣,大家對我們基礎(chǔ)設(shè)施進行的投資,就能夠盡可能長久地擴展使用。英偉達基礎(chǔ)設(shè)施的使用壽命會很長,因此長期來看成本會非常低——能夠使用得越久,分?jǐn)傁聛淼某杀揪驮降汀N液敛粦岩?,英偉達系統(tǒng)是你能夠獲得的、用于AI基礎(chǔ)設(shè)施的全球成本最低的系統(tǒng)。

所以第一部分是:去年整個行業(yè)聚焦于推理AI,正是這一點推動了這個轉(zhuǎn)折點。同時,我們也很高興去年Anthropic加入了英偉達生態(tài),Meta也選擇了英偉達。作為一個整體,這些合作伙伴代表了全球AI計算能力的三分之一。此外,開源模型已經(jīng)接近前沿水平,而且確實已經(jīng)無處不在。

英偉達今天是全球唯一一個能夠運行每一個AI領(lǐng)域的平臺,覆蓋所有這些AI模型——無論是語言、生物學(xué)、計算機圖形、計算機視覺、語音、蛋白質(zhì)、化學(xué)還是機器人領(lǐng)域,無論是在邊緣還是在云端,無論使用什么語言。英偉達的架構(gòu)適用于所有這些領(lǐng)域,我們在每一個領(lǐng)域都表現(xiàn)卓越。這使我們成為成本最低、最值得信賴的平臺。

當(dāng)各位考慮構(gòu)建這些系統(tǒng)時,就像我說的,一萬億美元是一個極其龐大的基礎(chǔ)設(shè)施投入。你必須完全確信,投入的這一萬億美元能夠得到充分利用,性能優(yōu)異,成本效益極高,而且在你所能預(yù)見的未來,你在英偉達上的基礎(chǔ)設(shè)施投資能夠擁有長久的使用壽命。只有這樣,你才能滿懷信心地投入。我們現(xiàn)在已經(jīng)證明,這是全球唯一一個你可以放心去任何地方建設(shè)的基礎(chǔ)設(shè)施。你想放在任何云里,我們樂意;想放在本地,我們高興;想放在任何國家、任何地方,我們都樂意支持你。我們現(xiàn)在是一個能夠運行所有AI的計算平臺。

現(xiàn)在來看我們的業(yè)務(wù)結(jié)構(gòu)。大約60%來自超大規(guī)模云服務(wù)商,主要是前五大超大規(guī)模云服務(wù)商。但即使在這前五家里,也有一部分是內(nèi)部AI消耗,比如推薦系統(tǒng)正從傳統(tǒng)的基于表格、協(xié)同過濾、內(nèi)容過濾的方式,轉(zhuǎn)向深度學(xué)習(xí)和大型語言模型。搜索也在經(jīng)歷同樣的轉(zhuǎn)變。幾乎所有這些超大規(guī)模工作負(fù)載,現(xiàn)在都在轉(zhuǎn)向英偉達GPU極其擅長的工作負(fù)載。

除此之外,因為我們與每一個AI實驗室合作,因為我們加速每一個AI模型,因為我們與龐大的AI原生公司生態(tài)系統(tǒng)緊密相連,我們可以將這些公司帶到云端——不管投資規(guī)模多大、多快,這些算力都會被消耗掉。這部分占了我們業(yè)務(wù)的60%。

另外40%則無處不在:區(qū)域云、主權(quán)云、企業(yè)、工業(yè)、機器人、邊緣、大型系統(tǒng)、超級計算系統(tǒng)、小型服務(wù)器、企業(yè)服務(wù)器。系統(tǒng)的數(shù)量,令人難以置信。AI的多樣性也正是它的韌性所在。AI覆蓋之廣,賦予了它這種韌性。毫無疑問,這不是一個單一應(yīng)用的技術(shù)。這現(xiàn)在是根本性的變革,絕對是一個新的計算平臺轉(zhuǎn)折點。

那么,我們的工作就是持續(xù)推進技術(shù)。去年我提到的最重要的事之一是,去年是我們的推理之年。我們?nèi)σ愿?。我們冒了巨大的風(fēng)險,在Hopper架構(gòu)正處在巔峰、表現(xiàn)正好的時候,決定徹底改造它。我們認(rèn)為Hopper架構(gòu)的NVLink連通數(shù)(NVLink 8)必須再上一個臺階。于是我們完全重新架構(gòu)了整個系統(tǒng),徹底分解了計算系統(tǒng),創(chuàng)造了NVLink 72。它的構(gòu)建方式、制造方式、編程方式都徹底改變了。Grace Blackwell NVLink 72是一個巨大的賭注,對任何人都不容易,包括在座我的許多合作伙伴。感謝各位的辛勤工作。

此外,NVFP4是一種完全不同類型的張量核心和計算單元。我們現(xiàn)在已經(jīng)證明,用NVFP4進行推理沒有任何精度損失,但性能和能效獲得了巨大提升。我們也能用NVFP4進行訓(xùn)練。所以,NVLink 72、NVFP4、Dynamo的發(fā)明、TensorRT-LLM,還有一大堆新算法相繼問世。我們甚至建造了一臺超級計算機來幫助我們優(yōu)化內(nèi)核,優(yōu)化整個軟件棧。我們稱之為DGX Cloud。我們投入了數(shù)十億美元的超級計算能力,幫助我們創(chuàng)建內(nèi)核和軟件,使這一切成為可能。

所有的成果匯集到了一起。過去曾有人跟我說:Jensen,推理太容易了。但實際上,推理是終極難題,也是至關(guān)重要的,因為它直接驅(qū)動各位的收入。這就是最終的結(jié)果。這是來自SemiAnalysis的一份報告,是有史以來范圍最廣、最全面的AI推理基準(zhǔn)測試。

各位請看左邊——這個軸是每瓦特生成的token數(shù)。這很重要,因為每個數(shù)據(jù)中心、每個工廠本質(zhì)上都受功耗限制。一個1吉瓦的工廠永遠(yuǎn)不會變成2吉瓦,這是物理定律。所以,對于那個1吉瓦的數(shù)據(jù)中心,你希望驅(qū)動最大數(shù)量的token,也就是那個工廠的產(chǎn)出。所以你希望處在那條曲線的頂端,越高越好。

X軸代表的是推理的交互性,也就是速度,即AI響應(yīng)你的快慢。速度越快,你當(dāng)然可以更快地響應(yīng)。但更重要的是,推理速度越快,意味著你可以運行更大的模型、處理更長的上下文、生成更多的思考token——而這個,本質(zhì)上決定了AI的智能程度。所以X軸,其實就是AI的吞吐量,也是AI的智能水平。

但請注意:AI越智能,吞吐量反而會下降。這很合理,對吧?因為思考需要更長的時間。所以這個軸就是速度。我稍后還會回到這里。這非常重要,可能有點折磨人,但它太重要了。各位看著吧,未來全球的每一位CEO,都將以我即將描述的方式來審視他們的業(yè)務(wù),因為這就是你們的token工廠,這就是你們的AI工廠,這就是你們的收入來源。未來毫無疑問就是這樣。所以,這個是吞吐量,這個是智能。

對于給定的數(shù)據(jù)中心功耗,每瓦性能越好,吞吐量就越高,你就能生產(chǎn)越多的token。而另一邊則是成本。你會注意到,英偉達擁有全球最高的性能。這本身可能不讓人意外。真正讓人震撼的是一代產(chǎn)品中提升的幅度。

按照摩爾定律,過個幾年性能就能翻倍,一代產(chǎn)品通過晶體管升級,大概能帶來1.5倍的性能提升。你可能預(yù)期下一代產(chǎn)品比Hopper H200高出1.5倍。但沒人能預(yù)料到會高出35倍。我去年這個時候說,英偉達的Grace Blackwell NVLink 72在每瓦性能上提升了35倍。沒人相信我。后來SemiAnalysis發(fā)布了報告,Dylan Patel有一句話。他指責(zé)我有所保留(sandbagging)。他說:“Jensen有所保留,實際是50倍?!彼麤]有說錯。因此,我們的每token成本是全球最低的,你根本無法擊敗它。

我以前說過:如果你的架構(gòu)不對,即使免費,也不夠便宜。因為無論發(fā)生什么,你都得建一個1吉瓦的數(shù)據(jù)中心,一個1吉瓦的工廠。而那個1吉瓦的工廠,在15年的折舊期內(nèi),分?jǐn)傁聛淼某杀敬蟾乓?00億美元——就算什么都不放進去,這也是400億美元的投入。所以,你最好確保在這個設(shè)施里放最好的計算機系統(tǒng),這樣你才能獲得最低的token成本。英偉達的token成本是世界級的,目前基本上無人能及。之所以能做到這一點,靠的是極致的軟硬件協(xié)同設(shè)計(co-design)。所以我挺高興他們給了我們這個稱號——曾有一位猴王(Monkey King),現(xiàn)在有了Token之王。

就像我告訴各位的,我們將所有的軟件進行垂直整合,但水平開放。我們把所有的軟件和技術(shù),以任何可能的方式打包,集成到全球的推理服務(wù)提供商中。這些公司增長太快了。比如Fireworks AI,Lin(林君叡)今天也在這里。他們就是增長得如此之快,去年增長了一百倍。它們是token工廠——對它們來說,工廠的有效性、性能和token生產(chǎn)成本就是一切。

這就是發(fā)生的事情。我們更新了他們的軟件,用的還是同樣的系統(tǒng)。你看他們的token速度:令人難以置信的差距。在英偉達更新所有算法、所有軟件、以及我們帶來的所有技術(shù)之前,平均每秒大概處理700個token;之后接近5000,提高了7倍。這就是極致協(xié)同設(shè)計的驚人力量。

我之前提到過工廠的重要性。這就是工廠的重要性。你的數(shù)據(jù)中心,過去是存放文件的地方,現(xiàn)在變成了生成token的工廠。而你的工廠,無論如何都是受限的。每個人都在尋找土地、電力和機房外殼。一旦建好,你就受制于電力了。在那個電力受限的基礎(chǔ)設(shè)施里,你最好確保你的推理——因為你知道推理就是你的工作負(fù)載,token是你的新商品,計算是你的收入來源——你最好確保未來的架構(gòu)是盡可能優(yōu)化的。

未來,每一個云服務(wù)提供商(CSP)、每一家計算機公司、每一家云公司、每一家AI公司——實際上,就是每一家公司——都會思考它們的token工廠的運營效率。這就是各位未來的工廠。我之所以知道這一點,是因為這個房間里的每個人都由智能驅(qū)動;而未來,這種智能將由token來增強。

05硬件架構(gòu)路線圖

Vera Rubin系統(tǒng)與Groq集成

讓我?guī)Ц魑换仡櫼幌挛覀兪侨绾巫叩浇裉斓摹?/p>

2016年4月6日,差不多十年前,我們推出了DGX-1——全球第一臺專門為深度學(xué)習(xí)設(shè)計的計算機。八塊Pascal GPU,通過第一代NVLink連接。一臺計算機170 teraflops。那是全球第一臺為AI研究人員打造的計算機。

到了Volta,我們引入了NVLink Switch。16塊GPU以全對全帶寬連接,像一個巨大的GPU一樣運行。這向前邁出了一大步,但模型還在變大。數(shù)據(jù)中心需要變成一個單一的計算單元。于是Mellanox加入了英偉達。

2020年,DGX A100 SuperPOD成為第一臺結(jié)合縱向擴展(scale-up)和橫向擴展(scale-out)架構(gòu)的GPU超級計算機。NVLink 3做縱向擴展,ConnectX-6和Quantum InfiniBand做橫向擴展。然后是Hopper,第一個帶FP8 Transformer引擎的GPU,它開啟了生成式AI時代。NVLink 4、ConnectX-7、BlueField-3 DPU、第二代Quantum InfiniBand——它徹底改變了計算。

Blackwell用NVLink 72重新定義了AI超級計算機的系統(tǒng)架構(gòu)。72塊GPU通過NVLink Spine連接,每秒130TB全對全帶寬。計算托盤集成了Blackwell GPU、Grace CPU、ConnectX-8和BlueField-3。橫向擴展跑在Spectrum-4以太網(wǎng)上。隨著預(yù)訓(xùn)練、后期訓(xùn)練、推理這三種擴展定律全速推進,再加上現(xiàn)在智能體系統(tǒng)的出現(xiàn),計算需求在持續(xù)指數(shù)級增長。

現(xiàn)在,Vera Rubin的架構(gòu)專為智能體AI的每個階段設(shè)計,它推進了計算的每一個支柱——CPU、存儲、網(wǎng)絡(luò)和安全。Vera Rubin NVLink 72,3.6 exaflops算力,每秒260TB全對全NVLink帶寬。這個引擎正在為智能體AI時代提供超級動力。Vera CPU機架專為編排和智能體工作流設(shè)計,STX機架是基于BlueField-4的AI原生存儲,用Spectrum-X做橫向擴展,還采用了共封裝光學(xué)來提高能效和可靠性。

還有一個令人興奮的新成員:Groq 3 LPX機架。它與Vera Rubin緊密連接。Groq LPU擁有海量的片上SRAM,成為已經(jīng)極快的Vera Rubin的token加速器。兩者結(jié)合,每兆瓦吞吐量提高了35倍。一個全新的Vera Rubin平臺——七款芯片,五款機架級計算機,一臺為智能體AI打造的革命性超級計算機。短短10年,計算能力提升了4000萬倍。

以前我說Hopper的時候,會舉起一塊芯片。那真可愛。這是Vera Rubin。當(dāng)我們談Vera Rubin時,我們談的是整個系統(tǒng)——垂直整合,完全與軟件結(jié)合,端到端擴展,作為一個巨大的系統(tǒng)來優(yōu)化。它之所以為智能體系統(tǒng)設(shè)計,原因很清楚:智能體最重要的負(fù)載是思考,是大語言模型。大語言模型會變得越來越大,會越來越快地生成更多token,以便它能更快思考。但它也必須訪問內(nèi)存,它會非常用力地沖擊內(nèi)存——KV緩存、結(jié)構(gòu)化數(shù)據(jù)(cuDF)、非結(jié)構(gòu)化數(shù)據(jù)(cuVS)。它會非常用力地沖擊存儲系統(tǒng),所以我們徹底改造了存儲系統(tǒng)。

它還會使用工具。與對較慢計算機容忍度較高的人類不同,AI希望工具盡可能快。這些工具——網(wǎng)絡(luò)瀏覽器,在未來也可能是云中的虛擬PC——必須盡可能快。所以我們創(chuàng)造了一個全新的CPU,專為極高單線程性能、極高數(shù)據(jù)吞吐量、極佳數(shù)據(jù)處理能力和極致能效而設(shè)計。它是全球唯一使用LPDDR5X的數(shù)據(jù)中心CPU,單線程性能和每瓦性能無與倫比。我們設(shè)計它,就是為了讓它能與這些機架一起用于智能體處理。

這就是Vera Rubin系統(tǒng)。注意,從這次開始,百分之百液冷。所有的電纜都不見了。過去需要兩天安裝的東西,現(xiàn)在兩小時搞定,不可思議。制造周期會大大縮短。這也是一臺用45°C熱水冷卻的超級計算機,減輕了數(shù)據(jù)中心壓力,把原本用于冷卻數(shù)據(jù)中心的成本和能量釋放出來給系統(tǒng)使用。這是我們的秘訣。我們是全球唯一一家已經(jīng)構(gòu)建了第六代縱向擴展交換系統(tǒng)的公司——這不是以太網(wǎng),不是InfiniBand,這是NVLink。第六代NVLink,極其困難。嗯,極其困難,毫無疑問。我為我們的團隊感到自豪。NVLink完全冷卻。

這是全新的Groq系統(tǒng)。我稍后會給你們展示更多。八塊GU芯片組成的LP30——全球從未見過。全球見過的是V1,這是第三代。我們現(xiàn)在正在量產(chǎn)。稍后我會向你們展示更多相關(guān)內(nèi)容。全球第一個CPO Spectrum-X交換機,也全面量產(chǎn)了。共封裝光學(xué),光學(xué)器件直接來到芯片上,直接與硅片接口連接。電子轉(zhuǎn)換為光子,并直接連到芯片。我們與臺積電共同發(fā)明了工藝技術(shù),我們是今天唯一量產(chǎn)的。它叫CPO,完全是革命性的。英偉達全面量產(chǎn)Spectrum-X。

這是Vera CPU系統(tǒng)。每瓦性能是全球任何CPU的兩倍,也在量產(chǎn)。我們從沒想過會單獨銷售CPU,我們現(xiàn)在卻單獨銷售很多。這已經(jīng)是一個數(shù)十億美元的業(yè)務(wù)了。我特別滿意我們的CPU架構(gòu)師。我們設(shè)計了一款革命性的CPU,這是CX9,由Vera CPU、BlueField-4、STX驅(qū)動,我們的新存儲平臺。

這些是機架,它們連接在一起。每個這樣的機架,這是NVLink機架,我以前給大家看過,超級重,而且感覺每年都在加重——我覺得是因為里面的電纜每年都在增加。我們決定也把這套技術(shù)用在以太網(wǎng)上,因為它來構(gòu)建這些帶有布線系統(tǒng)的結(jié)構(gòu)化布線數(shù)據(jù)中心非常高效。這是以太網(wǎng),256個液冷節(jié)點在一個機架里,也用上了這些令人難以置信的連接器。

你們想看Rubin Ultra嗎?這是Rubin Ultra計算節(jié)點。和Rubin水平滑入不同,Rubin Ultra進入一個全新的機架,叫Kyber,讓我們在單個NVLink域中能連接144塊GPU。這個Kyber機架,我肯定能舉起來,但我不舉——它相當(dāng)重。這是一個計算節(jié)點,垂直滑入Kyber機架。它在這里連接,這是中置背板(midplane)。那四個頂部的NVLink連接器滑進去,連到這個上面,就成了其中一個節(jié)點。每個機架都是一個不同的計算節(jié)點。這是神奇的部分:這是中置背板,背面不再使用布線系統(tǒng)——布線系統(tǒng)在銅纜能驅(qū)動的距離上有局限——我們現(xiàn)在用這個系統(tǒng)連接144塊GPU。這是新的NVLink,也垂直放置,連接到中置背板背面。計算在前面,NVLink交換機在后面。一臺巨大的計算機。這就是Rubin Ultra。

只有在英偉達的主題演講上,你才會看到去年的幻燈片再次出現(xiàn)。因為我想讓各位知道,去年我告訴過你們一件非常重要的事,重要到值得再講一次。這可能是未來AI工廠最重要的圖表。全球每一位首席執(zhí)行官都會追蹤它,會深入研究它。雖然實際比這復(fù)雜得多、是多維的,但各位會研究你們AI工廠的吞吐量和token速度——在恒定功耗下,因為那就是你擁有的所有功耗。吞吐量和token速度對于你們的工廠將永遠(yuǎn)重要。這個分析會直接反映在收入上。各位今年所做的,會精確地出現(xiàn)在明年的收入上。這張圖表就是一切的核心。

我說過,縱軸是吞吐量,橫軸是token速率。今天我要再給各位看這個,因為我們現(xiàn)在能夠提高token速度,因為模型大小在增加,token長度、上下文長度在持續(xù)增長,取決于不同應(yīng)用場景的級別,可能從10萬token的輸入長度到數(shù)百萬。輸入token長度在增長,輸出token長度也在增長。所有這些最終會影響到未來token的市場營銷和定價。

token是新的商品。像所有商品一樣,一旦達到轉(zhuǎn)折點,一旦成熟或趨于成熟,它就會被分割成不同的部分。高吞吐量低速度的可能用于免費層級。下一層可能是中等層級。更大的模型,更不用說速度更高,輸入上下文長度更大,對應(yīng)著不同的價格點。各位可以從所有不同的服務(wù)中看到:這個是免費的層級;第一層可能是每百萬token 3美元;下一層可能是每百萬token 6美元。你希望能不斷推進這個邊界,因為模型越大越智能,輸入token上下文長度越長越相關(guān),速度越高,你能思考和迭代的時間越長,AI模型就越智能。

所以這是關(guān)于更智能的AI模型。當(dāng)你擁有更智能的模型時,每一次這樣的提升都讓你能夠提價。這個是45美元。也許有一天會有一個高級服務(wù),讓你以極高的速度生成token——因為你處于關(guān)鍵路徑上,或者你在做很長的研究,所以每百萬token 150美元根本不算什么。讓我們換算一下:假設(shè)你作為一名研究員,每天使用5000萬token,按每百萬150美元計算。作為一個研究團隊,這根本不算什么。所以我們相信這是未來,這是AI想要去的方向,這也是它今天的位置。它必須從這里開始,確立價值和實用性,然后越來越好。未來,各位會看到大多數(shù)服務(wù)覆蓋所有這些層級。

這是Hopper。我也開始移動了。這是50,這是100。Hopper看起來像這樣。你可能會預(yù)期下一代會更高,但沒人預(yù)料到會高這么多。這是Grace Blackwell。Grace Blackwell所做的,是在你的免費層級極大地提高了吞吐量。但在你主要盈利的地方,它將吞吐量提高了35倍。這和全球任何公司生產(chǎn)的任何產(chǎn)品沒什么不同——層級越高,質(zhì)量越高,性能越高,產(chǎn)量越低,容量越低。這和世界上其他任何業(yè)務(wù)沒什么兩樣。現(xiàn)在,我們能夠?qū)⑦@個層級提高35倍。我們引入了一個全新的層級。這就是Grace Blackwell的好處。相對于Hopper的巨大飛躍。

好,這是Grace Blackwell。好的。讓我重置一下。這是Vera Rubin。現(xiàn)在想想在每個層級發(fā)生了什么。在每個層級,在每個層級,我們都提高了吞吐量。而在各位平均售價(ASP)最高、最有價值的細(xì)分市場,我們將其提高了10倍。這就是艱苦工作的成果,要在那個層級做到這一點非常非常困難。這是NVLink 72的好處,是極低延遲的好處,是極致協(xié)同設(shè)計的好處,讓我們能夠把整個區(qū)域往上移。

那么,從客戶的角度看,這最終意味著什么?假設(shè)我把所有這些加起來。假設(shè)我把25%的功耗用在免費層級,25%在中等層級,25%在高層級,25%在高級層級。我的數(shù)據(jù)中心只有1吉瓦,所以我必須決定如何分配。免費層級讓我吸引更多客戶,這個讓我服務(wù)最有價值的客戶。所有這些的乘積,基本上就是你的收入。在這個簡化的例子里,Blackwell能夠產(chǎn)生5倍多的收入。Vera Rubin能夠產(chǎn)生5倍。是的。所以如果你是Rubin,你應(yīng)該盡快拿到它——因為你的token成本下降,吞吐量上升。但我們想要更多。我們想要更多。

就像我告訴各位的,這個吞吐量需要大量的浮點運算,這個延遲、交互性需要巨大的帶寬。計算機不喜歡極端的浮點運算量加極端的帶寬量,因為任何系統(tǒng)的芯片表面面積就那么多。優(yōu)化高吞吐量和優(yōu)化低延遲實際上是相互沖突的。所以當(dāng)我們與Groq結(jié)合時,就發(fā)生了這個。

我們收購了開發(fā)Groq芯片的團隊,授權(quán)了技術(shù),現(xiàn)在一直在合作集成這個系統(tǒng)。這就是它看起來的樣子。在最有價值的層級,我們現(xiàn)在要把性能再提高35倍。

這個非常簡單的圖表向各位揭示了為什么英偉達在絕大多數(shù)工作負(fù)載中如此強大。原因是在這個區(qū)域,吞吐量太重要了。NVLink 72如此具有變革性,它正是合適的架構(gòu),即使你加入Groq也很難被超越。但如果你把這個圖表一直延伸到這兒——你說你想要的服務(wù)不是400個token每秒,而是一千個token每秒——突然間NVLink 72就力不從心了,它根本無法達到。我們就是沒有足夠的帶寬。所以這就是Groq發(fā)揮作用的地方。它延伸到了NVLink 72能力極限之外的地方。

如果你要那么做,相對于Blackwell,Vera Rubin的營收將是5倍。如果你大部分工作負(fù)載是高吞吐量的,我會堅持用100%的Vera Rubin。如果你很多工作負(fù)載想要進行編碼和高價值的工程token生成,我會加入Groq。我可能會把我整個數(shù)據(jù)中心的大概25%加入Groq,剩下的全是Vera Rubin。這讓你大致了解,如何把Groq加到Vera Rubin上,進一步擴展它的性能和價值。Groq之所以對我有吸引力,是因為他們的計算系統(tǒng)是一個確定性的數(shù)據(jù)流處理器,靜態(tài)編譯,由編譯器調(diào)度——意思是編譯器計算出何時進行計算,計算和數(shù)據(jù)同時到達。所有都是靜態(tài)預(yù)先完成,完全由軟件調(diào)度,沒有動態(tài)調(diào)度。這個架構(gòu)設(shè)計有海量SRAM,就是為了推理而設(shè)計,就這一個工作負(fù)載。而這個工作負(fù)載,事實證明,正是AI工廠的工作負(fù)載。隨著世界持續(xù)增加它想要生成的高速token數(shù)量、超智能token數(shù)量,這種集成的價值會越來越高。

這是兩個極端的處理器。你可以看到,一塊芯片500兆字節(jié)SRAM,一塊Rubin芯片288GB。需要很多塊Groq芯片才能容納Rubin的參數(shù)大小,以及所有必須伴隨的KV緩存上下文。這限制了Groq真正觸及主流、真正起飛的能力——直到我們有一個好主意:如果我們用一個叫Dynamo的軟件把推理完全分解開來呢?如果我們重新架構(gòu)推理在流水線中的完成方式呢?這樣我們就可以把非常適合Vera Rubin的工作放上去,然后把解碼生成——這個低延遲、帶寬受限、充滿挑戰(zhàn)的工作負(fù)載部分——卸載給Groq。

所以我們聯(lián)合、統(tǒng)一了兩個差異極大的處理器,一個用于高吞吐量,一個用于低延遲。這仍然改變不了我們需要大量內(nèi)存的事實。所以我們只是要加入一大批Groq芯片,擴展它擁有的內(nèi)存量。你可以想象,對于一個萬億參數(shù)的模型,我們必須把所有這些存放在Groq芯片里。但它緊挨著英偉達 Vera Rubin,我們可以在那里保存處理所有智能體AI系統(tǒng)所需的海量KV緩存。這基于分解推理的想法。我們做預(yù)填充,那是容易的部分。但我們緊密集成了解碼,解碼的注意力部分在英偉達的Vera Rubin上完成——那需要大量數(shù)學(xué)運算——而解碼的前饋網(wǎng)絡(luò)部分、token生成部分,在Groq上完成。這兩者通過以太網(wǎng)緊密耦合工作,采用特殊模式將其延遲減少了大約一半。這種能力讓我們能夠集成這兩個系統(tǒng)。我們在其上運行Dynamo,這個面向AI工廠的令人難以置信的操作系統(tǒng)。你得到35倍的提升。35倍的提升。更不用說用于token生成的、全球從未見過的新的推理性能層級了。所以,這就是包含Groq的Vera Rubin系統(tǒng)。

我要感謝三星為我們制造Groq LP30芯片,他們正在全力以赴地生產(chǎn)。我非常感謝。我們在量產(chǎn)Groq芯片,我們將在下半年出貨,大概在第三季度。

Groq LPX,Vera Rubin。你知道,很難想象還能有更多客戶了。真正讓人欣慰的是,雖然Grace Blackwell早期樣品因為NVLink 72的結(jié)合而非常復(fù)雜,但Vera Rubin的采樣進展非常順利。事實上,Satya已經(jīng)發(fā)短信告訴我,第一個Vera Rubin機架已經(jīng)在Microsoft Azure上運行起來了。我為他們感到非常興奮。我們只需要繼續(xù)全力生產(chǎn)這些東西。我們現(xiàn)在已經(jīng)建立了一個供應(yīng)鏈,每周能夠生產(chǎn)數(shù)千套這樣的系統(tǒng),基本上每個月能在我們的供應(yīng)鏈內(nèi)產(chǎn)出數(shù)吉瓦的AI工廠。所以我們將全力生產(chǎn)Vera Rubin機架,同時也全力生產(chǎn)GB300機架。我們正在全面量產(chǎn)。

Vera CPU非常成功。原因是AI需要CPU來使用工具,而Vera CPU正是為這個最佳位置設(shè)計的。對于下一代數(shù)據(jù)處理,Vera CPU是理想的。Vera CPU加上BlueField-4及CX9連接到BlueField-4 STX,百分之百的全球存儲行業(yè)都和我們一起采用這個系統(tǒng)。原因在于他們看到了同樣的事情:存儲系統(tǒng)將被猛烈沖擊。過去是人類在使用存儲系統(tǒng),是人類在使用SQL?,F(xiàn)在將是AI在使用這些存儲系統(tǒng),它將存儲cuDF加速存儲、cuVS加速存儲,還有非常重要的KV緩存。

好的。所以這就是Vera Rubin系統(tǒng)。

現(xiàn)在,真正神奇的是這個:在僅僅兩年時間里,在一個1吉瓦的工廠里,用我之前給各位的數(shù)學(xué)計算,摩爾定律也許能給我們幾個步驟的提升——可能會把晶體管數(shù)量乘以某個因子,把浮點運算量乘以某個因子,把帶寬量乘以某個因子。但有了這個架構(gòu),我們把token生成速率從每秒200萬提高到7億,提升了350倍。這就是極致協(xié)同設(shè)計(的力量。這就是我所說的:我們垂直整合和優(yōu)化,然后水平開放,讓每個人都能享受。

這是我們的路線圖。很快說一下,Blackwell在這里,Oberon系統(tǒng)。對于Rubin,我們有Oberon系統(tǒng)。我們總是向后兼容——所以如果你不想改變?nèi)魏螙|西,只想隨著新架構(gòu)前進,你可以。舊的標(biāo)準(zhǔn)機架系統(tǒng)Oberon仍然可用。Oberon是銅纜縱向擴展。使用Oberon,我們也可以使用光學(xué)橫向擴展——抱歉,是光學(xué)縱向擴展到NVLink 576。最近有很多討論說英偉達是要用銅纜縱向擴展還是光學(xué)縱向擴展。我們兩者都要。所以,我們將用Kyber實現(xiàn)NVLink 144,用Oberon實現(xiàn)NVLink 72加光學(xué)擴展到NVLink 576。

下一代Rubin,Rubin Ultra。我們有Rubin Ultra芯片,即將流片回來,我們有一個全新的芯片LP35。LP35將首次整合英偉達的NVFP4計算結(jié)構(gòu),再給你幾個倍的加速。這就是Oberon NVLink 72光學(xué)縱向擴展,它使用Spectrum-6,全球第一款共封裝光學(xué)交換機,所有這些都在量產(chǎn)中。

從這里開始的下一代是Feynman。Feynman當(dāng)然有一個新GPU,也有一個新LPU,LP40。巨大的進步,令人難以置信的新技術(shù)?,F(xiàn)在,聯(lián)合英偉達的規(guī)模和Groq團隊共同打造LP40。這將令人難以置信。一個全新的CPU叫Rosa——Rosalind的縮寫。BlueField-5,連接下一款CPU和下一款SuperNIC CX10。我們將有Kyber,也就是銅纜縱向擴展。我們也將有Kyber CPO縱向擴展——我們將首次同時用銅纜和共封裝光學(xué)進行縱向擴展。很多人一直在問:Jensen,銅纜還會重要嗎?答案是肯定的。Jensen,你們要進行光學(xué)縱向擴展嗎?是的。要進行光學(xué)橫向擴展嗎?是的。所以,對于生態(tài)系統(tǒng)中的每個人,我們需要更多產(chǎn)能,這是關(guān)鍵。我們需要更多銅纜產(chǎn)能,更多光學(xué)產(chǎn)能,更多CPO產(chǎn)能。這就是為什么我們一直與各位所有人合作,為這種級別的增長打下基礎(chǔ)。Feynman將擁有所有這些。讓我看看有沒有漏掉什么。就這些。每年都是全新的架構(gòu)。

06基礎(chǔ)設(shè)施建設(shè)

AI工廠數(shù)字孿生與太空計算

很快地說,英偉達從一家芯片公司變成了一家AI工廠公司,或者說AI基礎(chǔ)設(shè)施公司,AI計算公司。這些系統(tǒng),現(xiàn)在我們正在構(gòu)建整個AI工廠。在這些AI工廠里,有太多電力被揮霍了。我們要確保這些AI工廠以最優(yōu)的方式組合在一起。這些組件大多數(shù)之前從未見過面。大多數(shù)技術(shù)供應(yīng)商——我們現(xiàn)在都互相認(rèn)識,但在過去,我們在數(shù)據(jù)中心之前從未見過面。那不能再發(fā)生了。我們在構(gòu)建極其復(fù)雜的系統(tǒng),所以我們需要在其他地方虛擬地見面。

所以我們創(chuàng)建了Omniverse和Omniverse DSX世界——一個平臺,讓我們所有人可以虛擬地見面和設(shè)計這些千兆瓦級的工廠,這些千兆瓦的AI工廠。我們有機架的仿真系統(tǒng),用于機械、熱、電氣、網(wǎng)絡(luò)。這些仿真系統(tǒng)集成到我們所有生態(tài)系統(tǒng)合作伙伴的令人難以置信的工具公司中。我們還連接到電網(wǎng),這樣我們可以相互交互,發(fā)送信息,以便相應(yīng)地調(diào)整電網(wǎng)電力和數(shù)據(jù)中心電力,節(jié)省能源。然后在數(shù)據(jù)中心內(nèi)部,使用Max-Q,我們可以跨功耗和冷卻以及我們共同開發(fā)的所有不同技術(shù)動態(tài)調(diào)整系統(tǒng),這樣我們就不會揮霍任何電力,以最優(yōu)的速率運行,交付巨大的token吞吐量。我毫不懷疑這里面有一個2倍的提升空間——而在我們談?wù)摰倪@種規(guī)模下,2倍的提升是巨大的。

我們稱之為NVIDIA DSX平臺。就像我們所有的平臺一樣,有硬件層,有軟件庫層,有生態(tài)系統(tǒng)層。完全一樣的方式。我們展示一下。

歷史上最大的基礎(chǔ)設(shè)施建設(shè)正在進行中。世界在競相建造芯片、系統(tǒng)和AI工廠。每延遲一個月,就意味著數(shù)十億美元的收入損失。AI工廠的收入等于每瓦特token數(shù)。所以在功耗限制下,每一個未使用的瓦特都是損失的收入。

NVIDIA DSX是一個Omniverse數(shù)字孿生藍(lán)圖,用于設(shè)計和運營AI工廠,以實現(xiàn)最大的token吞吐量、韌性和能效。開發(fā)者通過幾個API(應(yīng)用程序編程接口)連接。DSX SIM用于物理、電氣、熱和網(wǎng)絡(luò)仿真。DSX Exchange用于AI工廠運營數(shù)據(jù)。DSX Flex用于電網(wǎng)之間的安全動態(tài)功耗管理。DSX Max-Q用于動態(tài)最大化token吞吐量。

它從NVIDIA和設(shè)備制造商提供的、由PTC Windchill PLM管理的SIM就緒資產(chǎn)開始。然后基于模型的系統(tǒng)工程在Dassault Systèmes 3DEXPERIENCE中完成。Jacobs把數(shù)據(jù)帶進他們定制的Omniverse應(yīng)用程序中,完成設(shè)計。它使用領(lǐng)先的仿真工具進行測試,如Siemens的Star-CCM+用于外部熱仿真,Cadence Reality用于內(nèi)部熱仿真,EAP用于電氣仿真,以及NVIDIA的網(wǎng)絡(luò)仿真器DSX Air。并通過Procore進行虛擬調(diào)試,以確保加速建設(shè)時間。

當(dāng)站點投入運行時,數(shù)字孿生變成操作員。AI智能體與DSX Max-Q合作,動態(tài)編排基礎(chǔ)設(shè)施。FEDRA的智能體監(jiān)控冷卻和電氣系統(tǒng),向Max-Q發(fā)送信號,Max-Q持續(xù)優(yōu)化計算吞吐量和能效。Emerald AI智能體解讀實時電網(wǎng)需求和壓力信號,并動態(tài)調(diào)整功耗。通過DSX,NVIDIA和我們合作伙伴生態(tài)系統(tǒng)正競相在全球各地建設(shè)AI基礎(chǔ)設(shè)施,確保極致的韌性、效率和吞吐量。

太令人難以置信了,對吧?Omniverse的設(shè)計初衷就是承載世界的數(shù)字孿生——從地球開始,它將承載各種規(guī)模的數(shù)字孿生。我們擁有如此出色的合作伙伴生態(tài)系統(tǒng)。感謝各位所有人。所有這些公司對我們世界來說都是新面孔。就在幾年前,我們還不認(rèn)識你們中的大多數(shù)。現(xiàn)在我們?nèi)绱司o密地合作,共同建造全球有史以來最大的計算機,并且以行星的規(guī)模進行。所以NVIDIA DSX是我們新的AI工廠平臺。

這次我在這上面花的時間很少。但我們還要去太空。我們已經(jīng)進入太空了。Thor已通過輻射認(rèn)證,我們已經(jīng)在衛(wèi)星上了。可以從衛(wèi)星上成像。未來,我們也會在太空建造數(shù)據(jù)中心。顯然做起來非常復(fù)雜。所以我們正與合作伙伴一起開發(fā)一款新計算機,叫Vera Rubin Space-1,它將進入太空,在太空開始建立數(shù)據(jù)中心。當(dāng)然,在太空里,沒有傳導(dǎo),沒有對流,只有輻射。所以,我們必須弄清楚如何在太空中冷卻這些系統(tǒng)。但我們有很多優(yōu)秀的工程師正在研究這個問題。

07智能體軟件框架

OpenClaw發(fā)布與企業(yè)IT重構(gòu)

讓我跟各位談一些新東西。彼得·斯坦伯格(Peter Steinberger)在這里。他編寫了一個軟件,叫OpenClaw。我不知道他有沒有意識到它會如此成功。但它意義深遠(yuǎn)。OpenClaw是第一名。它是人類歷史上最受歡迎的開源項目,而且只用了幾個星期就做到了。它超過了Linux在30年里所做到的。它就這么重要。它會做得很好。這就是各位要做的。我們宣布了對它的支持。我很快過一下這個。我想給各位看幾個東西。你只需輸入這個,把它輸入到控制臺,它就會出去,找到OpenClaw,下載它,為你構(gòu)建一個AI智能體,然后你可以告訴它你需要做的任何其他事。

一個開源項目剛剛發(fā)布了。安德烈·卡帕西(Andrej Karpathy)剛剛啟動了一個叫research的東西,這太厲害了。你給一個AI智能體一個任務(wù),然后去睡覺,它一晚上能跑100個實驗,保留有效的,舍棄無效的。我真的很喜歡我的東西能讓那個人做到的事。他跟我說,有一個人,一個60歲的父親,安裝了它,然后他們做了啤酒,通過藍(lán)牙把機器連接到OpenClaw。然后我們自動化了一切,甚至包括一個讓人訂購龍蝦的網(wǎng)站——數(shù)百人排隊買龍蝦,用的就是OpenClaw。你想用OpenClaw構(gòu)建OpenClaw。每個人都在談?wù)揙penClaw。但OpenClaw到底是什么?信不信由你,已經(jīng)有一個Claw Con了。

令人難以置信?,F(xiàn)在,我用這種方式說明了OpenClaw是什么,希望各位都能理解。但讓我們認(rèn)真想想發(fā)生了什么。OpenClaw到底是什么?

它是一個系統(tǒng)。它調(diào)用并連接到大語言模型。所以第一,它有它管理的資源——可以訪問工具、文件系統(tǒng)和大語言模型。它能夠進行調(diào)度,能做定時任務(wù),能把你給它的提示分解成一步步的步驟。它可以衍生并調(diào)用其他子智能體。它有輸入輸出(I/O)——你可以用任何模態(tài)跟它交流。你可以朝它揮手,它理解你;你可以說話,任何模態(tài)都行。它給你發(fā)消息、發(fā)短信、發(fā)郵件。所以,它有輸入輸出。

它還有什么?基于這些描述,你可以說,事實上它是一個操作系統(tǒng)。我剛才使用的正是描述操作系統(tǒng)的語法。所以,OpenClaw實質(zhì)上開源了智能體計算機的操作系統(tǒng)。這和Windows使我們能夠創(chuàng)造個人電腦沒什么不同?,F(xiàn)在,OpenClaw使我們能夠創(chuàng)造個人智能體。

它的影響令人難以置信。首先,它的采納速度本身就說明了一切。但最重要的是:現(xiàn)在每家公司都意識到——每家公司、每家軟件公司、每家科技公司——對首席執(zhí)行官們來說,問題是你的OpenClaw戰(zhàn)略是什么?就像我們曾經(jīng)必須有Linux戰(zhàn)略,必須有HTTP HTML戰(zhàn)略從而開啟了互聯(lián)網(wǎng);我們必須有Kubernetes戰(zhàn)略從而使移動云成為可能。今天,世界上的每家公司都需要有一個OpenClaw戰(zhàn)略,一個智能體系統(tǒng)戰(zhàn)略。這是新的計算機。

這是令人興奮的部分。這是企業(yè)IT。在OpenClaw之前,企業(yè)IT的運作方式——我之前提到過,之所以叫數(shù)據(jù)中心,是因為這些大房間、大建筑存放著數(shù)據(jù),存放著人們的文件,存放著業(yè)務(wù)的結(jié)構(gòu)化數(shù)據(jù)。它會經(jīng)過軟件,軟件里有工具、記錄系統(tǒng),以及各種固化在其中的工作流程,這些會變成工具,供人類使用,供數(shù)字工作者使用。那是舊的IT行業(yè):軟件公司創(chuàng)造工具、保存文件,GSIs(全球系統(tǒng)集成商)和咨詢公司幫助公司弄清楚如何使用這些工具、如何集成它們。這些工具對于治理、安全、隱私、合規(guī)等等都非常有價值。所有這些依然成立。

只是,在后OpenClaw時代、后智能體時代,會變成這個樣子。這是非凡的部分:每一家IT公司,每一家公司,每一家SaaS公司,都會變成一家GaaS公司——一家智能體即服務(wù)公司(Agentic as a Service)。毫無疑問。令人驚奇的是:OpenClaw在恰當(dāng)時機給了這個行業(yè)恰恰需要的東西。就像Linux在恰當(dāng)時機給了這個行業(yè)恰恰需要的東西一樣,就像Kubernetes在恰恰正確的時間出現(xiàn)一樣,就像HTML出現(xiàn)一樣——它使整個行業(yè)有可能抓住這個開源軟件棧,并利用它做點什么。

只有一個問題。企業(yè)網(wǎng)絡(luò)中的智能體系統(tǒng)可以訪問敏感信息。它可以執(zhí)行代碼,并且可以對外通信。就大聲說出來。想想看:訪問敏感信息,執(zhí)行代碼,對外通信。當(dāng)然,你可以訪問員工信息、供應(yīng)鏈、財務(wù)信息等敏感信息,然后把它發(fā)出去,對外通信。顯然,這絕對不能允許。

所以,我們所做的是與彼得合作。我們匯集了一些世界頂級的安全和計算專家,與Peter合作,使OpenClaw具備企業(yè)級安全和企業(yè)級私有化能力。這是我們的NVIDIA OpenClaw參考設(shè)計,即NemoClaw——這是OpenClaw的一個參考實現(xiàn),它擁有所有那些智能體AI工具包,其中第一部分是我們叫OpenShell的技術(shù),現(xiàn)在已經(jīng)集成到OpenClaw里?,F(xiàn)在它已經(jīng)企業(yè)就緒。

這個軟件棧,帶有一個叫NemoClaw的參考設(shè)計。你可以下載它,試用它,你可以把它連接到全球所有SaaS公司的策略引擎。你們的策略引擎非常重要,非常有價值。策略引擎可以連接到NemoClaw,或者說帶有OpenShell的OpenClaw將能夠執(zhí)行那個策略引擎。它有一個策略護欄,有一個隱私路由器,因此我們可以保護并保障Claw在我們公司內(nèi)部安全地執(zhí)行。

我們還為智能體系統(tǒng)添加了幾樣?xùn)|西,其中最重要的是:你想擁有自己的定制Claw,這樣你就能擁有自己的定制模型。這是NVIDIA的開放模型倡議。我們現(xiàn)在在每一個AI模型領(lǐng)域的前沿——不管是Nemotron、Cosmos、世界基礎(chǔ)模型、GROOT、通用AI機器人、人形機器人模型,用于自動駕駛的Alpamo,用于數(shù)字生物學(xué)的BioNeMo,還是用于AI物理學(xué)的Earth-2。我們在每一個領(lǐng)域都處于前沿。來看看。

世界是多樣化的。沒有一個模型能夠服務(wù)所有行業(yè)。開放模型是全球最大、最多樣化的AI生態(tài)系統(tǒng)之一。近300萬個開放模型,涵蓋語言、視覺、生物學(xué)、物理學(xué)和自主系統(tǒng),使得為專門領(lǐng)域構(gòu)建AI成為可能。NVIDIA是開源AI的最大貢獻者之一。我們構(gòu)建并發(fā)布了六個系列的開放前沿模型,以及訓(xùn)練數(shù)據(jù)、配方和框架,幫助開發(fā)者定制和采用新模型。每個系列都在推出登頂排行榜的新模型。核心是:用于語言、視覺理解、RAG、安全和語音的Nemotron推理模型;Cosmos前沿模型,用于物理AI的世界生成和理解;Alpamo,全球第一個能夠思考和推理的自動駕駛汽車AI;GROOT基礎(chǔ)模型,用于通用用途機器人;BioNeMo開放模型,用于生物學(xué)、化學(xué)和分子設(shè)計;Earth-2模型,用于植根于AI物理學(xué)的天氣和氣候預(yù)測。

NVIDIA開放模型為研究人員和開發(fā)者提供了為其專門領(lǐng)域構(gòu)建和部署AI的基礎(chǔ)。我們的模型對各位所有人都有價值,因為第一,它在排行榜上名列前茅,是世界級的。但最重要的是,因為我們不會放棄繼續(xù)研究它。我們會每天持續(xù)研究它。Nemotron 3之后是Nemotron 4。Cosmos 1之后是Cosmos 2。GROOT第二代。我們將持續(xù)推進這每一個模型。垂直整合,水平開放,這樣我們就能讓每個人加入AI革命,在排行榜上名列前茅,在研究、語音、世界模型、通用AI機器人、自動駕駛、推理方面,當(dāng)然還有最重要的一個。

這是在OpenClaw里的Nemotron 3??纯辞叭鼈兪侨蜃詈玫娜齻€模型,所以我們處于前沿。

同樣,我們想創(chuàng)造基礎(chǔ)模型,這樣各位所有人都能微調(diào)它、后期訓(xùn)練它,變成正好你們需要的智能。這是Nemotron 3 Ultra。它將成為全球有史以來最好的基礎(chǔ)模型。這使我們能夠幫助每個國家構(gòu)建他們的主權(quán)AI。我們與全球許多不同公司合作。今天我們要宣布的最令人興奮的事情之一是一個Nemotron聯(lián)盟。我們對此非常投入。我們已經(jīng)投入了數(shù)十億美元的AI基礎(chǔ)設(shè)施,這樣我們就可以開發(fā)必要的AI核心引擎,用于所有的推理軟件庫等等。同時也是為了創(chuàng)造AI模型,激活全球每一個行業(yè)。大語言模型非常重要。當(dāng)然重要——人類智能怎么能不重要呢?然而,在全球不同的行業(yè),在全球不同的國家,你需要有能力定制你自己的模型,而模型的領(lǐng)域從生物學(xué)到物理學(xué)到自動駕駛到通用機器人,當(dāng)然還有人類語言,是截然不同的。我們有能力與每個地區(qū)合作,創(chuàng)建他們特定領(lǐng)域的、他們的主權(quán)AI。

今天我們宣布一個聯(lián)盟,與我們合作,使Nemotron 4更加驚艷。這個聯(lián)盟里有一些了不起的公司:Black Forest Labs,圖像公司;Cursor,著名的編碼公司,我們大量使用;LangChain,十億次下載,用于創(chuàng)建定制智能體;Mistral,Arthur提到過,我想他在這里,令人難以置信的公司;Perplexity,每個人都在用——它太好了,一個多模態(tài)智能體系統(tǒng);Reflection,來自印度的Sarvam,Thinking Machine,Moradi的實驗室(Mirror)。令人難以置信的公司加入了我們。謝謝各位。

我說過,每一家企業(yè),全球每一家軟件公司都需要一個智能體系統(tǒng),需要一個智能體戰(zhàn)略。你需要有一個OpenClaw戰(zhàn)略。他們都同意,他們都在與我們合作,集成NemoClaw參考設(shè)計,NVIDIA智能體AI工具包,當(dāng)然還有我們所有的開放模型。一家接一家公司。太多了。我們正在與各位所有人合作。我真的很感激。

這是我們的時刻。這是一次重塑。這是企業(yè)IT的復(fù)興,從一個2萬億美元的行業(yè),將變成一個數(shù)萬億美元的行業(yè)——不僅提供供人們使用的工具,而且提供在你專長的、非常特殊的領(lǐng)域里的智能體,我們可以租用。

我完全可以想象,未來我們公司的每一位工程師都需要一個年度token預(yù)算。他們每年基本工資大概幾十萬美元。我可能會在此基礎(chǔ)上再給他們一半價值的token,這樣他們的效率可以提升10倍。當(dāng)然我們會這么做。這現(xiàn)在成了硅谷的招聘工具之一:我的工作附帶多少token?原因很清楚,因為每一位能夠訪問token的工程師都會更有生產(chǎn)力,而這些token,如各位所知,將由各位和我們合作建造的AI工廠生產(chǎn)。

所以今天每一家企業(yè)都建立在文件系統(tǒng)和數(shù)據(jù)中心之上。未來的每一家軟件公司都將是智能體的,它們將是token制造商。它們將為它們的工程師使用token,它們將為它們所有的客戶制造token。OpenClaw事件的重要性怎么強調(diào)都不為過。這和HTML一樣重要,和Linux一樣重要。我們現(xiàn)在有了一個世界級的開放智能體框架,我們所有人都可以用它來構(gòu)建我們的OpenClaw戰(zhàn)略。我們創(chuàng)建了一個叫NemoClaw的參考設(shè)計,各位所有人都可以使用,它是優(yōu)化的,性能優(yōu)越,安全可靠。

08物理AI部署

自動駕駛與機器人生態(tài)

說到智能體,如各位所知,智能體感知、推理和行動。我今天談到的全球大多數(shù)智能體都是數(shù)字智能體。它們在數(shù)字世界中行動——它們推理,編寫軟件。全都是數(shù)字的。但我們也長期致力于物理具身智能體,我們叫它們機器人。它們需要的AI是物理AI。我們這里有些重大公告。我很快過幾個。

這里有110個機器人。全球幾乎每家公司——我想不出有哪家制造機器人的公司沒有與NVIDIA合作。我們有三臺計算機:訓(xùn)練計算機,合成數(shù)據(jù)生成和仿真計算機,當(dāng)然還有放在機器人內(nèi)部的機器人計算機。我們有所有必要的軟件棧,有AI模型來幫助你們。所有這一切都集成到全球的生態(tài)系統(tǒng)里,以及我們所有的合作伙伴,從西門子到Cadence,到處都是令人難以置信的伙伴。

今天,我們宣布了一大堆新合作伙伴。我們研究自動駕駛已久。自動駕駛的ChatGPT時刻已經(jīng)到來。我們現(xiàn)在知道可以成功地進行自動駕駛。今天,我們宣布了NVIDIA自動駕駛出租車就緒平臺的四個新合作伙伴:比亞迪、現(xiàn)代、日產(chǎn)、五十鈴,加起來每年生產(chǎn)1800萬輛車。加入我們之前的合作伙伴:梅賽德斯、豐田、通用。未來自動駕駛出租車就緒的車輛數(shù)量將令人驚嘆。我們還宣布了與Uber的一項重大合作。我們將在多個城市部署,把這些自動駕駛出租車就緒的車輛連接到他們的網(wǎng)絡(luò)里。還有一大堆新車。

我們有ABB、Universal Robots、庫卡,這么多機器人公司在這里,我們正與他們合作,實施我們的物理AI模型,集成到仿真系統(tǒng)里,這樣就能在全球各地的生產(chǎn)線上部署這些機器人。Caterpillar在這里。我們甚至還有T-Mobile在這里。原因是,未來,那個無線電塔,曾經(jīng)的無線電塔,將成為一個NVIDIA Aerial AI-RAN。所以這將是一個機器人無線電塔,意思是它可以推理流量,計算出如何調(diào)整其波束成形,盡可能節(jié)省能源,同時盡可能提高保真度。

物理AI的首次全球大規(guī)模部署來了。自動駕駛汽車。有了NVIDIA Alpamo,車輛現(xiàn)在擁有推理能力,幫助它們在各種場景中安全智能地運行。我們讓車輛敘述它的動作:我正在向右變道以跟隨路線。解釋它在做決定時的想法:我車道里有一輛并排停放的車輛,我正繞過它。聽從指令:嘿,梅賽德斯,能開快點嗎?當(dāng)然,我會加速。這就是物理AI和機器人的時代。

在全球各地,開發(fā)者正在制造各種各樣的機器人。但現(xiàn)實世界極其多樣化,不可預(yù)測,充滿邊緣情況。真實世界的數(shù)據(jù)永遠(yuǎn)不足以訓(xùn)練每一個場景。我們需要從AI和仿真中生成數(shù)據(jù)。對于機器人來說,算力就是數(shù)據(jù)。開發(fā)者在互聯(lián)網(wǎng)規(guī)模的視頻和人類演示上預(yù)訓(xùn)練世界基礎(chǔ)模型,評估模型性能,為后期訓(xùn)練做準(zhǔn)備。使用經(jīng)典仿真和神經(jīng)仿真,他們生成海量合成數(shù)據(jù),并大規(guī)模訓(xùn)練策略。

為了加速開發(fā)者,NVIDIA構(gòu)建了開源的Isaac Lab,用于機器人訓(xùn)練、評估和仿真。Newton,用于可擴展且GPU加速的可微物理仿真。Cosmos世界模型,用于神經(jīng)仿真,還有GROOT開放機器人基礎(chǔ)模型,用于機器人推理和動作生成。有了足夠的算力,全球各地的開發(fā)者正在彌合物理AI的數(shù)據(jù)鴻溝。

Paratas AI在NVIDIA Isaac Lab中訓(xùn)練他們的手術(shù)室輔助機器人,用NVIDIA Cosmos世界模型倍增他們的數(shù)據(jù)。Skild AI使用Isaac Lab和Cosmos來生成他們Skild AI大腦的后期訓(xùn)練數(shù)據(jù)。他們使用強化學(xué)習(xí)在數(shù)千種變化中強化模型。Humanoid使用Isaac Lab訓(xùn)練全身控制和操作策略。Hexagon Robotics使用Isaac Lab進行訓(xùn)練和數(shù)據(jù)生成。富士康在Isaac Lab中微調(diào)GROOT模型,Noble Machines也是如此。迪士尼研究公司在Newton和Isaac Lab中使用他們的Chamelo物理模擬器,為他們在每個宇宙中的角色機器人訓(xùn)練策略。

女士們,先生們,雪寶來了!Newton成功了!Omniverse成功了!

黃仁勛:你好嗎?

雪寶:見到你我真高興。

黃仁勛:我知道,因為是我給了你的電腦。

雪寶:那是什么?

黃仁勛:它在你的肚子里。

雪寶:那會很棒的。

黃仁勛:你在Omniverse里面學(xué)會走路的。

雪寶:我喜歡走路。這比坐在馴鹿上仰望美麗天空好多了。

黃仁勛:這要歸功于物理,使用了這個運行在NVIDIA Warp之上的Newton求解器,我們與迪士尼和Google DeepMind共同開發(fā),使你能夠適應(yīng)物理世界,讓你變得更聰明。

雪寶:我是個雪人,不是學(xué)者。

黃仁勛:你們能想象嗎?未來的迪士尼樂園。所有這些機器人,所有角色到處閑逛。我得承認(rèn),我以為你會更高一點。說實話,我從沒見過這么矮的雪人。跟你說,你想幫我個忙嗎?

雪寶:好極了。

黃仁勛:通常我會在結(jié)束主題演講時總結(jié)我告訴過各位的內(nèi)容。我們談了推理和轉(zhuǎn)折點,談了人工智能工廠,談了正在發(fā)生的Open Claw智能體革命,當(dāng)然還有物理人工智能和機器人。但聽我說,我們?yōu)槭裁床徽埿┡笥褋韼臀覀兪瘴材兀?/p>

雪寶:當(dāng)然可以。(機器人演示視頻)

黃仁勛:好的,祝大家度過一個愉快的GTC。謝謝大家。

延伸閱讀
相關(guān)推薦
熱點推薦
俄羅斯ktv居然進化成這樣了?兄弟視頻體驗分享中俄對比評論區(qū)恨得牙癢癢

俄羅斯ktv居然進化成這樣了?兄弟視頻體驗分享中俄對比評論區(qū)恨得牙癢癢

不二表姐
2026-03-16 22:31:45
想象不到,姚晨新歡竟是侯雯元?逼分手鐘楚曦的瓜藏著驚天反轉(zhuǎn)!

想象不到,姚晨新歡竟是侯雯元?逼分手鐘楚曦的瓜藏著驚天反轉(zhuǎn)!

老吳教育課堂
2026-03-17 14:20:50
湖人100-92火箭!里夫斯把話挑明,東契奇有瑕疵,詹姆斯看清現(xiàn)實

湖人100-92火箭!里夫斯把話挑明,東契奇有瑕疵,詹姆斯看清現(xiàn)實

魚崖大話籃球
2026-03-17 15:04:16
湘雅谷文萍、曾秋明,一個留美博士后,一個訪美學(xué)者,都不簡單

湘雅谷文萍、曾秋明,一個留美博士后,一個訪美學(xué)者,都不簡單

音樂時光的娛樂
2026-03-17 10:45:34
忠告!四種“垃圾食品”已公布,燕麥排第二,第一名很多人都喜歡

忠告!四種“垃圾食品”已公布,燕麥排第二,第一名很多人都喜歡

小舟談歷史
2025-10-17 09:33:31
1000萬人受影響!古巴全國電網(wǎng)停擺:4月內(nèi)3次大停電,首都部分電力已恢復(fù)

1000萬人受影響!古巴全國電網(wǎng)停擺:4月內(nèi)3次大停電,首都部分電力已恢復(fù)

紅星新聞
2026-03-17 11:53:18
湖北美女費香蓉去世,僅21歲,因右手長腫塊確診,疫情前從不感冒

湖北美女費香蓉去世,僅21歲,因右手長腫塊確診,疫情前從不感冒

裕豐娛間說
2026-03-16 18:50:49
奧斯卡紅毯:海瑟薇腰臀比逆天,小李子顏值回春,趙婷太敢穿了

奧斯卡紅毯:海瑟薇腰臀比逆天,小李子顏值回春,趙婷太敢穿了

八卦南風(fēng)
2026-03-16 14:47:56
315過后良心紅榜來了!這些老牌國貨值得信賴,老百姓可以放心買

315過后良心紅榜來了!這些老牌國貨值得信賴,老百姓可以放心買

鯨探所長
2026-03-17 14:22:10
這才是地球禁區(qū)!30秒毀全身細(xì)胞,劇毒萬年不散,內(nèi)部畫面罕曝光

這才是地球禁區(qū)!30秒毀全身細(xì)胞,劇毒萬年不散,內(nèi)部畫面罕曝光

歷史的煙火
2026-03-16 17:16:46
半小時訂單破萬!預(yù)售37.68萬起8X賣爆了,極氪高端鐵三角形成

半小時訂單破萬!預(yù)售37.68萬起8X賣爆了,極氪高端鐵三角形成

明鏡pro
2026-03-17 09:43:37
最容易激發(fā)女人“獸性”的三種方法?學(xué)會一種,終身受用

最容易激發(fā)女人“獸性”的三種方法?學(xué)會一種,終身受用

伊人河畔
2026-02-26 17:09:03
這次輪到劉昊然翻車了,和周冬雨婚期已定?工作室評論區(qū)被罵翻了

這次輪到劉昊然翻車了,和周冬雨婚期已定?工作室評論區(qū)被罵翻了

白面書誏
2026-03-17 20:50:53
女子假信佛與多位高僧發(fā)生不當(dāng)關(guān)系,秘密錄制5600段視頻。

女子假信佛與多位高僧發(fā)生不當(dāng)關(guān)系,秘密錄制5600段視頻。

特約前排觀眾
2026-02-09 00:05:05
韓安冉直播自曝:我家500平大平層,隔音很好,每月要還18萬房貸

韓安冉直播自曝:我家500平大平層,隔音很好,每月要還18萬房貸

觀魚聽雨
2026-03-15 23:23:01
東漢歷史上最搞笑的政變:十歲太子帶著幾個宦官,就成功奪權(quán)登基

東漢歷史上最搞笑的政變:十歲太子帶著幾個宦官,就成功奪權(quán)登基

銘記歷史呀
2026-03-17 16:00:17
擊落“全部”巡航導(dǎo)彈!多位烏克蘭平民英雄遇難,大舉空襲莫斯科

擊落“全部”巡航導(dǎo)彈!多位烏克蘭平民英雄遇難,大舉空襲莫斯科

鷹眼Defence
2026-03-17 16:12:00
真沒想到!在NBA大殺四方的東契奇,最后也倒在了這道坎上

真沒想到!在NBA大殺四方的東契奇,最后也倒在了這道坎上

草莓解說體育
2026-03-17 07:32:59
002856,可能被實施“*ST”!熱門股“20cm”跌停,機構(gòu)龍虎榜大幅凈買入

002856,可能被實施“*ST”!熱門股“20cm”跌停,機構(gòu)龍虎榜大幅凈買入

數(shù)據(jù)寶
2026-03-17 21:35:09
李易峰被曝到處求人,5000萬債務(wù)壓頂,想要開演唱會一直失敗

李易峰被曝到處求人,5000萬債務(wù)壓頂,想要開演唱會一直失敗

一盅情懷
2026-03-15 19:27:00
2026-03-17 23:48:49

科技要聞

3萬字實錄|黃仁勛:每家公司都必須懂養(yǎng)蝦

頭條要聞

終極決戰(zhàn)或來臨 美軍增派兩棲攻擊艦為登陸作戰(zhàn)做準(zhǔn)備

頭條要聞

終極決戰(zhàn)或來臨 美軍增派兩棲攻擊艦為登陸作戰(zhàn)做準(zhǔn)備

體育要聞

那個男人34歲拒絕買斷 他要給狀元當(dāng)導(dǎo)師

娛樂要聞

姚晨曹郁官宣離婚,評論區(qū)全是冷嘲熱諷

財經(jīng)要聞

多款藥品被曝線上線下價差巨大

汽車要聞

10分鐘電量20%→97% 低溫實測比亞迪閃充

態(tài)度原創(chuàng)

本地
健康
家居
藝術(shù)
公開課

本地新聞

春天出門像出艙?一個過敏星人的裝備進化史

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

家居要聞

侘寂美學(xué) 無用之美

藝術(shù)要聞

捐贈文物3900余件,六瑩堂主何許人也?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版
×