国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

黃仁勛CES最新預(yù)言:2026年,變化來(lái)得更加猛烈!未來(lái)所有應(yīng)用,將建在AI之上

0
分享至


來(lái)源:新智元

【導(dǎo)讀】CES巨幕上,老黃的PPT已成中國(guó)AI的「封神榜」。DeepSeek與Kimi位列C位之時(shí),算力新時(shí)代已至。

萬(wàn)眾矚目的2026 CES科技盛宴上,一張PPT瞬間燃爆AI圈。

老黃主旨演講上,中國(guó)大模型Kimi K2、DeepSeek V3.2,以及Qwen赫然上屏,位列全球開(kāi)源大模型前列,性能正在逼近閉源模型。

CES之夜無(wú)顯卡!老黃引爆Rubin時(shí)代,6顆芯狂飆5倍算力

天空一聲巨響,全新版本的「皮衣老黃」閃亮登場(chǎng)。


在本次CES演講中最為激動(dòng)人心的瞬間,就是英偉達(dá)全新一代芯片架構(gòu)——Vera Rubin正式登場(chǎng)!

全球AI算力告急?老黃霸氣回應(yīng):Vera Rubin已全面投產(chǎn)。

這是新一代的算力怪獸,也是對(duì)上一代霸主Blackwell的降維打擊——

  • 推理Token成本直接暴降10倍,算力性能狂飆5倍。

  • 就連訓(xùn)練MoE模型所需的GPU數(shù)量,也直接減少了4倍。

曾經(jīng),Blackwell終結(jié)了Hopper;如今,Rubin親手埋葬了Blackwell。


全程近兩小時(shí)演講,老黃提及重點(diǎn)包括——

  • 下一代Rubin平臺(tái)亮相:六顆芯片,推理狂飆十倍

  • 自動(dòng)駕駛端到端模型:AlphaMayo會(huì)思考、自主推理,全程0接管上路

  • 物理AI全家桶開(kāi)源:基礎(chǔ)模型、框架


玩家徹夜難眠:CES 2026,沒(méi)有顯卡

至于游戲玩家?

對(duì)不起,這次真的沒(méi)有新顯卡。


英偉達(dá)在X上的一紙公告,徹底擊碎了「攢機(jī)黨」最后的幻想:CES 2026將沒(méi)有任何新GPU發(fā)布。

這意味著,英偉達(dá)自2021年以來(lái)連續(xù)五年在CES發(fā)布新硬件的傳統(tǒng),就此終結(jié)。

傳聞已久的RTX 50 Super系列,受困于GDDR7顯存的「產(chǎn)能地獄」,大概率已經(jīng)胎死腹中。

Rubin炸裂登場(chǎng)

6顆芯片,10倍推理,AI超算變工廠

去年10月,老黃曾預(yù)計(jì):未來(lái)五年,將有3到4萬(wàn)億美元砸向AI基礎(chǔ)設(shè)施。

Vera Rubin的大規(guī)模投產(chǎn),可謂生逢其時(shí)。

如果說(shuō)Blackwell打破了單卡性能的極限,那么Rubin解決的則是系統(tǒng)規(guī)?;?/strong>的難題。

從此,算力將像電力一樣廉價(jià),AI的大爆發(fā)已近在咫尺!


2024年,Vera Rubin架構(gòu)首次亮相。

等了兩年,現(xiàn)在它終于正式投產(chǎn)了!

Blackwell架構(gòu),從此將退出歷史舞臺(tái)。

演講現(xiàn)場(chǎng),老黃告訴大家:AI所需的計(jì)算量急劇飆升,怎么辦?不用怕,Vera Rubin,將解決我們面臨的根本性挑戰(zhàn)!

這套為萬(wàn)億參數(shù)模型的海量推理而生的平臺(tái),會(huì)徹底讓算力低成本、規(guī)?;?、工業(yè)化生產(chǎn)。

Rubin架構(gòu),以天文學(xué)家Vera Florence Cooper Rubin而命名。


可以說(shuō),Rubin是英偉達(dá)第一次把CPU、GPU、網(wǎng)絡(luò)、存儲(chǔ)、安全,當(dāng)成一個(gè)整體來(lái)設(shè)計(jì)。

核心思路就是:不再「堆卡」,而是把整個(gè)數(shù)據(jù)中心變成一臺(tái)AI超算。

整個(gè)Rubin平臺(tái),由這6個(gè)關(guān)鍵組件構(gòu)成。



其中,Rubin GPU是整個(gè)平臺(tái)的核心。它搭載第三代Transformer引擎,為AI推理提供50 PFLOPS的NVFP4算力。

之所以能達(dá)到Blackwell GPU性能的5倍,是因?yàn)樗腘VFP4張量核心,后者能分析Transformer各層的計(jì)算特性,動(dòng)態(tài)調(diào)整數(shù)據(jù)精度與計(jì)算路徑。


另外,該架構(gòu)還引入一顆全新的Vera CPU,專(zhuān)為智能體推理而設(shè)計(jì)。

它采用88個(gè)英偉達(dá)自研Olympus核心,完全兼容Armv9.2,并具備超快的NVLink-C2C 連接,能實(shí)現(xiàn)176個(gè)線程的全性能執(zhí)行,I/O帶寬和能效比直接翻倍。


當(dāng)我們?cè)贏gentic AI或長(zhǎng)期任務(wù)中啟用全新的工作流時(shí),會(huì)對(duì)KV cache造成很大壓力。

為了解決存儲(chǔ)和互聯(lián)的瓶頸,Rubin架構(gòu)特別改進(jìn)了Bluefield和NVLink系統(tǒng)。它通過(guò)外部方式和計(jì)算設(shè)備相連,這樣就能更高效地?cái)U(kuò)展整體存儲(chǔ)池的規(guī)模。

BlueField-4 DPU是一個(gè)數(shù)據(jù)處理單元,它能卸載網(wǎng)絡(luò)、存儲(chǔ)和安全任務(wù),還能管理AI的上下文記憶系統(tǒng)。


NVLink 6中,單芯片就能提供每秒400Gb的交換能力。每塊GPU提供3.6TB/s 的帶寬,而Rubin NVL72機(jī)架提供260TB/s,帶寬超過(guò)整個(gè)互聯(lián)網(wǎng)。

通過(guò)3.6 TB/s的帶寬和網(wǎng)絡(luò)內(nèi)計(jì)算能力,它能讓Rubin中的72個(gè)GPU像一個(gè)超級(jí)GPU一樣協(xié)同工作,直接把推理成本打至1/7。


現(xiàn)場(chǎng),老黃給我們展示了Vera Rubin的托盤(pán)。小小的托盤(pán)上集成了2顆Vera CPU、4顆Rubin GPU、1顆BlueField-4 DPU和8顆ConnectX-9網(wǎng)卡,整個(gè)計(jì)算單元算力達(dá)到100 PetaFLOPS。



Rubin的目標(biāo),是解決MoE和萬(wàn)億參數(shù)模型的訓(xùn)練成本,它做到了嗎?顯然,成果是顯著的。

訓(xùn)練、推理效率暴增

測(cè)試結(jié)果顯示,Rubin架構(gòu)訓(xùn)練模型時(shí)的運(yùn)行速度,直接達(dá)到上一代Blackwell架構(gòu)的3.5倍(35 petaflops),推理任務(wù)的速度則高達(dá)5倍,最高可達(dá)50 petaflops!

同時(shí),它的HBM4內(nèi)存帶寬提升至22 TB/s,達(dá)到2.8倍,單GPU的NVLink互連帶寬則翻倍到3.6 TB/s。


在超大規(guī)模MoE訓(xùn)練中,Rubin所需的GPU數(shù)量相比Blackwell可減少至1/4,同時(shí)整體能耗顯著下降。

這背后,就有三大功臣。

NVLink 6,讓GPU間互聯(lián)帶寬再次大幅提升,多卡訓(xùn)練不再被通信拖慢;Vera CPU與Rubin GPU的協(xié)同調(diào)度,可以減少「GPU等數(shù)據(jù)」的空轉(zhuǎn)時(shí)間;而ConnectX-9與Spectrum-6的深度協(xié)同,也讓大模型訓(xùn)練不會(huì)再被集群規(guī)模限制。



從此,訓(xùn)練萬(wàn)億模型,不再是「堆錢(qián)」,只會(huì)是工程問(wèn)題。

訓(xùn)練解決了,那推理呢?

結(jié)果顯示,在推理側(cè),Rubin平臺(tái)單位token的推理效率提升最高可達(dá)10倍!同樣的模型和響應(yīng)延遲,算力成本可以直接下降到原來(lái)的1/10。

所以,模型可以跑得起百萬(wàn)token的長(zhǎng)下文,企業(yè)級(jí)AI應(yīng)用也可以部署了。



存儲(chǔ)瓶頸解決

如上文所言,讓AI模型多跑一會(huì)的關(guān)鍵挑戰(zhàn),就在于上下文數(shù)據(jù)。


大量KV Cache該如何處理?英偉達(dá)推出了由BlueField-4驅(qū)動(dòng)的推理上下文內(nèi)存存儲(chǔ)平臺(tái)。

這個(gè)平臺(tái)在GPU內(nèi)存和傳統(tǒng)存儲(chǔ)之間創(chuàng)建了「第三層」,直接讓每秒處理的 token數(shù)提升高達(dá)5倍。


DGX Super POD

本次CES上,英偉達(dá)還推出了新一代DGX SuperPOD。


它把多個(gè)裝有72個(gè)GPU的Rubin NVL72連接起來(lái),形成了更大的AI計(jì)算集群。

在這次的DGX SuperPOD中,共有8個(gè)Rubin NVL72機(jī)架,相當(dāng)于有576個(gè)GPU。


NVIDIA Vera Rubin NVL72 提供統(tǒng)一、安全的系統(tǒng),集成了72 塊Rubin GPU、36塊Vera CPU、NVLink 6、ConnectX-9 SuperNICs和BlueField-4 DPUs

這樣,SuperPOD就可以處理數(shù)千個(gè)Agentic AI智能體,以及數(shù)百萬(wàn)token上下文。

可以說(shuō),英偉達(dá)一次性解決了數(shù)百個(gè)GPU相連、管理存儲(chǔ)的問(wèn)題,直接給我們提供了開(kāi)箱即用的AI基礎(chǔ)設(shè)施。



第三代機(jī)密計(jì)算平臺(tái)

更為重要的是,Rubin是首個(gè)支持第三代機(jī)密計(jì)算(Confidential Computing)的AI超算平臺(tái)。

模型參數(shù)、推理數(shù)據(jù)、用戶請(qǐng)求都會(huì)被全鏈路加密,即使的云廠商,也無(wú)法直接訪問(wèn)明文數(shù)據(jù)。

這就解決了「敢不敢把核心AI放到云上」的問(wèn)題,對(duì)于金融、醫(yī)療、政府、企業(yè)私有模型都非常重要。

這些大廠,第一批用上Rubin

老黃介紹說(shuō),Rubin會(huì)由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI這些頭部廠商先部署。

而到2026年下半年,Rubin平臺(tái)就會(huì)進(jìn)入大規(guī)模商用階段。

所以,下一代GPT、Gemini、Claude模型,大概率都會(huì)運(yùn)行在Rubin架構(gòu)上。


全程0接管,自動(dòng)駕駛AI「會(huì)思考」

如何教會(huì)AI物理學(xué)的基礎(chǔ)事實(shí)?

英偉達(dá)給出的答案是,把算力變成高質(zhì)量的數(shù)據(jù)(Compute is Data)。

在這一體系中,「世界基礎(chǔ)模型」Cosmos扮演著重要的角色。

交通模擬器輸出的信號(hào),被送入Cosmos再生成合理、運(yùn)動(dòng)上連貫的環(huán)繞視頻,讓AI學(xué)習(xí)其中真實(shí)世界的行為模式。


如今,Cosmos已被全球下載數(shù)百萬(wàn)次,成為物理AI時(shí)代的重要基礎(chǔ)設(shè)施。在英偉達(dá),內(nèi)部也在用其做自動(dòng)駕駛研究。

在此基礎(chǔ)上,今天,英偉達(dá)正式發(fā)布了「端到端」自動(dòng)駕駛AI——AlphaMayo。

它是一個(gè)會(huì)思考、會(huì)推理的自動(dòng)駕駛AI。從攝像頭輸入到車(chē)輛執(zhí)行動(dòng)作,全流程由模型完成。


AlphaMayo獨(dú)特之處,在于它具備了顯式推理能力。

系統(tǒng)不僅執(zhí)行轉(zhuǎn)向、制動(dòng)、加速動(dòng)作,還會(huì)給出即將采取行動(dòng)的理由,以及對(duì)應(yīng)的形式軌跡。


自動(dòng)駕駛最大挑戰(zhàn),來(lái)自于「長(zhǎng)尾場(chǎng)景」,幾乎不可能覆蓋所有國(guó)家、所有道路的數(shù)據(jù)。

AlphaMayo的策略是將復(fù)雜場(chǎng)景,拆解為多個(gè)熟悉的物理與交通子問(wèn)題,通過(guò)推理將罕見(jiàn)情況分解為常見(jiàn)組合,完成應(yīng)對(duì)。

在演示中,車(chē)輛可以在全程0接管狀態(tài)下,完成路徑規(guī)劃與行駛,順利抵達(dá)目的地。


在自動(dòng)駕駛領(lǐng)域,英偉達(dá)投入持續(xù)了八年,如今第一次把AI「五層架構(gòu)」完整跑通。

由下到上:實(shí)體本身、芯片體系、模型層、基礎(chǔ)設(shè)施層、應(yīng)用層,構(gòu)成了一套完全貫通的AI系統(tǒng)棧。

AlphaMayo構(gòu)成模型層,梅賽德斯-奔馳汽車(chē)構(gòu)成應(yīng)用層。

這一次,老黃還官宣了,NVIDIA DRIVE AV軟件首次搭載全新梅賽德斯-奔馳 CLA,提供L2級(jí)端到端駕駛。


更重磅的是,Alpamayo家族全部開(kāi)源。這一整套方法論,并不只適用于汽車(chē),同樣適用于機(jī)器人、機(jī)械臂等各類(lèi)系統(tǒng)。

全家桶開(kāi)源,機(jī)器人ChatGPT時(shí)刻

下一階段,機(jī)器人將以各種形態(tài)進(jìn)入現(xiàn)實(shí)世界,前提是,它們首先在Omniverse中學(xué)會(huì)如何行動(dòng)。

現(xiàn)場(chǎng),老黃又召喚來(lái)了機(jī)器人瓦力登臺(tái)配合演出,這里他講了一句意味深長(zhǎng)的話:

未來(lái)的系統(tǒng),都誕生在計(jì)算機(jī)里。


英偉達(dá)正把自身能力嵌入到,計(jì)算密度最高、最復(fù)雜的工業(yè)體系統(tǒng),就像此前與Palantir、ServiceNow的集成一樣。

如今,這一模式正被復(fù)制到了工業(yè)仿真與設(shè)計(jì)領(lǐng)域。

在具身智能領(lǐng)域,老黃直接扔下了一套針對(duì)物理AI(Physical AI)的「開(kāi)源全家桶」——模型、框架及基礎(chǔ)設(shè)施,應(yīng)有盡有。

機(jī)器人的ChatGPT時(shí)刻已經(jīng)到來(lái)!


目前,所有新模型均已上線Hugging Face,拿來(lái)即用:

  • NVIDIA Cosmos Transfer/Predict 2.5,這是完全可定制的世界模型,專(zhuān)門(mén)在虛擬世界里生成符合物理規(guī)律的數(shù)據(jù),訓(xùn)練機(jī)器人的大腦。

  • NVIDIA Cosmos Reason 2,讓機(jī)器像人一樣「看懂」世界并進(jìn)行邏輯推理。

  • NVIDIA Isaac GR00T N1.6,專(zhuān)為人形機(jī)器人打造,解鎖全身控制,讓機(jī)器人不再四肢僵硬。

為了解決機(jī)器人開(kāi)發(fā)中「各自為戰(zhàn)」的痛點(diǎn),英偉達(dá)發(fā)布了兩大神器:

  • Isaac Lab-Arena:這是GitHub上的開(kāi)源框架,連接了主流基準(zhǔn)測(cè)試,確保機(jī)器人在進(jìn)廠打工前,已經(jīng)在虛擬世界里經(jīng)過(guò)了千錘百煉。

  • NVIDIA OSMO:無(wú)論是在工作站還是混合云,它都能統(tǒng)一調(diào)度數(shù)據(jù)生成、模型訓(xùn)練和測(cè)試,大幅縮短開(kāi)發(fā)周期。

機(jī)器人技術(shù)已是Hugging Face上增長(zhǎng)最快的領(lǐng)域。英偉達(dá)這次不僅是提供模型,更是深度集成:

  • LeRobot集成:Isaac和GR00T技術(shù)直接通過(guò)LeRobot框架即可調(diào)用。

  • 硬件互通:Hugging Face的開(kāi)源機(jī)器人Reachy 2和Reachy Mini現(xiàn)已完美適配英偉達(dá)的Jetson平臺(tái),語(yǔ)音、視覺(jué)、大模型能力瞬間拉滿。

軟件強(qiáng)還不夠,硬件必須硬。如今,全新的Jetson T4000模組,直接將Blackwell架構(gòu)帶到了邊緣端:

  • 算力高達(dá)1200 FP4 TFLOPS,是上一代的4倍。

  • 1000臺(tái)起訂單價(jià)僅1999美元。

  • 70瓦功耗,簡(jiǎn)直是為能源受限的自主設(shè)備量身定做。


老黃震撼預(yù)言

未來(lái)所有應(yīng)用,建在AI之上

每隔10-15年,計(jì)算產(chǎn)業(yè)就會(huì)重來(lái)一次。

演講伊始,老黃還回顧了計(jì)算產(chǎn)業(yè)過(guò)去數(shù)十年的演進(jìn)路徑——

從大型機(jī)到CP,到互聯(lián)網(wǎng)、云計(jì)算,再到移動(dòng)計(jì)算,每一次平臺(tái)級(jí)躍遷,都會(huì)催生一整套全新的應(yīng)用生態(tài),軟件開(kāi)發(fā)方式也隨之重構(gòu)。

而這一次,變化來(lái)得更加猛烈。

他提到,當(dāng)前產(chǎn)業(yè)正同時(shí)經(jīng)歷兩次平臺(tái)級(jí)轉(zhuǎn)變:一是從傳統(tǒng)計(jì)算走向AI,另一個(gè)是整個(gè)軟件、硬件棧的底層重塑。

AI正成為全新的「底座」,應(yīng)用開(kāi)始建立在AI之上。同時(shí),軟件開(kāi)發(fā)與運(yùn)行方式、應(yīng)用生成方式發(fā)生了根本性變化。

這一切,共同推動(dòng)了「加速計(jì)算+AI」對(duì)整個(gè)計(jì)算體系的重塑,五個(gè)層級(jí)正在同時(shí)被重新發(fā)明。


2022年ChatGPT爆發(fā)后,AI才真正走進(jìn)大眾視野。一年之后,推理模型首次登場(chǎng),引入了「測(cè)試時(shí)Scaling」這一概念。

模型不僅在訓(xùn)練階段學(xué)習(xí),還在推理階段實(shí)時(shí)計(jì)算和推演。預(yù)訓(xùn)練、RL、推理這些階段,都需要機(jī)器龐大的計(jì)算資源,也同時(shí)推動(dòng)模型能力持續(xù)提升。

2024年,另一項(xiàng)突破開(kāi)始顯現(xiàn),直到2025年,智能體系統(tǒng)(Agentic AI)才迅速擴(kuò)散開(kāi)來(lái)。

老黃再次提及,在英偉達(dá)內(nèi)部,像Cursor這樣的Agentic工具已深刻改變了軟件的開(kāi)發(fā)方式。

智能體AI之后,下一個(gè)前沿便是物理AI(Physical AI),理解自然規(guī)律和物理法則,為AI打開(kāi)了全新疆域。

除此之外,過(guò)去一年,另一個(gè)具有決定性意義的變化來(lái)自「開(kāi)源模型」。

DeepSeek R1的出現(xiàn),作為首批開(kāi)源推理模型之一,給行業(yè)帶起來(lái)巨大震動(dòng)。

但不可否認(rèn)的是,其仍比前沿模型落后六個(gè)月。每隔半年,就有新模型涌現(xiàn),而且越來(lái)越智能。



英偉達(dá),正引領(lǐng)著開(kāi)源模型的生態(tài),遍布多個(gè)領(lǐng)域。而且,在多個(gè)榜單上取得了亮眼的成績(jī)。

最具代表性的包括多模態(tài)Nemotron 3、世界模型Cosmos、機(jī)器人模型GR00T、蛋白預(yù)測(cè)模型OpenFold 3......



老黃現(xiàn)場(chǎng)表示,以上一切成果,都為構(gòu)建AI智能體服務(wù),這是真正突破性的發(fā)展領(lǐng)域。

當(dāng)前AI模型已變得極其強(qiáng)大,智能體的推理能力為各類(lèi)應(yīng)用開(kāi)啟了大門(mén)。


令老黃深感震驚的是,首次在Perplexity見(jiàn)證了其同時(shí)調(diào)用多個(gè)模型——AI在推理任何環(huán)節(jié),直接調(diào)用最頂尖的模型。

這背后本質(zhì)上是「多云協(xié)同」,同時(shí)還具備了混合云特性。

老黃明確地表示,這就是未來(lái)AI應(yīng)用的基本形態(tài)?;蛘哒f(shuō),因?yàn)槲磥?lái)應(yīng)用都構(gòu)建在AI之上,這就是未來(lái)應(yīng)用的基礎(chǔ)框架。

一方面,AI可以被深度定制。另一方面,系統(tǒng)始終保持最前沿。「定制+前沿」能力在同一架構(gòu)中同時(shí)存在。


在軟件世界之外,更大挑戰(zhàn)來(lái)自于現(xiàn)實(shí)世界。為此,物理AI需要三臺(tái)計(jì)算機(jī)——

  • 第一臺(tái)計(jì)算機(jī):用于訓(xùn)練模型

  • 第二臺(tái)計(jì)算機(jī):用于推理,運(yùn)行咋i汽車(chē)、機(jī)器人、工廠等邊緣環(huán)境

  • 第三臺(tái)計(jì)算機(jī):專(zhuān)門(mén)用于仿真、模擬

老黃提到,仿真是整個(gè)體系的核心,只有在可控的數(shù)字環(huán)境中,AI才能反復(fù)嘗試、評(píng)估行為后果,并逐步建立對(duì)世界的理解。


彩蛋

演講最后還有一個(gè)幕后花絮,DGX Station臺(tái)式AI超算將在2026年春季上線。

屆時(shí),英偉達(dá)還將同步推出更多針對(duì)GB300系統(tǒng)的實(shí)戰(zhàn)手冊(cè)(Playbooks)。


如果說(shuō)DGX Spark是開(kāi)發(fā)者的入門(mén)首選,那么DGX Station就是一臺(tái)放在你辦公桌上的微型數(shù)據(jù)中心:

  • 搭載GB300 Grace Blackwell Ultra超級(jí)芯片。

  • 配備高達(dá)775GB的FP4精度一致性?xún)?nèi)存(Coherent Memory)。

  • 擁有Petaflop級(jí)AI算力,支持在本地運(yùn)行高達(dá)1萬(wàn)億(1T)參數(shù)的超大規(guī)模模型。

得益于強(qiáng)大的硬件基礎(chǔ),DGX Station實(shí)測(cè)威力驚人:

  • LLM預(yù)訓(xùn)練速度高達(dá)250,000 Token/秒。

  • 支持對(duì)數(shù)百萬(wàn)數(shù)據(jù)點(diǎn)進(jìn)行聚類(lèi)和大型可視化。

從DeepSeek R1的開(kāi)源震動(dòng),到Agentic AI的全面爆發(fā),計(jì)算產(chǎn)業(yè)正在經(jīng)歷一場(chǎng)前所未有的重塑。

在這個(gè)只有玩家落淚的早上,一個(gè)由物理AI驅(qū)動(dòng)的全新世界,正在Vera Rubin的轟鳴聲中,加速向我們走來(lái)。

參考資料:HYZ

https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer

https://www.nvidia.com/en-gb/data-center/vera-rubin-nvl72/

https://blogs.nvidia.com/blog/dgx-superpod-rubin/

https://www.nvidia.com/en-us/events/ces/

https://youtu.be/0NBILspM4c4

老黃開(kāi)年演講「含華量」爆表!直接拿DeepSeek、Kimi驗(yàn)貨下一代芯片

這一刻,是屬于中國(guó)AI的高光時(shí)刻。

另外,OpenAI的GPT-OSS和老黃自家的Nemotron,也做了標(biāo)注。


而且,DeepSeek-R1、Qwen3 和 Kimi K2 代表著MoE路線下頂級(jí)規(guī)模的嘗試,僅需激活少量參數(shù),大幅減少計(jì)算量和HBM顯存帶寬的壓力。


在下一代Rubin架構(gòu)亮相的核心環(huán)節(jié)上,老黃還選用了DeepSeek和Kimi K2 Thinking來(lái)秀性能。

在Rubin暴力加成下,Kimi K2 Thinking推理吞吐量直接飆了10倍。更夸張的是,token成本暴降到原來(lái)的1/10。


這種「指數(shù)級(jí)」的降本增效,等于宣告了:AI推理即將進(jìn)入真正的「平價(jià)時(shí)代」。

另外,在計(jì)算需求暴漲這頁(yè)P(yáng)PT上,480B的Qwen3和1TB的Kimi K2成為代表性模型,驗(yàn)證了參數(shù)規(guī)模每年以十倍量級(jí)scaling。


不得不說(shuō),老黃整場(chǎng)發(fā)布會(huì)上,中國(guó)AI模型的含量超標(biāo)了。

推理狂飆十倍

中國(guó)模型成老黃「御用」AI?

無(wú)獨(dú)有偶,英偉達(dá)去年12月的一篇博客中,也將DeepSeek R1和Kimi K2 Thinking作為評(píng)判性能的標(biāo)桿。

實(shí)測(cè)顯示,Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍。


另外,在SemiAnalysis InferenceMax測(cè)試中,DeepSeek-R1將每百萬(wàn)token的成本降低10倍以上。包括Mistral Large 3在內(nèi)同樣獲得了十倍加速。

這意味著,復(fù)雜的「思考型」MoE部署到日常應(yīng)用,成為了現(xiàn)實(shí)。



如今,隨便拎出一款前沿模型,只要深入其內(nèi)部結(jié)構(gòu),便會(huì)發(fā)現(xiàn)MoE(混合專(zhuān)家)成為了主流的選擇。

據(jù)統(tǒng)計(jì),自2025年以來(lái),超60%開(kāi)源AI采用了MoE架構(gòu),從2023年初,這一架構(gòu)推動(dòng)LLM智能水平提升近70倍。

此外,在權(quán)威機(jī)構(gòu)Artificial Analysis(AA)排行榜上,最智能的TOP 10開(kāi)源模型,也全都用的是MoE結(jié)構(gòu)。

如此巨大規(guī)模的MoE,單GPU必然無(wú)法部署,英偉達(dá)GB200 NVL72卻能破解這一難題。


DeepSeek R1和Kimi K2 Thinking實(shí)測(cè)結(jié)果,恰恰證明了英偉達(dá)Blackwell超算性能的強(qiáng)大所在。

如今,中國(guó)大模型閃耀全球舞臺(tái),它們令人驚嘆的表現(xiàn),開(kāi)啟了AI推理高效的新時(shí)代。


開(kāi)源AI扛把子,震驚歪果仁

去年底,Anthropic發(fā)布了一項(xiàng)針對(duì)全球16個(gè)前沿模型的嚴(yán)苛行為基準(zhǔn)測(cè)試。

在這一眾頂尖高手中,DeepSeek與Kimi不僅是唯二入局的中國(guó)面孔,更交出了驚艷的答卷——

Kimi K2 Thinking憑借極低的被誤導(dǎo)率,一舉摘得「表現(xiàn)最佳的非美國(guó)模型」桂冠。


注:得分越低性能越強(qiáng),越不容易被誤導(dǎo)

這種技術(shù)實(shí)力也迅速轉(zhuǎn)化為國(guó)際影響力和落地應(yīng)用。

從「硅谷風(fēng)投教父」Marc Andreessen的公開(kāi)盛贊,到OpenAI前CTO的新產(chǎn)品Thinker上月官宣接入Kimi K2 Thinking,中國(guó)AI的硬實(shí)力正在被全球核心圈層接納。



權(quán)威評(píng)測(cè)進(jìn)一步印證了這一趨勢(shì)。

在知名AI大佬Nathan Lambert與Florian Brand聯(lián)合發(fā)布的「2025年度開(kāi)源模型回顧」中,DeepSeek、Qwen和Kimi強(qiáng)勢(shì)包攬Top 3。


隨后,Lambert更在專(zhuān)文中深入分析,高度評(píng)價(jià)了中國(guó)開(kāi)源AI所具備的獨(dú)特優(yōu)勢(shì)。


1. 開(kāi)源模型的「唯快不破」

盡管最強(qiáng)閉源模型與開(kāi)源之間仍存代差,但中國(guó)實(shí)驗(yàn)室正在以驚人的速度發(fā)布模型,大幅壓縮了這一差距。

在技術(shù)飛速迭代的當(dāng)下,「更早發(fā)布」本身就是一種巨大的先發(fā)優(yōu)勢(shì)。

2. 始于「榜」,終于「體驗(yàn)」

中國(guó)模型在基準(zhǔn)測(cè)試上的表現(xiàn)愈發(fā)生猛,但更關(guān)鍵的是從「分高」到「好用」的轉(zhuǎn)變。

我們見(jiàn)證了Qwen的進(jìn)化:最初以「沖榜」聞名,如今已成為名副其實(shí)的優(yōu)質(zhì)模型。

順著這一思路,K2 Thinking在后訓(xùn)練階段原生采用4bit精度,顯然是為了更高效地支持長(zhǎng)序列RL擴(kuò)展,使其更勝任實(shí)際的服務(wù)任務(wù)。

3. 中國(guó)力量的品牌崛起

年初,外國(guó)用戶可能叫不出任何一家中國(guó)AI實(shí)驗(yàn)室的名字;如今,DeepSeek、Qwen和Kimi已成為東方技術(shù)實(shí)力的代表。

它們各有高光時(shí)刻和獨(dú)特優(yōu)勢(shì)。重要的是,這份名單還在不斷變長(zhǎng),中國(guó)AI正在世界舞臺(tái)占據(jù)一席之地。

4. 突破:海量工具調(diào)用與穿插思考

Kimi K2 Thinking支持「數(shù)百步穩(wěn)定工具調(diào)用」引發(fā)熱議。

雖然這在o3、Grok 4等閉源模型中已成標(biāo)配(RL訓(xùn)練中的自然涌現(xiàn)),但這通過(guò)開(kāi)源模型實(shí)現(xiàn)尚屬首批,這對(duì)托管服務(wù)商的精準(zhǔn)支持能力提出了極高要求。

此外,是「交錯(cuò)思考」(Interleaved thinking)——即模型在調(diào)用工具的間隙進(jìn)行思考。

這是繼Claude之后,強(qiáng)調(diào) agentic 能力的模型都在跟進(jìn)的新趨勢(shì),標(biāo)志著模型邏輯鏈條的進(jìn)一步成熟。

5. 倒逼美國(guó)閉源巨頭

開(kāi)源的激增讓美國(guó)閉源實(shí)驗(yàn)室倍感壓力——僅僅依靠基準(zhǔn)測(cè)試分?jǐn)?shù)已無(wú)法解釋「為什么付費(fèi)更好」了。

相比之下,中國(guó)模型或許在收入上暫未占優(yōu),但在全球市場(chǎng)的「心智份額」上,正在切走越來(lái)越大的一塊蛋糕。

回看CES 2026這場(chǎng)演講,老黃直接把「開(kāi)源」講成了全場(chǎng)最硬核的主線。

中國(guó)開(kāi)源AI的表現(xiàn)足以令世界驚嘆,隨著更多開(kāi)發(fā)者和企業(yè)擁抱這些模型,AI應(yīng)用的全面爆發(fā)指日可待。

參考資料:

https://blogs.nvidia.com/blog/mixture-of-experts-frontier-models/

https://www.interconnects.ai/p/kimi-k2-thinking-what-it-means

為偉大思想而生!

AI+時(shí)代,互聯(lián)網(wǎng)思想(wanging0123),

第一必讀自媒體

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
比恒大還慘!中國(guó)第二大民企轟然倒塌,負(fù)債7500億,創(chuàng)始人被帶走

比恒大還慘!中國(guó)第二大民企轟然倒塌,負(fù)債7500億,創(chuàng)始人被帶走

古事尋蹤記
2025-12-27 07:16:35
社保嚴(yán)查全面收緊!無(wú)數(shù)中小企業(yè),正在為十年前的小聰明買(mǎi)單

社保嚴(yán)查全面收緊!無(wú)數(shù)中小企業(yè),正在為十年前的小聰明買(mǎi)單

芳姐侃社會(huì)
2026-04-25 18:32:12
40球,巴黎創(chuàng)隊(duì)史單賽季歐冠進(jìn)球數(shù)新高

40球,巴黎創(chuàng)隊(duì)史單賽季歐冠進(jìn)球數(shù)新高

懂球帝
2026-04-29 03:41:16
凱恩歐冠淘汰賽已打入16球,成該階段進(jìn)球最多的英格蘭球員

凱恩歐冠淘汰賽已打入16球,成該階段進(jìn)球最多的英格蘭球員

懂球帝
2026-04-29 03:41:16
13球7助,KK加盟巴黎后歐冠參與進(jìn)球?yàn)橥谒星騿T最多

13球7助,KK加盟巴黎后歐冠參與進(jìn)球?yàn)橥谒星騿T最多

懂球帝
2026-04-29 04:34:06
40歲32天,諾伊爾成出戰(zhàn)歐冠半決賽第三年長(zhǎng)球員

40歲32天,諾伊爾成出戰(zhàn)歐冠半決賽第三年長(zhǎng)球員

懂球帝
2026-04-29 03:41:16
即將升入英冠,林肯城球員&球迷齊聲高歌:下賽季踢熱刺咯!

即將升入英冠,林肯城球員&球迷齊聲高歌:下賽季踢熱刺咯!

懂球帝
2026-04-28 13:14:06
地鐵搶座互毆后續(xù):警方立案,老太先動(dòng)手反占優(yōu),女子結(jié)局更慘

地鐵搶座互毆后續(xù):警方立案,老太先動(dòng)手反占優(yōu),女子結(jié)局更慘

阿鳧愛(ài)吐槽
2026-04-28 01:01:23
全面取消“寬帶5G融合套餐”,或是運(yùn)營(yíng)商未來(lái)扭轉(zhuǎn)局面的最佳出路!

全面取消“寬帶5G融合套餐”,或是運(yùn)營(yíng)商未來(lái)扭轉(zhuǎn)局面的最佳出路!

通信老柳
2026-04-24 08:21:36
哭窮了!一線男1號(hào)片酬跌至巔峰期3折,網(wǎng)友:待遇比醫(yī)生差才合理

哭窮了!一線男1號(hào)片酬跌至巔峰期3折,網(wǎng)友:待遇比醫(yī)生差才合理

火山詩(shī)話
2026-04-28 07:27:33
“窮人炫富,難掩心酸!”男大學(xué)生炫耀坐高鐵一等座,因長(zhǎng)相被嘲

“窮人炫富,難掩心酸!”男大學(xué)生炫耀坐高鐵一等座,因長(zhǎng)相被嘲

妍妍教育日記
2026-04-24 09:05:03
第二個(gè)加納喬!曼聯(lián) 7100 萬(wàn)水貨徹底迷失,卡里克該棄用了

第二個(gè)加納喬!曼聯(lián) 7100 萬(wàn)水貨徹底迷失,卡里克該棄用了

瀾歸序
2026-04-29 01:24:33
7年敗光2億!鄒市明冉瑩穎共同發(fā)文:二人最終還是邁出了這一步!

7年敗光2億!鄒市明冉瑩穎共同發(fā)文:二人最終還是邁出了這一步!

拳擊時(shí)空
2026-04-16 06:04:48
76年他準(zhǔn)備好了“接班人演講稿”,毛主席突然讓華國(guó)鋒擔(dān)任代總理

76年他準(zhǔn)備好了“接班人演講稿”,毛主席突然讓華國(guó)鋒擔(dān)任代總理

銅臭的歷史味
2026-04-29 00:58:47
打起來(lái)了,以軍不宣而戰(zhàn);內(nèi)塔尼亞胡迎來(lái)勁敵,或被關(guān)進(jìn)大牢!

打起來(lái)了,以軍不宣而戰(zhàn);內(nèi)塔尼亞胡迎來(lái)勁敵,或被關(guān)進(jìn)大牢!

說(shuō)歷史的老牢
2026-04-27 23:23:31
帶30萬(wàn)大軍敗退臺(tái)灣,蔣介石親自到碼頭接,為何到臺(tái)灣只活了3年

帶30萬(wàn)大軍敗退臺(tái)灣,蔣介石親自到碼頭接,為何到臺(tái)灣只活了3年

夏目歷史君
2026-04-20 10:33:19
“談”還是“打”?臺(tái)灣最新民調(diào)給出驚人答案,大陸這步棋走對(duì)了

“談”還是“打”?臺(tái)灣最新民調(diào)給出驚人答案,大陸這步棋走對(duì)了

新浪財(cái)經(jīng)
2026-04-28 00:57:34
繼迪馬利亞后,登貝萊成第二位歐冠半決賽傳射的巴黎球員

繼迪馬利亞后,登貝萊成第二位歐冠半決賽傳射的巴黎球員

懂球帝
2026-04-29 04:23:07
北京這一夜,林芳兵變了,朱琳老了,沈丹萍腫了,唯她看著年輕了

北京這一夜,林芳兵變了,朱琳老了,沈丹萍腫了,唯她看著年輕了

以茶帶書(shū)
2026-04-28 19:32:51
最新 | 我市通報(bào)5起違反中央八項(xiàng)規(guī)定精神典型問(wèn)題

最新 | 我市通報(bào)5起違反中央八項(xiàng)規(guī)定精神典型問(wèn)題

天津廣播
2026-04-28 16:20:16
2026-04-29 04:55:00
互聯(lián)網(wǎng)思想 incentive-icons
互聯(lián)網(wǎng)思想
AI時(shí)代,互聯(lián)網(wǎng)思想觀察
2434文章數(shù) 16907關(guān)注度
往期回顧 全部

科技要聞

10億周活目標(biāo)落空!傳OpenAI爆發(fā)內(nèi)部分歧

頭條要聞

19歲中國(guó)女孩被困緬甸 交20萬(wàn)贖金園區(qū)仍未放人

頭條要聞

19歲中國(guó)女孩被困緬甸 交20萬(wàn)贖金園區(qū)仍未放人

體育要聞

魔術(shù)黑八活塞,一步之遙?!

娛樂(lè)要聞

蔡卓妍官宣結(jié)婚,老公比她小10歲

財(cái)經(jīng)要聞

中央政治局會(huì)議定調(diào),八大看點(diǎn)速覽!

汽車(chē)要聞

拒絕瘋狂套娃!現(xiàn)代艾尼氪金星長(zhǎng)在未來(lái)審美點(diǎn)上

態(tài)度原創(chuàng)

健康
教育
家居
本地
軍事航空

干細(xì)胞治療燒燙傷三大優(yōu)勢(shì)!

教育要聞

教育部通知,今年9月份開(kāi)始,上學(xué)的規(guī)則全變了

家居要聞

江景風(fēng)格 流動(dòng)的秩序

本地新聞

用青花瓷的方式,打開(kāi)西溪濕地

軍事要聞

德國(guó)總理默茨:美國(guó)正遭受伊朗領(lǐng)導(dǎo)層的羞辱

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版