国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

黃仁勛CES最新預(yù)言:2026年,變化來(lái)得更加猛烈!未來(lái)所有應(yīng)用,將建在AI之上

0
分享至


來(lái)源:新智元

【導(dǎo)讀】CES巨幕上,老黃的PPT已成中國(guó)AI的「封神榜」。DeepSeek與Kimi位列C位之時(shí),算力新時(shí)代已至。

萬(wàn)眾矚目的2026 CES科技盛宴上,一張PPT瞬間燃爆AI圈。

老黃主旨演講上,中國(guó)大模型Kimi K2、DeepSeek V3.2,以及Qwen赫然上屏,位列全球開源大模型前列,性能正在逼近閉源模型。

CES之夜無(wú)顯卡!老黃引爆Rubin時(shí)代,6顆芯狂飆5倍算力

天空一聲巨響,全新版本的「皮衣老黃」閃亮登場(chǎng)。


在本次CES演講中最為激動(dòng)人心的瞬間,就是英偉達(dá)全新一代芯片架構(gòu)——Vera Rubin正式登場(chǎng)!

全球AI算力告急?老黃霸氣回應(yīng):Vera Rubin已全面投產(chǎn)。

這是新一代的算力怪獸,也是對(duì)上一代霸主Blackwell的降維打擊——

  • 推理Token成本直接暴降10倍,算力性能狂飆5倍。

  • 就連訓(xùn)練MoE模型所需的GPU數(shù)量,也直接減少了4倍。

曾經(jīng),Blackwell終結(jié)了Hopper;如今,Rubin親手埋葬了Blackwell。


全程近兩小時(shí)演講,老黃提及重點(diǎn)包括——

  • 下一代Rubin平臺(tái)亮相:六顆芯片,推理狂飆十倍

  • 自動(dòng)駕駛端到端模型:AlphaMayo會(huì)思考、自主推理,全程0接管上路

  • 物理AI全家桶開源:基礎(chǔ)模型、框架


玩家徹夜難眠:CES 2026,沒(méi)有顯卡

至于游戲玩家?

對(duì)不起,這次真的沒(méi)有新顯卡。


英偉達(dá)在X上的一紙公告,徹底擊碎了「攢機(jī)黨」最后的幻想:CES 2026將沒(méi)有任何新GPU發(fā)布。

這意味著,英偉達(dá)自2021年以來(lái)連續(xù)五年在CES發(fā)布新硬件的傳統(tǒng),就此終結(jié)。

傳聞已久的RTX 50 Super系列,受困于GDDR7顯存的「產(chǎn)能地獄」,大概率已經(jīng)胎死腹中。

Rubin炸裂登場(chǎng)

6顆芯片,10倍推理,AI超算變工廠

去年10月,老黃曾預(yù)計(jì):未來(lái)五年,將有3到4萬(wàn)億美元砸向AI基礎(chǔ)設(shè)施。

Vera Rubin的大規(guī)模投產(chǎn),可謂生逢其時(shí)。

如果說(shuō)Blackwell打破了單卡性能的極限,那么Rubin解決的則是系統(tǒng)規(guī)?;?/strong>的難題。

從此,算力將像電力一樣廉價(jià),AI的大爆發(fā)已近在咫尺!


2024年,Vera Rubin架構(gòu)首次亮相。

等了兩年,現(xiàn)在它終于正式投產(chǎn)了!

Blackwell架構(gòu),從此將退出歷史舞臺(tái)。

演講現(xiàn)場(chǎng),老黃告訴大家:AI所需的計(jì)算量急劇飆升,怎么辦?不用怕,Vera Rubin,將解決我們面臨的根本性挑戰(zhàn)!

這套為萬(wàn)億參數(shù)模型的海量推理而生的平臺(tái),會(huì)徹底讓算力低成本、規(guī)?;?、工業(yè)化生產(chǎn)。

Rubin架構(gòu),以天文學(xué)家Vera Florence Cooper Rubin而命名。


可以說(shuō),Rubin是英偉達(dá)第一次把CPU、GPU、網(wǎng)絡(luò)、存儲(chǔ)、安全,當(dāng)成一個(gè)整體來(lái)設(shè)計(jì)。

核心思路就是:不再「堆卡」,而是把整個(gè)數(shù)據(jù)中心變成一臺(tái)AI超算。

整個(gè)Rubin平臺(tái),由這6個(gè)關(guān)鍵組件構(gòu)成。



其中,Rubin GPU是整個(gè)平臺(tái)的核心。它搭載第三代Transformer引擎,為AI推理提供50 PFLOPS的NVFP4算力。

之所以能達(dá)到Blackwell GPU性能的5倍,是因?yàn)樗腘VFP4張量核心,后者能分析Transformer各層的計(jì)算特性,動(dòng)態(tài)調(diào)整數(shù)據(jù)精度與計(jì)算路徑。


另外,該架構(gòu)還引入一顆全新的Vera CPU,專為智能體推理而設(shè)計(jì)。

它采用88個(gè)英偉達(dá)自研Olympus核心,完全兼容Armv9.2,并具備超快的NVLink-C2C 連接,能實(shí)現(xiàn)176個(gè)線程的全性能執(zhí)行,I/O帶寬和能效比直接翻倍。


當(dāng)我們?cè)贏gentic AI或長(zhǎng)期任務(wù)中啟用全新的工作流時(shí),會(huì)對(duì)KV cache造成很大壓力。

為了解決存儲(chǔ)和互聯(lián)的瓶頸,Rubin架構(gòu)特別改進(jìn)了Bluefield和NVLink系統(tǒng)。它通過(guò)外部方式和計(jì)算設(shè)備相連,這樣就能更高效地?cái)U(kuò)展整體存儲(chǔ)池的規(guī)模。

BlueField-4 DPU是一個(gè)數(shù)據(jù)處理單元,它能卸載網(wǎng)絡(luò)、存儲(chǔ)和安全任務(wù),還能管理AI的上下文記憶系統(tǒng)。


NVLink 6中,單芯片就能提供每秒400Gb的交換能力。每塊GPU提供3.6TB/s 的帶寬,而Rubin NVL72機(jī)架提供260TB/s,帶寬超過(guò)整個(gè)互聯(lián)網(wǎng)。

通過(guò)3.6 TB/s的帶寬和網(wǎng)絡(luò)內(nèi)計(jì)算能力,它能讓Rubin中的72個(gè)GPU像一個(gè)超級(jí)GPU一樣協(xié)同工作,直接把推理成本打至1/7。


現(xiàn)場(chǎng),老黃給我們展示了Vera Rubin的托盤。小小的托盤上集成了2顆Vera CPU、4顆Rubin GPU、1顆BlueField-4 DPU和8顆ConnectX-9網(wǎng)卡,整個(gè)計(jì)算單元算力達(dá)到100 PetaFLOPS。



Rubin的目標(biāo),是解決MoE和萬(wàn)億參數(shù)模型的訓(xùn)練成本,它做到了嗎?顯然,成果是顯著的。

訓(xùn)練、推理效率暴增

測(cè)試結(jié)果顯示,Rubin架構(gòu)訓(xùn)練模型時(shí)的運(yùn)行速度,直接達(dá)到上一代Blackwell架構(gòu)的3.5倍(35 petaflops),推理任務(wù)的速度則高達(dá)5倍,最高可達(dá)50 petaflops!

同時(shí),它的HBM4內(nèi)存帶寬提升至22 TB/s,達(dá)到2.8倍,單GPU的NVLink互連帶寬則翻倍到3.6 TB/s。


在超大規(guī)模MoE訓(xùn)練中,Rubin所需的GPU數(shù)量相比Blackwell可減少至1/4,同時(shí)整體能耗顯著下降。

這背后,就有三大功臣。

NVLink 6,讓GPU間互聯(lián)帶寬再次大幅提升,多卡訓(xùn)練不再被通信拖慢;Vera CPU與Rubin GPU的協(xié)同調(diào)度,可以減少「GPU等數(shù)據(jù)」的空轉(zhuǎn)時(shí)間;而ConnectX-9與Spectrum-6的深度協(xié)同,也讓大模型訓(xùn)練不會(huì)再被集群規(guī)模限制。



從此,訓(xùn)練萬(wàn)億模型,不再是「堆錢」,只會(huì)是工程問(wèn)題。

訓(xùn)練解決了,那推理呢?

結(jié)果顯示,在推理側(cè),Rubin平臺(tái)單位token的推理效率提升最高可達(dá)10倍!同樣的模型和響應(yīng)延遲,算力成本可以直接下降到原來(lái)的1/10。

所以,模型可以跑得起百萬(wàn)token的長(zhǎng)下文,企業(yè)級(jí)AI應(yīng)用也可以部署了。



存儲(chǔ)瓶頸解決

如上文所言,讓AI模型多跑一會(huì)的關(guān)鍵挑戰(zhàn),就在于上下文數(shù)據(jù)。


大量KV Cache該如何處理?英偉達(dá)推出了由BlueField-4驅(qū)動(dòng)的推理上下文內(nèi)存存儲(chǔ)平臺(tái)。

這個(gè)平臺(tái)在GPU內(nèi)存和傳統(tǒng)存儲(chǔ)之間創(chuàng)建了「第三層」,直接讓每秒處理的 token數(shù)提升高達(dá)5倍。


DGX Super POD

本次CES上,英偉達(dá)還推出了新一代DGX SuperPOD。


它把多個(gè)裝有72個(gè)GPU的Rubin NVL72連接起來(lái),形成了更大的AI計(jì)算集群。

在這次的DGX SuperPOD中,共有8個(gè)Rubin NVL72機(jī)架,相當(dāng)于有576個(gè)GPU。


NVIDIA Vera Rubin NVL72 提供統(tǒng)一、安全的系統(tǒng),集成了72 塊Rubin GPU、36塊Vera CPU、NVLink 6、ConnectX-9 SuperNICs和BlueField-4 DPUs

這樣,SuperPOD就可以處理數(shù)千個(gè)Agentic AI智能體,以及數(shù)百萬(wàn)token上下文。

可以說(shuō),英偉達(dá)一次性解決了數(shù)百個(gè)GPU相連、管理存儲(chǔ)的問(wèn)題,直接給我們提供了開箱即用的AI基礎(chǔ)設(shè)施。



第三代機(jī)密計(jì)算平臺(tái)

更為重要的是,Rubin是首個(gè)支持第三代機(jī)密計(jì)算(Confidential Computing)的AI超算平臺(tái)。

模型參數(shù)、推理數(shù)據(jù)、用戶請(qǐng)求都會(huì)被全鏈路加密,即使的云廠商,也無(wú)法直接訪問(wèn)明文數(shù)據(jù)。

這就解決了「敢不敢把核心AI放到云上」的問(wèn)題,對(duì)于金融、醫(yī)療、政府、企業(yè)私有模型都非常重要。

這些大廠,第一批用上Rubin

老黃介紹說(shuō),Rubin會(huì)由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI這些頭部廠商先部署。

而到2026年下半年,Rubin平臺(tái)就會(huì)進(jìn)入大規(guī)模商用階段。

所以,下一代GPT、Gemini、Claude模型,大概率都會(huì)運(yùn)行在Rubin架構(gòu)上。


全程0接管,自動(dòng)駕駛AI「會(huì)思考」

如何教會(huì)AI物理學(xué)的基礎(chǔ)事實(shí)?

英偉達(dá)給出的答案是,把算力變成高質(zhì)量的數(shù)據(jù)(Compute is Data)。

在這一體系中,「世界基礎(chǔ)模型」Cosmos扮演著重要的角色。

交通模擬器輸出的信號(hào),被送入Cosmos再生成合理、運(yùn)動(dòng)上連貫的環(huán)繞視頻,讓AI學(xué)習(xí)其中真實(shí)世界的行為模式。


如今,Cosmos已被全球下載數(shù)百萬(wàn)次,成為物理AI時(shí)代的重要基礎(chǔ)設(shè)施。在英偉達(dá),內(nèi)部也在用其做自動(dòng)駕駛研究。

在此基礎(chǔ)上,今天,英偉達(dá)正式發(fā)布了「端到端」自動(dòng)駕駛AI——AlphaMayo。

它是一個(gè)會(huì)思考、會(huì)推理的自動(dòng)駕駛AI。從攝像頭輸入到車輛執(zhí)行動(dòng)作,全流程由模型完成。


AlphaMayo獨(dú)特之處,在于它具備了顯式推理能力。

系統(tǒng)不僅執(zhí)行轉(zhuǎn)向、制動(dòng)、加速動(dòng)作,還會(huì)給出即將采取行動(dòng)的理由,以及對(duì)應(yīng)的形式軌跡。


自動(dòng)駕駛最大挑戰(zhàn),來(lái)自于「長(zhǎng)尾場(chǎng)景」,幾乎不可能覆蓋所有國(guó)家、所有道路的數(shù)據(jù)。

AlphaMayo的策略是將復(fù)雜場(chǎng)景,拆解為多個(gè)熟悉的物理與交通子問(wèn)題,通過(guò)推理將罕見(jiàn)情況分解為常見(jiàn)組合,完成應(yīng)對(duì)。

在演示中,車輛可以在全程0接管狀態(tài)下,完成路徑規(guī)劃與行駛,順利抵達(dá)目的地。


在自動(dòng)駕駛領(lǐng)域,英偉達(dá)投入持續(xù)了八年,如今第一次把AI「五層架構(gòu)」完整跑通。

由下到上:實(shí)體本身、芯片體系、模型層、基礎(chǔ)設(shè)施層、應(yīng)用層,構(gòu)成了一套完全貫通的AI系統(tǒng)棧。

AlphaMayo構(gòu)成模型層,梅賽德斯-奔馳汽車構(gòu)成應(yīng)用層。

這一次,老黃還官宣了,NVIDIA DRIVE AV軟件首次搭載全新梅賽德斯-奔馳 CLA,提供L2級(jí)端到端駕駛。


更重磅的是,Alpamayo家族全部開源。這一整套方法論,并不只適用于汽車,同樣適用于機(jī)器人、機(jī)械臂等各類系統(tǒng)。

全家桶開源,機(jī)器人ChatGPT時(shí)刻

下一階段,機(jī)器人將以各種形態(tài)進(jìn)入現(xiàn)實(shí)世界,前提是,它們首先在Omniverse中學(xué)會(huì)如何行動(dòng)。

現(xiàn)場(chǎng),老黃又召喚來(lái)了機(jī)器人瓦力登臺(tái)配合演出,這里他講了一句意味深長(zhǎng)的話:

未來(lái)的系統(tǒng),都誕生在計(jì)算機(jī)里。


英偉達(dá)正把自身能力嵌入到,計(jì)算密度最高、最復(fù)雜的工業(yè)體系統(tǒng),就像此前與Palantir、ServiceNow的集成一樣。

如今,這一模式正被復(fù)制到了工業(yè)仿真與設(shè)計(jì)領(lǐng)域。

在具身智能領(lǐng)域,老黃直接扔下了一套針對(duì)物理AI(Physical AI)的「開源全家桶」——模型、框架及基礎(chǔ)設(shè)施,應(yīng)有盡有。

機(jī)器人的ChatGPT時(shí)刻已經(jīng)到來(lái)!


目前,所有新模型均已上線Hugging Face,拿來(lái)即用:

  • NVIDIA Cosmos Transfer/Predict 2.5,這是完全可定制的世界模型,專門在虛擬世界里生成符合物理規(guī)律的數(shù)據(jù),訓(xùn)練機(jī)器人的大腦。

  • NVIDIA Cosmos Reason 2,讓機(jī)器像人一樣「看懂」世界并進(jìn)行邏輯推理。

  • NVIDIA Isaac GR00T N1.6,專為人形機(jī)器人打造,解鎖全身控制,讓機(jī)器人不再四肢僵硬。

為了解決機(jī)器人開發(fā)中「各自為戰(zhàn)」的痛點(diǎn),英偉達(dá)發(fā)布了兩大神器:

  • Isaac Lab-Arena:這是GitHub上的開源框架,連接了主流基準(zhǔn)測(cè)試,確保機(jī)器人在進(jìn)廠打工前,已經(jīng)在虛擬世界里經(jīng)過(guò)了千錘百煉。

  • NVIDIA OSMO:無(wú)論是在工作站還是混合云,它都能統(tǒng)一調(diào)度數(shù)據(jù)生成、模型訓(xùn)練和測(cè)試,大幅縮短開發(fā)周期。

機(jī)器人技術(shù)已是Hugging Face上增長(zhǎng)最快的領(lǐng)域。英偉達(dá)這次不僅是提供模型,更是深度集成:

  • LeRobot集成:Isaac和GR00T技術(shù)直接通過(guò)LeRobot框架即可調(diào)用。

  • 硬件互通:Hugging Face的開源機(jī)器人Reachy 2和Reachy Mini現(xiàn)已完美適配英偉達(dá)的Jetson平臺(tái),語(yǔ)音、視覺(jué)、大模型能力瞬間拉滿。

軟件強(qiáng)還不夠,硬件必須硬。如今,全新的Jetson T4000模組,直接將Blackwell架構(gòu)帶到了邊緣端:

  • 算力高達(dá)1200 FP4 TFLOPS,是上一代的4倍。

  • 1000臺(tái)起訂單價(jià)僅1999美元。

  • 70瓦功耗,簡(jiǎn)直是為能源受限的自主設(shè)備量身定做。


老黃震撼預(yù)言

未來(lái)所有應(yīng)用,建在AI之上

每隔10-15年,計(jì)算產(chǎn)業(yè)就會(huì)重來(lái)一次。

演講伊始,老黃還回顧了計(jì)算產(chǎn)業(yè)過(guò)去數(shù)十年的演進(jìn)路徑——

從大型機(jī)到CP,到互聯(lián)網(wǎng)、云計(jì)算,再到移動(dòng)計(jì)算,每一次平臺(tái)級(jí)躍遷,都會(huì)催生一整套全新的應(yīng)用生態(tài),軟件開發(fā)方式也隨之重構(gòu)。

而這一次,變化來(lái)得更加猛烈。

他提到,當(dāng)前產(chǎn)業(yè)正同時(shí)經(jīng)歷兩次平臺(tái)級(jí)轉(zhuǎn)變:一是從傳統(tǒng)計(jì)算走向AI,另一個(gè)是整個(gè)軟件、硬件棧的底層重塑。

AI正成為全新的「底座」,應(yīng)用開始建立在AI之上。同時(shí),軟件開發(fā)與運(yùn)行方式、應(yīng)用生成方式發(fā)生了根本性變化。

這一切,共同推動(dòng)了「加速計(jì)算+AI」對(duì)整個(gè)計(jì)算體系的重塑,五個(gè)層級(jí)正在同時(shí)被重新發(fā)明。


2022年ChatGPT爆發(fā)后,AI才真正走進(jìn)大眾視野。一年之后,推理模型首次登場(chǎng),引入了「測(cè)試時(shí)Scaling」這一概念。

模型不僅在訓(xùn)練階段學(xué)習(xí),還在推理階段實(shí)時(shí)計(jì)算和推演。預(yù)訓(xùn)練、RL、推理這些階段,都需要機(jī)器龐大的計(jì)算資源,也同時(shí)推動(dòng)模型能力持續(xù)提升。

2024年,另一項(xiàng)突破開始顯現(xiàn),直到2025年,智能體系統(tǒng)(Agentic AI)才迅速擴(kuò)散開來(lái)。

老黃再次提及,在英偉達(dá)內(nèi)部,像Cursor這樣的Agentic工具已深刻改變了軟件的開發(fā)方式。

智能體AI之后,下一個(gè)前沿便是物理AI(Physical AI),理解自然規(guī)律和物理法則,為AI打開了全新疆域。

除此之外,過(guò)去一年,另一個(gè)具有決定性意義的變化來(lái)自「開源模型」。

DeepSeek R1的出現(xiàn),作為首批開源推理模型之一,給行業(yè)帶起來(lái)巨大震動(dòng)。

但不可否認(rèn)的是,其仍比前沿模型落后六個(gè)月。每隔半年,就有新模型涌現(xiàn),而且越來(lái)越智能。



英偉達(dá),正引領(lǐng)著開源模型的生態(tài),遍布多個(gè)領(lǐng)域。而且,在多個(gè)榜單上取得了亮眼的成績(jī)。

最具代表性的包括多模態(tài)Nemotron 3、世界模型Cosmos、機(jī)器人模型GR00T、蛋白預(yù)測(cè)模型OpenFold 3......



老黃現(xiàn)場(chǎng)表示,以上一切成果,都為構(gòu)建AI智能體服務(wù),這是真正突破性的發(fā)展領(lǐng)域。

當(dāng)前AI模型已變得極其強(qiáng)大,智能體的推理能力為各類應(yīng)用開啟了大門。


令老黃深感震驚的是,首次在Perplexity見(jiàn)證了其同時(shí)調(diào)用多個(gè)模型——AI在推理任何環(huán)節(jié),直接調(diào)用最頂尖的模型。

這背后本質(zhì)上是「多云協(xié)同」,同時(shí)還具備了混合云特性。

老黃明確地表示,這就是未來(lái)AI應(yīng)用的基本形態(tài)?;蛘哒f(shuō),因?yàn)槲磥?lái)應(yīng)用都構(gòu)建在AI之上,這就是未來(lái)應(yīng)用的基礎(chǔ)框架。

一方面,AI可以被深度定制。另一方面,系統(tǒng)始終保持最前沿?!付ㄖ?前沿」能力在同一架構(gòu)中同時(shí)存在。


在軟件世界之外,更大挑戰(zhàn)來(lái)自于現(xiàn)實(shí)世界。為此,物理AI需要三臺(tái)計(jì)算機(jī)——

  • 第一臺(tái)計(jì)算機(jī):用于訓(xùn)練模型

  • 第二臺(tái)計(jì)算機(jī):用于推理,運(yùn)行咋i汽車、機(jī)器人、工廠等邊緣環(huán)境

  • 第三臺(tái)計(jì)算機(jī):專門用于仿真、模擬

老黃提到,仿真是整個(gè)體系的核心,只有在可控的數(shù)字環(huán)境中,AI才能反復(fù)嘗試、評(píng)估行為后果,并逐步建立對(duì)世界的理解。


彩蛋

演講最后還有一個(gè)幕后花絮,DGX Station臺(tái)式AI超算將在2026年春季上線。

屆時(shí),英偉達(dá)還將同步推出更多針對(duì)GB300系統(tǒng)的實(shí)戰(zhàn)手冊(cè)(Playbooks)。


如果說(shuō)DGX Spark是開發(fā)者的入門首選,那么DGX Station就是一臺(tái)放在你辦公桌上的微型數(shù)據(jù)中心:

  • 搭載GB300 Grace Blackwell Ultra超級(jí)芯片。

  • 配備高達(dá)775GB的FP4精度一致性內(nèi)存(Coherent Memory)。

  • 擁有Petaflop級(jí)AI算力,支持在本地運(yùn)行高達(dá)1萬(wàn)億(1T)參數(shù)的超大規(guī)模模型。

得益于強(qiáng)大的硬件基礎(chǔ),DGX Station實(shí)測(cè)威力驚人:

  • LLM預(yù)訓(xùn)練速度高達(dá)250,000 Token/秒

  • 支持對(duì)數(shù)百萬(wàn)數(shù)據(jù)點(diǎn)進(jìn)行聚類和大型可視化。

從DeepSeek R1的開源震動(dòng),到Agentic AI的全面爆發(fā),計(jì)算產(chǎn)業(yè)正在經(jīng)歷一場(chǎng)前所未有的重塑。

在這個(gè)只有玩家落淚的早上,一個(gè)由物理AI驅(qū)動(dòng)的全新世界,正在Vera Rubin的轟鳴聲中,加速向我們走來(lái)。

參考資料:HYZ

https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer

https://www.nvidia.com/en-gb/data-center/vera-rubin-nvl72/

https://blogs.nvidia.com/blog/dgx-superpod-rubin/

https://www.nvidia.com/en-us/events/ces/

https://youtu.be/0NBILspM4c4

老黃開年演講「含華量」爆表!直接拿DeepSeek、Kimi驗(yàn)貨下一代芯片

這一刻,是屬于中國(guó)AI的高光時(shí)刻。

另外,OpenAI的GPT-OSS和老黃自家的Nemotron,也做了標(biāo)注。


而且,DeepSeek-R1、Qwen3 和 Kimi K2 代表著MoE路線下頂級(jí)規(guī)模的嘗試,僅需激活少量參數(shù),大幅減少計(jì)算量和HBM顯存帶寬的壓力。


在下一代Rubin架構(gòu)亮相的核心環(huán)節(jié)上,老黃還選用了DeepSeek和Kimi K2 Thinking來(lái)秀性能。

在Rubin暴力加成下,Kimi K2 Thinking推理吞吐量直接飆了10倍。更夸張的是,token成本暴降到原來(lái)的1/10。


這種「指數(shù)級(jí)」的降本增效,等于宣告了:AI推理即將進(jìn)入真正的「平價(jià)時(shí)代」。

另外,在計(jì)算需求暴漲這頁(yè)P(yáng)PT上,480B的Qwen3和1TB的Kimi K2成為代表性模型,驗(yàn)證了參數(shù)規(guī)模每年以十倍量級(jí)scaling。


不得不說(shuō),老黃整場(chǎng)發(fā)布會(huì)上,中國(guó)AI模型的含量超標(biāo)了。

推理狂飆十倍

中國(guó)模型成老黃「御用」AI?

無(wú)獨(dú)有偶,英偉達(dá)去年12月的一篇博客中,也將DeepSeek R1和Kimi K2 Thinking作為評(píng)判性能的標(biāo)桿。

實(shí)測(cè)顯示,Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍。


另外,在SemiAnalysis InferenceMax測(cè)試中,DeepSeek-R1將每百萬(wàn)token的成本降低10倍以上。包括Mistral Large 3在內(nèi)同樣獲得了十倍加速。

這意味著,復(fù)雜的「思考型」MoE部署到日常應(yīng)用,成為了現(xiàn)實(shí)。



如今,隨便拎出一款前沿模型,只要深入其內(nèi)部結(jié)構(gòu),便會(huì)發(fā)現(xiàn)MoE(混合專家)成為了主流的選擇。

據(jù)統(tǒng)計(jì),自2025年以來(lái),超60%開源AI采用了MoE架構(gòu),從2023年初,這一架構(gòu)推動(dòng)LLM智能水平提升近70倍。

此外,在權(quán)威機(jī)構(gòu)Artificial Analysis(AA)排行榜上,最智能的TOP 10開源模型,也全都用的是MoE結(jié)構(gòu)。

如此巨大規(guī)模的MoE,單GPU必然無(wú)法部署,英偉達(dá)GB200 NVL72卻能破解這一難題。


DeepSeek R1和Kimi K2 Thinking實(shí)測(cè)結(jié)果,恰恰證明了英偉達(dá)Blackwell超算性能的強(qiáng)大所在。

如今,中國(guó)大模型閃耀全球舞臺(tái),它們令人驚嘆的表現(xiàn),開啟了AI推理高效的新時(shí)代。


開源AI扛把子,震驚歪果仁

去年底,Anthropic發(fā)布了一項(xiàng)針對(duì)全球16個(gè)前沿模型的嚴(yán)苛行為基準(zhǔn)測(cè)試。

在這一眾頂尖高手中,DeepSeek與Kimi不僅是唯二入局的中國(guó)面孔,更交出了驚艷的答卷——

Kimi K2 Thinking憑借極低的被誤導(dǎo)率,一舉摘得「表現(xiàn)最佳的非美國(guó)模型」桂冠。


注:得分越低性能越強(qiáng),越不容易被誤導(dǎo)

這種技術(shù)實(shí)力也迅速轉(zhuǎn)化為國(guó)際影響力和落地應(yīng)用。

從「硅谷風(fēng)投教父」Marc Andreessen的公開盛贊,到OpenAI前CTO的新產(chǎn)品Thinker上月官宣接入Kimi K2 Thinking,中國(guó)AI的硬實(shí)力正在被全球核心圈層接納。



權(quán)威評(píng)測(cè)進(jìn)一步印證了這一趨勢(shì)。

在知名AI大佬Nathan Lambert與Florian Brand聯(lián)合發(fā)布的「2025年度開源模型回顧」中,DeepSeek、Qwen和Kimi強(qiáng)勢(shì)包攬Top 3。


隨后,Lambert更在專文中深入分析,高度評(píng)價(jià)了中國(guó)開源AI所具備的獨(dú)特優(yōu)勢(shì)。


1. 開源模型的「唯快不破」

盡管最強(qiáng)閉源模型與開源之間仍存代差,但中國(guó)實(shí)驗(yàn)室正在以驚人的速度發(fā)布模型,大幅壓縮了這一差距。

在技術(shù)飛速迭代的當(dāng)下,「更早發(fā)布」本身就是一種巨大的先發(fā)優(yōu)勢(shì)。

2. 始于「榜」,終于「體驗(yàn)」

中國(guó)模型在基準(zhǔn)測(cè)試上的表現(xiàn)愈發(fā)生猛,但更關(guān)鍵的是從「分高」到「好用」的轉(zhuǎn)變。

我們見(jiàn)證了Qwen的進(jìn)化:最初以「沖榜」聞名,如今已成為名副其實(shí)的優(yōu)質(zhì)模型。

順著這一思路,K2 Thinking在后訓(xùn)練階段原生采用4bit精度,顯然是為了更高效地支持長(zhǎng)序列RL擴(kuò)展,使其更勝任實(shí)際的服務(wù)任務(wù)。

3. 中國(guó)力量的品牌崛起

年初,外國(guó)用戶可能叫不出任何一家中國(guó)AI實(shí)驗(yàn)室的名字;如今,DeepSeek、Qwen和Kimi已成為東方技術(shù)實(shí)力的代表。

它們各有高光時(shí)刻和獨(dú)特優(yōu)勢(shì)。重要的是,這份名單還在不斷變長(zhǎng),中國(guó)AI正在世界舞臺(tái)占據(jù)一席之地。

4. 突破:海量工具調(diào)用與穿插思考

Kimi K2 Thinking支持「數(shù)百步穩(wěn)定工具調(diào)用」引發(fā)熱議。

雖然這在o3、Grok 4等閉源模型中已成標(biāo)配(RL訓(xùn)練中的自然涌現(xiàn)),但這通過(guò)開源模型實(shí)現(xiàn)尚屬首批,這對(duì)托管服務(wù)商的精準(zhǔn)支持能力提出了極高要求。

此外,是「交錯(cuò)思考」(Interleaved thinking)——即模型在調(diào)用工具的間隙進(jìn)行思考。

這是繼Claude之后,強(qiáng)調(diào) agentic 能力的模型都在跟進(jìn)的新趨勢(shì),標(biāo)志著模型邏輯鏈條的進(jìn)一步成熟。

5. 倒逼美國(guó)閉源巨頭

開源的激增讓美國(guó)閉源實(shí)驗(yàn)室倍感壓力——僅僅依靠基準(zhǔn)測(cè)試分?jǐn)?shù)已無(wú)法解釋「為什么付費(fèi)更好」了。

相比之下,中國(guó)模型或許在收入上暫未占優(yōu),但在全球市場(chǎng)的「心智份額」上,正在切走越來(lái)越大的一塊蛋糕。

回看CES 2026這場(chǎng)演講,老黃直接把「開源」講成了全場(chǎng)最硬核的主線。

中國(guó)開源AI的表現(xiàn)足以令世界驚嘆,隨著更多開發(fā)者和企業(yè)擁抱這些模型,AI應(yīng)用的全面爆發(fā)指日可待。

參考資料:

https://blogs.nvidia.com/blog/mixture-of-experts-frontier-models/

https://www.interconnects.ai/p/kimi-k2-thinking-what-it-means

為偉大思想而生!

AI+時(shí)代,互聯(lián)網(wǎng)思想(wanging0123),

第一必讀自媒體

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
再這么搞下去,中產(chǎn)家長(zhǎng)們的崩塌就是早晚的事

再這么搞下去,中產(chǎn)家長(zhǎng)們的崩塌就是早晚的事

重遠(yuǎn)投資觀
2026-01-10 20:55:25
皇馬的痛!19歲恩德里克獲8.2分+MVP:首秀一劍封喉,助法甲勁旅晉級(jí)

皇馬的痛!19歲恩德里克獲8.2分+MVP:首秀一劍封喉,助法甲勁旅晉級(jí)

側(cè)身凌空斬
2026-01-12 05:57:37
怒了!許利民:球員在擺譜、擺大牌,我們輸?shù)氖潜本┑男蜗蠛妥饑?yán)

怒了!許利民:球員在擺譜、擺大牌,我們輸?shù)氖潜本┑男蜗蠛妥饑?yán)

懂球帝
2026-01-11 22:54:27
這個(gè)東南亞小國(guó)從不避孕,人口已經(jīng)過(guò)億,是全球最開放的國(guó)家

這個(gè)東南亞小國(guó)從不避孕,人口已經(jīng)過(guò)億,是全球最開放的國(guó)家

犀利辣椒
2026-01-11 06:40:29
老板大氣!蘇州一工廠給員工發(fā)年終獎(jiǎng),按工齡1年1000,上不封頂

老板大氣!蘇州一工廠給員工發(fā)年終獎(jiǎng),按工齡1年1000,上不封頂

火山詩(shī)話
2026-01-12 06:54:34
合川千人赴約殺豬飯后續(xù):女子闖大禍,原地嚇呆,文旅連夜下場(chǎng)

合川千人赴約殺豬飯后續(xù):女子闖大禍,原地嚇呆,文旅連夜下場(chǎng)

鋭娛之樂(lè)
2026-01-11 22:06:10
閆學(xué)晶事件升級(jí)!多家官媒怒批后,又一壞消息傳來(lái),這下麻煩大了

閆學(xué)晶事件升級(jí)!多家官媒怒批后,又一壞消息傳來(lái),這下麻煩大了

天天熱點(diǎn)見(jiàn)聞
2026-01-11 08:37:35
U23國(guó)足首勝!媒體人熱議:茍著踢有道理,邵佳一多挑幾個(gè)吧

U23國(guó)足首勝!媒體人熱議:茍著踢有道理,邵佳一多挑幾個(gè)吧

奧拜爾
2026-01-11 21:37:55
家中老人突然離世!與保姆分房睡時(shí)摔倒,家屬怒告!深圳法院:不用賠

家中老人突然離世!與保姆分房睡時(shí)摔倒,家屬怒告!深圳法院:不用賠

南方都市報(bào)
2026-01-11 20:52:48
馬斯克:X平臺(tái)將于一周內(nèi)開源新算法

馬斯克:X平臺(tái)將于一周內(nèi)開源新算法

界面新聞
2026-01-11 10:30:09
王毅同索馬里外長(zhǎng)德埃電話會(huì)談

王毅同索馬里外長(zhǎng)德埃電話會(huì)談

界面新聞
2026-01-11 18:49:08
燒光500億的“中國(guó)寶馬”,引爆2026年第一顆雷

燒光500億的“中國(guó)寶馬”,引爆2026年第一顆雷

金錯(cuò)刀
2026-01-10 20:09:00
格陵蘭島普通百姓:囤糧、存錢,努力保持冷靜,本以為美國(guó)是盟友,不料竟成其獵物

格陵蘭島普通百姓:囤糧、存錢,努力保持冷靜,本以為美國(guó)是盟友,不料竟成其獵物

紅星新聞
2026-01-11 17:33:21
澳大利亞U23主帥:下半場(chǎng)只有一支球隊(duì)在進(jìn)攻;中國(guó)隊(duì)防守嚴(yán)密

澳大利亞U23主帥:下半場(chǎng)只有一支球隊(duì)在進(jìn)攻;中國(guó)隊(duì)防守嚴(yán)密

懂球帝
2026-01-11 22:32:26
瑞典軍工發(fā)布導(dǎo)彈視頻:1枚導(dǎo)彈命中摧毀中國(guó)052d型驅(qū)逐艦!

瑞典軍工發(fā)布導(dǎo)彈視頻:1枚導(dǎo)彈命中摧毀中國(guó)052d型驅(qū)逐艦!

達(dá)文西看世界
2026-01-11 19:10:20
個(gè)人所得稅減半征收政策!延續(xù)至2027年12月31日!

個(gè)人所得稅減半征收政策!延續(xù)至2027年12月31日!

審計(jì)之家
2026-01-11 09:03:14
輸球又輸人!皇馬決賽最慘之人:阿隆索親手將他打入冷宮

輸球又輸人!皇馬決賽最慘之人:阿隆索親手將他打入冷宮

瀾歸序
2026-01-12 05:35:15
荒誕!反向騙取電詐團(tuán)伙1800元,不但無(wú)功,竟然還得坐牢?!

荒誕!反向騙取電詐團(tuán)伙1800元,不但無(wú)功,竟然還得坐牢?!

阿陸
2026-01-11 15:27:57
霍啟剛主動(dòng)公開個(gè)人財(cái)產(chǎn):35套物業(yè)曝光,遍及港澳、內(nèi)地與法、英,多項(xiàng)房產(chǎn)與郭晶晶共同持有

霍啟剛主動(dòng)公開個(gè)人財(cái)產(chǎn):35套物業(yè)曝光,遍及港澳、內(nèi)地與法、英,多項(xiàng)房產(chǎn)與郭晶晶共同持有

大象新聞
2026-01-12 00:17:04
以色列在行動(dòng),伊朗導(dǎo)彈部隊(duì)指揮官遭刺殺,庫(kù)爾德武裝發(fā)起進(jìn)攻

以色列在行動(dòng),伊朗導(dǎo)彈部隊(duì)指揮官遭刺殺,庫(kù)爾德武裝發(fā)起進(jìn)攻

史政先鋒
2026-01-11 15:58:18
2026-01-12 08:12:49
互聯(lián)網(wǎng)思想 incentive-icons
互聯(lián)網(wǎng)思想
AI時(shí)代,互聯(lián)網(wǎng)思想觀察
2381文章數(shù) 16901關(guān)注度
往期回顧 全部

科技要聞

“我們與美國(guó)的差距也許還在拉大”

頭條要聞

李獻(xiàn)林學(xué)習(xí)教育期間違規(guī)吃喝:5人喝4瓶酒 1人酒后死亡

頭條要聞

李獻(xiàn)林學(xué)習(xí)教育期間違規(guī)吃喝:5人喝4瓶酒 1人酒后死亡

體育要聞

U23國(guó)足形勢(shì):末輪不負(fù)泰國(guó)即確保晉級(jí)

娛樂(lè)要聞

留幾手為閆學(xué)晶叫屈?稱網(wǎng)友自卑敏感

財(cái)經(jīng)要聞

外賣平臺(tái)"燒錢搶存量市場(chǎng)"迎來(lái)終局?

汽車要聞

2026款宋Pro DM-i長(zhǎng)續(xù)航補(bǔ)貼后9.98萬(wàn)起

態(tài)度原創(chuàng)

游戲
健康
旅游
藝術(shù)
數(shù)碼

這款帥到掉渣的GBA神作《洛克人ZERO》,被模仿無(wú)數(shù)次仍是巔峰

這些新療法,讓化療不再那么痛苦

旅游要聞

生態(tài)優(yōu)先,雪域高原煥發(fā)新生機(jī)(子夜走筆)

藝術(shù)要聞

10位著名畫家的女性人物繪畫,張張經(jīng)典!

數(shù)碼要聞

科技有AI,連接全球:海信家電參展CES 2026,定義智慧生活新圖景

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版