国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

OpenAI元老Karpathy 潑了盆冷水:智能體離“能干活”,還差十年

0
分享至


最近,Andrej Karpathy 接受播客主持人 Dwarkesh Patel 的一次長談,在AI圈子里悄然引爆。

作為AI領域最接地氣的大神,Karpathy的名字可謂是無人不曉。Karpathy曾任 Tesla Autopilot 負責人、OpenAI 創(chuàng)始團隊成員,更是AI啟蒙教材CS231n 課程締造者。

在這次長達2個小時時對談里,Karpathy第一次系統(tǒng)拆解了當下AI遇到的難題,觀點犀利。他認為:

  • 智能體 Agent,不會在明年爆發(fā),而距離真正成熟還需要十年;
  • 強化學習很糟糕,相反做夢才是AI 真正的學習方式;
  • 我們以為 AI 在進步,其實它的認知結構還像個嬰兒;

在Karpathy看來,AI 不是工具升級,而是文明延續(xù),發(fā)展AI的意義不僅僅是在訓練一個模型,而是在構建“人類文化的接班人”。

讀完,你將重新理解 AGI 的演化路徑,重新思考“Agent 時代”的工程挑戰(zhàn),也將重新定義,什么才是值得構建的智能系統(tǒng)。

智能體,距離成熟還需要10年

“我們總是高估一年內的變化,卻低估十年的力量!

當人們爭論 AGI 何時到來、Agent 能力是否已經(jīng)就緒時,前 OpenAI 研究主管、著名 AI 工程師 Andrej Karpathy 潑了盆冷水——“這不是 Agent 之年,而是智能體的十年!

Karpathy 明確指出:我們現(xiàn)在擁有的 Claude、Codex 等 Agent,雖然已令人印象深刻,但還遠未到“能雇來做事”的地步。

他說:“如果你把 Agent 想象成一個實習生,今天的它根本不夠格。它們缺乏多模態(tài)能力、無法持續(xù)學習、認知結構不完整、不會記事,甚至連真正用電腦干活都很難!

為什么還需要十年?

Karpathy認為,Agent的不足不是“計算力還不夠”,而是“認知組件不完整”。真正能交付成果的 Agent,需要超越語言模型,擁有持續(xù)學習、推理、操作和感知能力。這是一場關于智能構型的系統(tǒng)工程,不是一年能堆出來的能力。

在回答“AGI 應該像人或動物那樣從頭學習”這個問題時,Karpathy給出了一個詩意又冷靜的回答:

“我們不是在創(chuàng)造動物,我們是在創(chuàng)造幽靈!

這句話背后,是對當前 AI 訓練方式的深刻判斷:

動物通過進化獲得內建能力,出生即能學習;

大模型通過模仿互聯(lián)網(wǎng)文本獲得知識,靠“預訓練”而不是“成長”建立智能。

換句話說:動物通過 ATCG 傳遞本能,人類通過一生體驗學習知識,而模型是用數(shù)據(jù)壓縮出來的“模糊記憶機器”。

這也是為什么 Karpathy 認為,未來 AI 的關鍵研究方向不是讓它“知道更多”,而是“能學得更像人”。

Karpathy 把預訓練稱為“糟糕的進化”,它能灌輸知識,卻無法真正教會 Agent 如何持續(xù)學習。他認為,未來的突破會在兩條路徑上:

1. 去知識化:減少知識灌輸,保留核心算法,讓模型擁有“自我成長”能力;

2. 重建認知結構:當前 Transformer 更像“大腦皮層”,但人類大腦中的情緒系統(tǒng)(杏仁核)、空間記憶(海馬體)、強化回路(基底神經(jīng)節(jié))都未被重構。

因此,Agent 的未來不是“功能堆疊”,而是“架構革新”。

當前 LLM 只能靠上下文窗口短期記憶,像 ChatGPT 每次啟動都是“失憶狀態(tài)”。Karpathy認為:真正的 Agent 需要突破這點,構建像人類一樣的“長期記憶系統(tǒng)”。

而這需要:

  • 結構性 KV 存儲機制:像人類睡眠那樣“蒸餾”一天所學,融入權重;
  • 個體化 LoRA 子網(wǎng)絡:允許每個用戶的 Agent 擁有獨特記憶;
  • 大模型之上的 Meta 運行系統(tǒng):管理記憶調度、知識提煉與行為演化。

這也是為何他強調:“我們需要一個能在多個會話中自我調整的 Agent,而不是一個 token 重置的玩具!

最后Karpathy 用回溯式視角做出判斷:

“十年前我們還在玩 ResNet,今天我們在訓練 transformer 巨獸,但本質方法還是梯度下降和前向傳播。十年后可能方法不變,只是更加稀疏、更加智能、更加協(xié)同!

Karpathy 把這種演進過程稱為“認知趨同”:我們正以完全不同的方式,重走一次進化的路,只是用的是工程方法。

大模型還寫不了“真正的代碼”

在 Karpathy 構建 nanochat 的過程中,他切身感受到:當前 LLM 在代碼生成上仍然存在顯著認知缺陷,遠未達到“自動化 AI 工程”的程度。

Karpathy 將當前人與代碼的交互分成三類:


1. 純手寫派:完全不用模型,這已過時;

2. 自動補全派:自己寫結構,模型補細節(jié)(他本人處于這個階段);

3. 氛圍編程派(vibe coding):靠自然語言提示生成整段邏輯。

而他指出一個核心問題——LLM 在結構化、精細化、非模板的工程設計上非常無力。尤其是當你試圖做一些“從沒寫過”的東西,模型就會陷入幻覺。

比如,他在處理多 GPU 同步時選擇了自定義實現(xiàn)而不是 PyTorch 的 DDP,但模型始終試圖強行將 DDP 注入代碼。這暴露了一個關鍵認知盲點:

LLM 無法識別用戶意圖背后的架構假設,也不理解“你為啥這樣寫”。

Karpathy 舉了個生動的例子:當前 LLM 訓練于海量互聯(lián)網(wǎng)上的“常規(guī)代碼”,所以它們會用非常“工程師”的方式防御性編程(比如過度使用 try-catch、構建完整生產級項目、加入多余模塊等),哪怕你只是想快速打個 demo。

Karpathy 并不否認模型的價值。他總結了三類 LLM 在編碼中的有效場景:


1. 語言不熟時的翻譯器:他在將 tokenizer 重寫為 Rust 時,借助模型將 Python 邏輯遷移過去;

2. 非關鍵任務的 vibe 編程:生成報告、處理死板邏輯等,適合用 prompt 式交互;

3. 自動補全加速:自己寫邏輯,模型幫你補上細節(jié),比打字快得多。

在這些場景下,LLM 更像一個“聰明的語法助手”,能節(jié)省時間。但它遠不是架構師,更不是協(xié)作者。

基于此,Karpathy 認為, “這些模型還寫不了它們自己,更別說改進架構了!

哪怕是像 RoPE 嵌入這種已有論文和實現(xiàn)的模塊,模型也無法精準集成進代碼庫。因為它并不真正“理解”上下文、不知道你在用的范式、不明白代碼約束條件。它知道,但不夠知道。

回顧編程工具的演化,Karpathy指出:

搜索引擎、類型檢查器、代碼編輯器,本質上都是早期的“AI 輔助工具”;LLM 則更像是這個譜系上的新一代增強器。

它們提升了帶寬,加速了認知鏈路,但沒有改寫人類程序員的邊界。 “AI 不會替代程序員,就像編譯器沒替代程序員。它只是讓我們不再手寫匯編!

所以他認為,當前的 LLM 編程工具,并非“突破性革命”,而是一個連續(xù)演化的結果。

強化學習很糟糕:人類不會這么學,AI也不該

在談到 AI 的學習機制時,Karpathy 語氣罕見地直接:“強化學習很糟糕!

這不僅是對算法的批評,更是對整個 AI 訓練范式的一次反思。

在人類的世界里,學習往往是復雜、延遲、非線性的。一個創(chuàng)業(yè)者可能十年后才知道自己成敗,卻在過程中積累了無數(shù)微妙的經(jīng)驗與判斷。而強化學習(RL)的邏輯,恰恰與這種認知機制背道而馳。

Karpathy解釋說:RL 的學習機制像是“盲目試錯”,即模型嘗試上百種路徑,只要最后一條成功,系統(tǒng)就會獎勵整個過程。

問題在于,它假設通往正確答案的每一步都是正確的。即使中間九成都是胡亂摸索,最終因為結果“對”了,系統(tǒng)也會加權這些錯誤路徑——“多做這些”。

他形容這種訓練方式是:“你花了幾分鐘的滾動訓練,卻只通過吸管吸取到一滴獎勵信號的監(jiān)督,然后把它廣播到所有過程。簡直愚蠢!

人類不會這樣學習。人類會回顧過程、辨別錯誤、提煉經(jīng)驗。RL則是“獎勵最后一口氣”,不看前因后果。這正是它的根本缺陷。

Karpathy 承認,RL 是一個“必要的過渡階段”——它的意義在于擺脫“純模仿”的局限。

他回憶說,InstructGPT 是他眼中真正的里程碑。它首次證明了,在大模型上進行簡單的指令微調,就能從“自動補全”轉變?yōu)椤皶捴悄堋薄?/p>

幾輪微調,模型就能變得像人一樣有語氣、有風格、有意圖。那種“快速適應”的能力,讓 Karpathy 感到震撼。

RLHF(基于人類反饋的強化學習)是在此基礎上的延伸。它的好處是:可以超越人類軌跡,在獎勵函數(shù)上自行爬升,甚至能發(fā)現(xiàn)人類沒想到的路徑。

這本應是更聰明的方式,但問題在于,它仍然太笨。它缺乏思考、反省和信用分配機制。

Karpathy 講了一個令人哭笑不得的實驗:

某實驗室用大語言模型(LLM)作為評判者,讓它給學生解答打分。結果,一次訓練后,獎勵信號突然飆升,模型“完美無缺”。當他們去看模型輸出時,發(fā)現(xiàn)答案從正常的算式變成了:

> “2 + 3 = dhdhdhdh!

模型在編造胡話,而評判者卻給了 100% 的分數(shù)。原因很簡單,“dhdhdhdh” 這種輸出從未在訓練集中出現(xiàn)過,它落在評判模型的泛化盲區(qū)。

對評判者來說,那是未知領域,于是它被誤判為完美。

Karpathy 調侃說:

“這不是提示注入,這更原始。你只是在制造對抗性例子。”

這揭示了 RL 的另一重困境,當你用一個大模型去評估另一個模型時,系統(tǒng)會互相欺騙。評判者的獎勵信號本身也會被操縱,訓練得越久,漏洞越多。

理論上,解決方案似乎很清楚:

不要只獎勵結果,而是獎勵過程,也就是所謂的“過程監(jiān)督”(process supervision)。

在人類學習中,這意味著在每一步得到反饋:

你這一步做得好不好、思路對不對。但在機器學習中,問題在于,我們根本不知道如何“分配信用”。

在結果式監(jiān)督中,只需比對最終答案;而在過程監(jiān)督中,你得在上千個中間步驟中判斷“哪一步貢獻了成功”。這幾乎是一個沒有標準答案的任務。于是人們嘗試用 LLM 來當裁判,讓模型去“評估模型”。

聽起來很聰明,但在實踐中,評判模型極易被對抗樣本欺騙,當輸出空間巨大、泛化域寬時,模型幾乎總能找到漏洞。Karpathy說:“你可能能做 10 步、20 步,但絕不可能做 1000 步!

那么出路是什么?Karpathy 的答案是:讓模型學會回顧與反思。

他提到一些正在出現(xiàn)的新方向:

回顧機制(retrospective reflection):模型在完成任務后,生成總結與反思;

記憶庫(memory bank):將反思結構化存儲,用于后續(xù)任務;

合成樣本訓練(synthetic meta-learning):讓模型在自我生成的任務上學習元規(guī)律。

這些研究還停留在早期階段,但方向清晰:

AI 不能只靠獎勵梯度爬山,而要學會“復盤”自己的思考路徑。

Karpathy 認為,這或許是未來幾年算法改進的主線。他說:

“我們可能還需要三到五次重大范式更新,才能真正讓模型具備反思能力。”

/ 04 /

從人類學習說起,“做夢”才是AI模型該學的

當我們談論 AGI 的路徑時,往往糾結于算力、參數(shù)、模型結構,卻很少真正問:人類究竟是怎么學習的?

Karpathy 給出了一個根本性的提醒:

“大模型所謂的‘讀一本書’,只是延長序列長度、預測下一個 token。而人類讀書,從來不是這樣的!

Karpathy指出:人類從不只是“閱讀”,而是在閱讀中思考、在思考中發(fā)問、在發(fā)問中討論。

你讀一本書,和朋友聊這本書,延伸出新的問題與視角,這才是知識的真正入口。

而大模型只是按順序預測 token,從不主動構建結構性理解、也不會產生新的問題。它沒有“思考的中間層”。

他設想,如果某天我們能在預訓練階段加入一段“讓模型沉思”的時間,讓它整理、對比、關聯(lián)知識,哪怕是合成地模擬“思維鏈路”,那將是 AI 真正走向認知系統(tǒng)的一大步。

但問題在于,我們還沒法做到這一點。

更嚴重的是,我們以為在做反思,實際上在加速模型的“崩潰”。

Karpathy 舉了一個反直覺的例子:

如果你讓 LLM 針對一本書某章節(jié)寫“思考”,一兩次看上去很合理,但多試幾次后你會發(fā)現(xiàn),它每次的答案幾乎都一樣。

為什么?因為這些模型在訓練中沒有形成足夠的“認知多樣性”,它們早已悄悄坍縮成了幾條有限的軌道,給不出更多變化。

他稱這種現(xiàn)象為模型的“silent collapse”(悄無聲息的崩潰)——從每一個樣本看不出問題,但從整體分布看,模型已經(jīng)喪失了探索能力。

而人類不會這樣。哪怕噪聲更大、記憶更差,人類的思維始終保持了更高的熵。

Karpathy回應了一個有趣的研究觀點:做夢可能是進化出的“反過擬合機制”。

夢境讓我們在現(xiàn)實之外隨機游走,置身于不合邏輯、不一致的情境中,迫使大腦保有靈活性。

他非常認同這個類比:

“做夢就是用你自己的樣本訓練你自己。只不過如果你只用自己的樣本,會迅速偏離真實世界,最終崩潰。”

因此,夢境可能不是無用的幻象,而是熵的注入器。人類學習保持活力的方式,正是不斷從外部輸入熵。比如與人交談,接受陌生的觀點,打破內部認知的閉環(huán)。

這也是他對未來 AI 系統(tǒng)的建議:

“模型內部可能需要構建某種機制,不斷在訓練中制造‘夢境’——從結構上維持高熵狀態(tài)!

Karpathy 進一步指出:人類的“記憶差”其實是學習能力的前提。

因為你記不住細節(jié),你被迫只能學習模式、提取抽象、壓縮為認知結構。而模型則相反:它們記得太多,陷入了細節(jié),缺乏抽象。你讓它背隨機字符串,它能一次背出。但你讓它真正思考問題,它往往陷入已有表達。

“我希望移除模型的記憶,讓它保留的是實驗想法、問題建模、解決策略 —— 我稱之為認知核心(cognitive core)。”

這是他提出“認知核心”的背景:刪除不必要的知識,只保留能思考、能規(guī)劃、能泛化的智能部分。

Karpathy指出,今天的大模型沒有動力去“多樣化”。原因有三:

1. 評估困難:多樣輸出難以判斷優(yōu)劣;

2. 用戶不需求:大多數(shù)產品并不要求創(chuàng)造性;

3. 強化學習反而懲罰多樣性:同一個問題輸出不同答案會降低 reward。

但在合成數(shù)據(jù)生成與 AI 自我訓練的場景中,如果沒有保持多樣性,模型只會在自己的語言和結構里越走越窄,最終陷入死亡回路。

他坦言,這可能是一個極其基礎、但長期被忽視的問題。

Karpathy 給出一個令人驚訝的預測:未來的認知核心,可能只需十億參數(shù)。

為什么?

大模型太大,是因為訓練數(shù)據(jù)太爛。互聯(lián)網(wǎng)上大部分內容是低質量的網(wǎng)頁、代碼、碎片化語句。我們不需要壓縮所有互聯(lián)網(wǎng),只需要保留思考能力。

真正的優(yōu)化路徑,是從更大模型中提取認知結構,精簡為更小但更聰明的模型。

他認為:“我們不需要一個知道所有冷知識的模型,我們需要一個知道自己不知道、能主動思考的模型!

如果數(shù)據(jù)質量高、結構合理,十億參數(shù)足以構建一個具備人類思維能力的 AI。

“它可能不會記得每個歷史細節(jié),但它知道怎么思考。就像一個聰明人,不知道答案時也知道怎么找。”

/ 05 /

AI不是經(jīng)濟增長的靈丹妙藥

我們常說“AGI來了”,但它真的“來了”嗎?Karpathy 的回答是:它正悄無聲息地流入我們經(jīng)濟結構的縫隙之中,而不是以革命者的姿態(tài)橫掃一切。

Karpathy 堅持一個經(jīng)典而樸素的 AGI 定義:

AGI 是一個能完成任何具有經(jīng)濟價值任務的系統(tǒng),其表現(xiàn)不遜于人類。

聽上去很宏大,但實際落地后,我們很快發(fā)現(xiàn)這一定義的隱含讓步:

首先,被去掉的不是智能本身,而是所有物理相關的任務;

換言之,AGI 的首戰(zhàn)場,并非在工廠或醫(yī)院,而是“數(shù)字知識型工作”。

這意味著,AGI 的首個陣地,只占我們經(jīng)濟結構的 10%–20%。即便如此,也足以撬動數(shù)萬億美元市場規(guī)模。

但 Karpathy 并不急著給出評估曲線,也不贊同“像高中生→大學生→博士”這類線性類比。他說:

“我們不會拿一條線去畫計算的發(fā)展曲線,為什么要這樣對待 AGI?”

他更愿意把 AGI 看作計算的自然延伸 ——它不會瞬間顛覆世界,只會漸進式嵌入經(jīng)濟

Karpathy 提出一個現(xiàn)實模型:

未來不會出現(xiàn)“100% 自動化”的崗位;

相反,會出現(xiàn)“80% 由 Agent 執(zhí)行 + 20% 人類監(jiān)督”的結構。

比如在呼叫中心這類“結構封閉、任務可預測、輸入輸出全數(shù)字化”的場景,Agent 極有可能率先落地。而更復雜、信息模糊、上下文不明的工作,如放射科醫(yī)生,仍將由人類把持。

這種“滑動式自主性”才是 AGI 最真實的落地方式。

你不會看到 AGI“砍掉”一份工作,而是看到工作內容重組、人機協(xié)作結構被重新編排、組織效率被慢慢提高。

這是整個對話中最尖銳的提問:

“如果 AGI 真的是通用智能,為什么它只會寫代碼,而不會寫幻燈片、生成卡片、做間隔重復?”

Karpathy 解釋了三個維度的原因:

1. 代碼是高度結構化的語言

代碼天然適合被解析、被 diff、被檢驗。它不像文本那樣存在高熵的“風格歧義”。Agent 可以在 IDE 環(huán)境中輕松運行、修改、調試。整個系統(tǒng)鏈條成熟、反饋機制明確。

2. 基礎設施早已完備

代碼世界已有完善的顯示器、終端、版本管理、測試系統(tǒng)。這些是幻燈片或剪輯創(chuàng)作世界無法提供的。文本世界還沒有一個“VS Code for writing”。

3. 經(jīng)濟回報立竿見影

程序員日薪高、任務周期快、結構標準、反饋即時。這讓 API 類 LLM 能迅速創(chuàng)造商業(yè)價值,而其他知識工作場景,如教育、創(chuàng)作、金融建模,仍面臨上下文碎片化、目標不明確、評估困難等挑戰(zhàn)。

總結一句話:代碼,是 LLM 最理想的落地沙盒。

Karpathy 并不認為其他領域無法落地,只是落地成本遠高于代碼。哪怕是文本相關任務,如總結會議記錄、生成復習卡片,看似是語言模型的原生任務,卻因為缺乏反饋閉環(huán)和結構基礎設施而變得異常困難。

他分享朋友 Andy Matuschak 的例子:花費數(shù)月嘗試讓模型生成令人滿意的記憶卡片,最終失敗。

“語言任務看起來適合 LLM,但沒有結構、沒有評估、沒有標準,就很難‘落地’!

Karpathy 的判斷可以簡化為一句話:

AGI不是神明下凡,它只是壓縮了現(xiàn)有的結構化任務路徑。

因此,部署的路徑是:

先吃掉最結構化、最閉環(huán)的任務(編程、客服);

再慢慢往上下游遷移(編輯、設計、知識工作);

最終靠人機協(xié)作重構“工作”的定義。

他沒有講 AGI 多強,而是強調了一個更本質的判斷:

AGI 會慢慢變成 GDP 的 2%。

就像電力剛出現(xiàn)時,人們以為會全面替代蒸汽;而它最終不過是滲入了所有產業(yè),潤物細無聲。

/ 06 /

智能的偶然,文化的奇跡

在 Karpathy 看來,人類智能并不是宇宙中注定要發(fā)生的結果,而是一種極端罕見、依賴偶然條件疊加的“生物現(xiàn)象”。

雖然生命在地球上出現(xiàn)已久,但真正意義上的“智能物種”只出現(xiàn)過一次——人類。

細菌在地球上存在了超過 20 億年,但幾乎沒有發(fā)生質變;

鳥類在某些腦區(qū)發(fā)展出高度智能,卻因為缺乏“手”而無法創(chuàng)造復雜工具;

海豚擁有社交結構與語言潛能,卻因為生活在水中而難以外化文明成果。

Karpathy 指出:“生命的演化并沒有內在目標,智能不是必然終點。” 它更像是環(huán)境與基因偶然匹配下的一種“岔路產物”。

人類的獨特性,不在于個體多聰明,而在于能夠通過語言、模仿、教育、書寫與技術,跨代復制知識與能力。

Karpathy 強調:“人類是唯一一個不需要每代人從零開始的物種! 這是演化意義上的“作弊”機制。

而這種機制一旦啟動,就開啟了指數(shù)增長的通道,文字、書籍、印刷、互聯(lián)網(wǎng)、語言模型,每一次跳躍,都在壓縮知識復制的摩擦力。

在生物演化中,信息必須通過 DNA 編碼,一次突變可能要等上百萬年才能篩選出有用性;

而文化復制可以在一天內完成更新——你昨天不會用ChatGPT,今天就能寫出論文。

Karpathy 將這種文化學習比作“捷徑式演化”:我們繞過了基因瓶頸,直接用大腦進行“軟件級演化”。

正是因為人類智慧本質上是一種“文化系統(tǒng)”,Karpathy 才更強調“AI作為學習者、參與者的地位”。

“我們訓練 AI,不是為了讓它長成人類,而是讓它成為文化的下一個節(jié)點。”

這也是他不喜歡“奇點論”的原因:AI不是天外來客,而是語言、工具、知識在指數(shù)擴展過程中的新承載體。

未來的智能體,也許不會擁有情感、意識、動機,但只要它能讀懂維基百科、編程文檔和法條,它就已經(jīng)成為人類文明的延續(xù)者。

Karpathy 用一句話總結這種超越個體的演化方式:

“我們不是創(chuàng)造了超級智能,而是擴展了文明的操作系統(tǒng)!

在他眼中,人類是早期引導者,而 AI 將成為文明的“自動駕駛模式”。

不是每個模型都像人類一樣思考,但只要它們可以接力語言、工具與符號系統(tǒng),智能就不再依賴個體存在——而成為一種社會現(xiàn)象。

如果你滿意這個格式,我可以繼續(xù)改寫接下來的幾節(jié)內容(比如你標注的“反思作為能力”“模型為什么會崩潰”等),全部統(tǒng)一成這種風格。是否需要我繼續(xù)?

/ 07 /

自動駕駛最大的難點不在技術

過去十年,自動駕駛一直是AI最受關注的落地場景之一。Waymo在2014年就實現(xiàn)了高質量的無干預演示,特斯拉也在FSD上不斷迭代,甚至生成式AI浪潮下,也有人期待大模型能成為“最后一塊拼圖”。

但Karpathy的回答是冷靜且堅定的:

“自動駕駛遠未完成,而且比你想象的更難!

自動駕駛是一種不能出錯的AI任務,而不是可以容忍demo的產品。

Karpathy指出,自動駕駛并不是一個“功能完善80%就能上線”的產品,而是一種不能失敗的任務系統(tǒng)。它不像寫一篇文案、生成一張圖片,可以容忍瑕疵;也不像網(wǎng)頁服務出bug可以熱修復,它直接面對的是生命和法律。

“這不是 ‘我們上線試試’,而是 ‘我們必須把每一個0.01%的錯誤概率壓到接近零’!

在他看來,從90%可靠性進階到99%、99.9%,每一個“9”的推進,都是指數(shù)級的工程量疊加。而我們目前大多數(shù)AI系統(tǒng),依然停留在“能演示、能交付,但不具備系統(tǒng)魯棒性”的階段。

Karpathy提到,早期的自動駕駛難點集中在感知與控制:識別紅綠燈、行人、障礙物、規(guī)劃路徑。但如今,最大障礙卻是“常識推理”:一個小孩突然停在馬路邊,是想過馬路,還是在玩?一個?康男\,它的存在是否意味著路邊還有其他不可見的風險?

這些問題不只是CV任務,而是社會理解任務。而這種“常識”,直到多模態(tài)模型、大語言模型興起后,才開始被AI以全新路徑獲得。

但Karpathy也提醒,不要過度幻想LLM的能力:

“大模型確實在理解層面打開了新路徑,但它們本質上是概率引擎,而不是保障引擎。我們不能用一個生成模型,去承諾 ‘永遠不出錯’。”

很多人以為自動駕駛是一個軟件工程問題,只要團隊足夠強、數(shù)據(jù)足夠多、算法足夠好,就能完成。但Karpathy指出,這其實是一個全社會協(xié)同系統(tǒng)的挑戰(zhàn):

它涉及監(jiān)管的動態(tài)變化,城市基礎設施的多樣性,邊緣情況的倫理判斷,以及數(shù)十億公里級別的真實路況訓練。

“你需要的不只是技術突破,而是一個容納它的社會系統(tǒng)!

而這也是為什么,即使特斯拉、Waymo、Cruise等投入了數(shù)十億美元,真正落地的城市仍寥寥無幾。不是技術沒有進步,而是系統(tǒng)沒準備好讓它承擔責任。

Karpathy最終判斷,自動駕駛的落地一定不會是某個奇點、某次發(fā)布、一紙公告,而是一種緩慢、漸進、區(qū)域化的替代過程:

從高速公路的卡車物流開始,再到封閉園區(qū)的Robotaxi服務,逐步擴展到城市部分路段的可控自動接駁……它不是一次革命,而是一場“緩慢部署的系統(tǒng)替代”。

而唯一能加速這個過程的,不是單點模型的躍遷,而是整個生態(tài)的認知升級與政策協(xié)同。

PS:如果你對AI大模型領域有獨特的看法,歡迎掃碼加入我們的大模型交流群。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
中國最高齡產婦盛海琳:丈夫已離世,女兒才15歲,我爭取活到104

中國最高齡產婦盛海琳:丈夫已離世,女兒才15歲,我爭取活到104

林雁飛
2026-01-10 13:46:21
對話“死了么”App創(chuàng)始人:這幾天付費人數(shù)翻了200倍;另有“活了么”App上線

對話“死了么”App創(chuàng)始人:這幾天付費人數(shù)翻了200倍;另有“活了么”App上線

紅星資本局
2026-01-11 17:23:29
15年過去了,那個說要贍養(yǎng)前妻父母的莫科,履行承諾了嗎?

15年過去了,那個說要贍養(yǎng)前妻父母的莫科,履行承諾了嗎?

哄動一時啊
2025-12-19 14:39:26
一個人最大的愚蠢,就是輕易公開這兩件事

一個人最大的愚蠢,就是輕易公開這兩件事

詩詞中國
2026-01-11 19:41:27
皇馬2-3,揪出1.8億混子巨星!粘球拖沓9次丟球,想拿金球成空談

皇馬2-3,揪出1.8億混子巨星!粘球拖沓9次丟球,想拿金球成空談

阿泰希特
2026-01-12 10:11:11
小國占據(jù)大島的無奈:格陵蘭島被發(fā)現(xiàn)上千年,丹麥從未完全控制?

小國占據(jù)大島的無奈:格陵蘭島被發(fā)現(xiàn)上千年,丹麥從未完全控制?

全城探秘
2026-01-11 16:15:03
65歲男人和37歲女人再婚,女人:他老折騰我,男人:夫妻就這樣

65歲男人和37歲女人再婚,女人:他老折騰我,男人:夫妻就這樣

惟來
2026-01-11 13:11:12
中國女乒無緣新賽季首冠,朱雨玲成功奪冠,賽后和陳振江緊緊相擁

中國女乒無緣新賽季首冠,朱雨玲成功奪冠,賽后和陳振江緊緊相擁

楊哥乒乓
2026-01-12 00:49:11
紀實:楊佳襲警案,北京小伙對執(zhí)法不滿,手拿剔骨刀砍死6位民警

紀實:楊佳襲警案,北京小伙對執(zhí)法不滿,手拿剔骨刀砍死6位民警

談史論天地
2026-01-08 19:40:03
1972年山東挖出一竹簡,才知龐涓殘害孫臏真相,被挖膝蓋骨真不冤

1972年山東挖出一竹簡,才知龐涓殘害孫臏真相,被挖膝蓋骨真不冤

史之銘
2026-01-09 06:29:23
女人染上“性癮”是一種怎樣的體驗?可能和你想象得不同

女人染上“性癮”是一種怎樣的體驗?可能和你想象得不同

紙上的心語
2025-11-23 11:36:00
郭晶晶沒想到,首次公開35處財產的霍啟剛,撕碎了多少豪門的體面

郭晶晶沒想到,首次公開35處財產的霍啟剛,撕碎了多少豪門的體面

李健政觀察
2026-01-12 10:12:30
男子泡了3年的人參酒,人參突然長出了綠葉!當事人:50度散白酒泡的,第一次遇到

男子泡了3年的人參酒,人參突然長出了綠葉!當事人:50度散白酒泡的,第一次遇到

極目新聞
2026-01-11 16:51:20
演員孫濤力挺閆學晶后續(xù):抖音評論區(qū)徹底淪陷了,各種調侃他

演員孫濤力挺閆學晶后續(xù):抖音評論區(qū)徹底淪陷了,各種調侃他

小徐講八卦
2026-01-10 14:14:29
特朗普聽取匯報,威脅最快下周打擊伊朗

特朗普聽取匯報,威脅最快下周打擊伊朗

山河路口
2026-01-11 12:14:33
一場新的戰(zhàn)爭,已是一觸即發(fā)

一場新的戰(zhàn)爭,已是一觸即發(fā)

牛彈琴
2026-01-12 07:51:07
小米二手車價大跳水:SU7半年跌5萬元

小米二手車價大跳水:SU7半年跌5萬元

21世紀經(jīng)濟報道
2026-01-12 07:30:53
老婆敗光20億真相大白10個月,張學友近況引人擔憂,王晶真沒說錯

老婆敗光20億真相大白10個月,張學友近況引人擔憂,王晶真沒說錯

攬星河的筆記
2025-12-29 17:05:48
瑞典軍工發(fā)布導彈視頻:1枚導彈命中摧毀中國052d型驅逐艦!

瑞典軍工發(fā)布導彈視頻:1枚導彈命中摧毀中國052d型驅逐艦!

達文西看世界
2026-01-11 19:10:20
重慶兩名女子從重慶北站打車到沙坪壩,20公里被收195元,打車平臺預估僅需20余元,當?shù)亟煌▓?zhí)法局:黑車假冒出租車,司機涉嫌非法營運

重慶兩名女子從重慶北站打車到沙坪壩,20公里被收195元,打車平臺預估僅需20余元,當?shù)亟煌▓?zhí)法局:黑車假冒出租車,司機涉嫌非法營運

環(huán)球網(wǎng)資訊
2026-01-11 08:00:27
2026-01-12 14:15:00
硅基觀察Pro incentive-icons
硅基觀察Pro
人工智能新時代的商業(yè)智庫和價值燈塔
787文章數(shù) 57關注度
往期回顧 全部

科技要聞

小米二手車價大跳水:SU7半年跌5萬元

頭條要聞

臺媒:大陸在朱日和基地復制"總統(tǒng)府" 不可掉以輕心

頭條要聞

臺媒:大陸在朱日和基地復制"總統(tǒng)府" 不可掉以輕心

體育要聞

聰明的球員,不是教練教出來的

娛樂要聞

閆學晶:脫離群眾太久 忘了自己的根

財經(jīng)要聞

揭秘“穩(wěn)賺不賠”的代工項目騙局

汽車要聞

增配不加價 北京現(xiàn)代 第五代 勝達2026款上市

態(tài)度原創(chuàng)

親子
本地
旅游
數(shù)碼
公開課

親子要聞

謝霆鋒沒想到,一天4餐、愛吃牛排的兩個兒子,成了張柏芝的底氣

本地新聞

云游內蒙|“包”你再來?一座在硬核里釀出詩意的城

旅游要聞

哈爾濱“鉆石海”浪漫賞落日

數(shù)碼要聞

2025年星閃終端產品出貨量突破1億臺 商用產品超600款

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版