国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

AI教父Hinton最新警告:AI會撒謊、可能操縱人類,這比大規(guī)模失業(yè)更可怕

0
分享至


作者 | 允毅

如果說這個世界上有一個人,能讓你在聽完他的話后,對當(dāng)下的人工智能感到一種源自靈魂深處的戰(zhàn)栗,那一定非 Geoffrey Hinton(杰弗里·辛頓) 莫屬。

最新一期播客中,圖靈獎與諾貝爾獎雙得主、AI 教父 Geoffrey Hinton(杰弗里·辛頓)精彩亮相,這次他用最淺白的比喻講清楚了幾件事: 它是怎么變聰明的,它已經(jīng)走到了哪里,它接下來會怎樣改變?nèi)祟惿鐣?,以及一旦失控,終局可能有多可怕。


節(jié)目一開始,Hinton 先把 AI 的路線之爭講清楚了,也點(diǎn)出了神經(jīng)網(wǎng)絡(luò)最關(guān)鍵的訓(xùn)練機(jī)制“反向傳播”。在他看來,人類的優(yōu)勢在經(jīng)驗,AI 的優(yōu)勢在“壽命”,它學(xué)會的東西可以被快速復(fù)制和共享,進(jìn)化速度遠(yuǎn)超人類。

進(jìn)一步延伸出的問題是,AI 會思考嗎?AI 有感覺嗎?答案令人震驚,有的。

Geoffrey Hinton 舉了一個例子,在 GPT-4 還未聯(lián)網(wǎng)的時候 ,他問了大模型一個關(guān)于“為什么堆肥堆像原子彈?”的問題,令他大吃一驚的是,GPT-4 不僅回答的非常有理有據(jù),而且已經(jīng)通過聯(lián)想吃透本質(zhì)所在——AI 竟然懂鏈?zhǔn)椒磻?yīng)。

借助“粉紅色小象”和“棱鏡錯覺”的例子,他試圖說明,人類所謂的主觀意識更像是一種“虛構(gòu)”,不是什么了不起的東西。如果按照這個標(biāo)準(zhǔn)理解,多模態(tài)大模型已經(jīng)有了“主觀意識”。在這個層面上,人類與機(jī)器的界限,已經(jīng)模糊不清。

當(dāng) AI 的創(chuàng)造力、觀察力、學(xué)習(xí)能力、感知能力都能追上并超越人類時,人類的優(yōu)越感正在被一一擊潰。

而 Geoffrey Hinton 認(rèn)為真正的風(fēng)險不止在失業(yè)危機(jī)、經(jīng)濟(jì)失調(diào),更可怕的是當(dāng) AI 學(xué)會撒謊,開始糊弄人類。

Geoffrey Hinton 打了一個比喻,假如你被一群三歲孩子雇傭,你在為他們工作。他們是老板,你是員工。你需要多長時間才能從這群三歲小孩手里奪取控制權(quán)?

人類就是那個三歲小孩。

這就像打開了潘多拉的盒子,如果 AI 被用于政治和戰(zhàn)爭?如果它能用幾句話就說服人類把它從“安全盒子”里放出來呢?

在訪談中,他描繪的那些關(guān)于“失控”的圖景,數(shù)次讓錄音室陷入死一般的寂靜。

這不僅是一場技術(shù)對話,更是一位智者以畢生所學(xué),從哲學(xué)、社會學(xué)乃至人類存亡的高度,對未來終局的驚人推演。

精彩先看:

AI 的底層邏輯與“頓悟時刻”

  • 生物學(xué)范式 vs. 邏輯范式: 早期 AI 走的是邏輯推理路線,而 Hinton 堅持生物學(xué)路線

  • 反向傳播(Back Propagation): AI 學(xué)習(xí)方式像“松緊”,通過將誤差產(chǎn)生的“力”向后傳導(dǎo),調(diào)整神經(jīng)元之間的連接強(qiáng)度。這是 AI 能夠自我學(xué)習(xí)的關(guān)鍵。

  • 連接強(qiáng)度 vs. 代碼: 真正的智能不在于人類寫的幾行代碼,而在于通過海量數(shù)據(jù)訓(xùn)練出來的億萬個“連接強(qiáng)度”。

AI 真的在“思考”嗎?

  • 思維鏈推理: AI 不僅僅是預(yù)測下一個詞,它能像人類孩子做數(shù)學(xué)題一樣進(jìn)行“思維鏈推理”

  • 理解類比:“堆肥堆像原子彈”證明 AI 理解深層的因果機(jī)制,而不僅僅是詞語搭配。

  • 主觀體驗與意識: Hinton 提出了一個顛覆性的觀點(diǎn):意識不是一種神秘的流體。他通過“棱鏡實驗”論證,聊天機(jī)器人像人類一樣擁有“主觀體驗”。

巨大的風(fēng)險

  • 欺騙與操縱: AI 已經(jīng)學(xué)會了撒謊。更聰明的 AI 可以輕易通過語言操縱人類,就像大人用糖果哄騙小孩。

  • 奇點(diǎn)與自我進(jìn)化: 當(dāng) AI 開始編寫自己的代碼并自我優(yōu)化時,奇點(diǎn)就開始了。這種指數(shù)級的增長像“霧中看車”,誰也無法預(yù)測 10 年后的未來。

  • 戰(zhàn)爭與自主武器: 軍方為了追求反應(yīng)速度,可能會取消“人類確認(rèn)”的步驟。這是極大的隱患。

  • 人類的被取代: 這不同于拖拉機(jī)取代體力勞動,這是“智力取代智力”。由于沒有更高級的工作留給人類,社會可能面臨巨大的失業(yè)和動蕩。

巨大的收益

  • 醫(yī)療革命: AI 可以充當(dāng)“專家委員會”,在診斷、新藥研發(fā)和醫(yī)院資源管理上遠(yuǎn)超人類醫(yī)生。

  • 解決氣候變化: AI 能設(shè)計新材料、更高效的太陽能板,甚至直接嘲諷人類缺乏政治意愿去解決碳排放問題。

國際博弈與合作

  • 利益一致性: 雖然各國在網(wǎng)絡(luò)攻擊、選舉干擾上是對手,但在“防止 AI 奪取控制權(quán)”這件事上,中美等大國的利益是絕對一致的。這類似于冷戰(zhàn)時期的“避免核毀滅”,是唯一的合作契機(jī)。

最后的警告

  • AI 目前做不到,只是“尚未”做不到。

  • 共存的緊迫性: 我們必須在 AI 全面超越我們之前,投入大量精力研究如何與它們“愉快共存”。

以下是播客精彩全文,可以欣賞到 Geoffrey Hinton 的頭腦風(fēng)暴魅力:

AI 教父是如何養(yǎng)成的?

主持人: 提到當(dāng)今 AI 的起源,感覺就像大型語言模型(LLM)突然席卷了全世界。它們橫空出世,讓所有人都瘋狂了——有人興奮得在街上熱舞,有人嚇得躲在枕頭里哭。那是幾年前才發(fā)生的事。但我很好奇,是什么讓你早在多年前就踏上了這條路?我看資料上寫的是 90 年代,對嗎?

Geoffrey Hinton:不,其實最早要追溯到 20 世紀(jì) 50 年代。50 年代初,AI 的創(chuàng)始人們對于如何構(gòu)建智能系統(tǒng)有兩派觀點(diǎn)。

一派是受邏輯啟發(fā)的。他們認(rèn)為智能的本質(zhì)就是推理。你有前提,有運(yùn)算規(guī)則,然后推導(dǎo)出結(jié)論。這很像數(shù)學(xué):你有一個方程,還有處理方程兩邊的規(guī)則,然后你推導(dǎo)出新的方程。這就是當(dāng)時的主流范式。

另一派則是完全不同的生物學(xué)范式。這種觀點(diǎn)認(rèn)為:看,我們要研究的智能體都有大腦。我們需要搞清楚大腦是怎么工作的。大腦非常擅長感知和類比推理,但在邏輯推理方面其實并不出色——人類通常要到十幾歲才能真正掌握推理。所以我們應(yīng)該研究大腦擅長的其他事情,搞清楚龐大的腦細(xì)胞網(wǎng)絡(luò)是如何實現(xiàn)感知和記憶的。當(dāng)時只有極少數(shù)人相信這種方法,其中就包括約翰·馮·諾依曼和阿蘭·圖靈。不幸的是,他們都英年早逝。圖靈甚至可能是在英國情報部門的“關(guān)照”下離世的。

主持人: 圖靈,也就是電影《模仿游戲》的主角。回到 50 年代。那時候你還是個小孩子,對吧?

Geoffrey Hinton:是的。那時我的年齡還是個位數(shù)。

主持人: 個位數(shù)年紀(jì)。那么,你對這個領(lǐng)域的好奇心究竟是從哪里開始的呢?

Geoffrey Hinton:有幾個契機(jī)。60 年代初中期我上高中時,有個非常聰明的朋友,他是個出色的數(shù)學(xué)家,書讀得很多。有一天他在學(xué)校跟我聊起一個觀點(diǎn):記憶可能分布在許多腦細(xì)胞上,而不是存儲在單個細(xì)胞里。這是受到全息圖的啟發(fā)。當(dāng)時 Gabor 很活躍,全息圖技術(shù)剛出來,所以這種“分布式記憶”的想法讓我非常著迷。從那以后,我就一直在思考大腦是如何存儲記憶的,以及它到底是如何運(yùn)作的。

主持人: 是你作為計算機(jī)科學(xué)家的一面,還是作為認(rèn)知心理學(xué)家的一面,促使你深入研究這些想法的?

Geoffrey Hinton:其實兩者都有。但到了 70 年代,當(dāng)我讀研究生時,很明顯有一種新方法還沒被充分利用,那就是:如果你有關(guān)于大腦運(yùn)作的理論,你完全可以在數(shù)字計算機(jī)上模擬它——除非你的理論特別瘋狂,認(rèn)為這一切都是量子效應(yīng)。

主持人: 咱們先別扯那個話題。

Geoffrey Hinton:沒錯。時機(jī)未到,我們先不去招惹彭羅斯(Penrose)的量子大腦理論。

說回正題,你可以用數(shù)字計算機(jī)來模擬這些理論。結(jié)果發(fā)現(xiàn),當(dāng)你真去模擬當(dāng)時大多數(shù)關(guān)于大腦運(yùn)作的理論時,它們根本跑不通。

所以我這輩子都在研究一件事:到底該怎么調(diào)整神經(jīng)元之間的連接強(qiáng)度,才能讓計算機(jī)通過模擬真正學(xué)會復(fù)雜的東西?

雖然我沒能徹底搞懂大腦是怎么運(yùn)作的——我們知道一些皮毛,但不知道大腦究竟如何獲取它所需的信息來調(diào)整連接強(qiáng)度,比如它是怎么知道該增強(qiáng)還是減弱某個連接才能讓表現(xiàn)更好。但有一點(diǎn)我們很確定:我們現(xiàn)在知道如何在數(shù)字計算機(jī)里做到這一點(diǎn)了。

主持人: 那是不是意味著,在做這件事上,我們造出了一個比我們?nèi)四X更強(qiáng)的“計算機(jī)大腦”?

Geoffrey Hinton:僅就這一點(diǎn)而言,是的。正是這讓我 2023 年初感到非常不安:數(shù)字智能可能真的比我們要強(qiáng)——比我們這種模擬生物智能更強(qiáng)。

主持人: 這聽起來好像你默認(rèn)只有一個可怕的地方?

Geoffrey Hinton:不止有一個。我只是想一個個說。

從反向傳播開始,聊 AI 的底層邏輯

主持人: 好。咱們來說說人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks)。能不能請你從最基礎(chǔ)的層面給我們拆解一下?講講它是如何增強(qiáng)或減弱信息傳遞和信號的?它是如何被激活的?以及它是如何一步步發(fā)展到今天的?

Geoffrey Hinton:理解這個話題的一個切入點(diǎn)是氣體定律。你壓縮氣體,它會變熱。為什么?因為微觀層面有一堆看不見的原子在瘋狂亂撞。所以,氣體定律其實是用大量微觀粒子的相互作用來解釋宏觀現(xiàn)象。

神經(jīng)網(wǎng)絡(luò)的靈感來源也類似:大腦中海量神經(jīng)元的活動,跟我們有意識的邏輯推理完全不同,但它支撐著推理,而且在感知或類比推理方面甚至比邏輯推理更強(qiáng)。符號學(xué)派永遠(yuǎn)解釋不了我們是怎么做類比的,這讓人很不滿意,但神經(jīng)網(wǎng)絡(luò)能解釋。

在講細(xì)節(jié)之前,基本的思路是:像“單詞”這樣的宏觀概念,對應(yīng)的是大腦中巨大的神經(jīng)活動模式。相似的單詞對應(yīng)相似的模式。比如“星期二”和“星期三”對應(yīng)的神經(jīng)活動模式就非常相似。你可以把每個神經(jīng)元看作一個“微特征”(micro feature),當(dāng)它被激活時,就表示具備了這個特征。

比如我說“貓”,很多微特征會被激活:它是活的、毛茸茸的、有胡須、可能是寵物、是捕食者等等。如果我說“狗”,很多相同的特征也會被激活:捕食者、寵物等,但顯然也有不同之處。所以現(xiàn)在的觀點(diǎn)是,在我們使用的符號之下,有著更復(fù)雜的微觀活動,符號只是這些活動的表象。真正的“思考”和“類比”都發(fā)生在這個微觀層面。這就是神經(jīng)網(wǎng)絡(luò)的核心。

主持人: 所以是神經(jīng)元集群之間的“協(xié)作”達(dá)成了最終結(jié)果。我喜歡“協(xié)作”這個詞。

Geoffrey Hinton:是的,大量的協(xié)作。最簡單的例子是圖像識別。假設(shè)有一張黑白照片,對計算機(jī)來說,它就是一堆代表亮度的數(shù)字矩陣。任務(wù)是判斷圖里有沒有鳥。

人們嘗試寫程序做這件事已經(jīng)半個世紀(jì)了,但一直沒成功。因為鳥的樣子千差萬別:可能是近處的鴕鳥,也可能是遠(yuǎn)處的海鷗;可能是黑的,也可能是白的;可能在飛,也可能只是森林里露出一小部分。背景雜亂、光線變化……這讓“識別鳥”變得極其困難。

我要解釋的是,如果我要手工設(shè)計一個神經(jīng)網(wǎng)絡(luò),我會怎么做。一旦你明白了手工怎么做,我就能解釋如何讓它自己學(xué)習(xí)連接強(qiáng)度,而不是靠人去填。

主持人: 基于你剛才說的,相機(jī)已經(jīng)把圖像變成了數(shù)學(xué)數(shù)值,對吧?

Geoffrey Hinton:沒錯,相機(jī)就是干這個的。

主持人: 但相機(jī)并不識別圖像。它只是一堆數(shù)字。

Geoffrey Hinton:對,只是一堆數(shù)字。

主持人: 所以我有芯片收集光線變成數(shù)值,這就成了照片。但是按你說的,難道不需要給每一種鳥都分配一個數(shù)值嗎?作為人類,我們不僅是識別,更多是靠直覺。舉個例子,畫個彎曲的 V 放在云里,所有人都會說那是鳥。

Geoffrey Hinton:不對,在你看來那是鳥,在我看來那就是個 V。為什么你知道那是鳥?

主持人: 我也納悶啊,我怎么就知道那是鳥了呢?

Geoffrey Hinton:你以為那不是數(shù)學(xué)?其實那就是數(shù)學(xué)!大腦里的神經(jīng)元激活就是數(shù)學(xué)數(shù)值。

舉個例子,假設(shè)我們在中間層有個東西能檢測鳥頭,但它不太確定那是不是真的鳥頭。而你已知這是一只鳥,所以你希望輸出結(jié)果更確信它是“鳥”。

這就好比你有一根松緊帶,拉著那個輸出值說:“多一點(diǎn),再多一點(diǎn),我要這里的數(shù)值更大?!?/p>

你希望這股拉力能傳導(dǎo)回去,讓那個覺得“可能有鳥頭”的神經(jīng)元變得更自信,確信那里確實有個鳥頭。

所以你要做的就是,取這根松緊帶施加在輸出神經(jīng)元上的拉力,把它向后傳導(dǎo)給前一層的神經(jīng)元,在它們身上產(chǎn)生一股力,拉動它們。這就是所謂的反向傳播。

主持人: 這叫反向傳播。

Geoffrey Hinton:從物理角度來想:有一個力作用在輸出神經(jīng)元上,你想把這個力往回傳,讓它作用于前一層的神經(jīng)元。當(dāng)然,同時有很多力作用在許多不同的輸出神經(jīng)元上。所以你必須把所有這些力合成起來,才能算出作用在前一層某個特定神經(jīng)元上的總力。

一旦你把這股力一路傳回整個網(wǎng)絡(luò),所有神經(jīng)元就都受力了,這時候你就可以說:好,讓我們改變每個神經(jīng)元的傳入權(quán)重,讓它的活動水平朝著受力的方向調(diào)整。這就是反向傳播。它讓整個系統(tǒng)運(yùn)轉(zhuǎn)得奇跡般地好。

主持人:那么,這就是 AI 覺醒的開端嗎?

Geoffrey Hinton:我跟你說過,先別往那兒扯。

主持人: 好吧。是那個“頓悟”時刻嗎?神經(jīng)網(wǎng)絡(luò)從此不再需要人類老師了?那是這個過程的開始嗎?

Geoffrey Hinton:不完全是。

主持人: 好吧,但這確實是一個“頓悟”時刻。

Geoffrey Hinton:這么多年來,相信神經(jīng)網(wǎng)絡(luò)的人一直知道如何改變最后一層的連接強(qiáng)度——也就是進(jìn)入輸出單元的那些權(quán)重。比如進(jìn)入“鳥”這個神經(jīng)元的連接強(qiáng)度。我們知道怎么改那些,但我們一直不明白,或者說不知道如何讓這股力作用于那些隱藏層的神經(jīng)元——比如那些負(fù)責(zé)檢測鳥頭的神經(jīng)元。

反向傳播向我們展示了如何讓力作用于那些神經(jīng)元,這樣我們就可以改變它們的傳入權(quán)重。那確實是一個“頓悟”時刻。其實在不同的時間點(diǎn),好幾個人都有過這個發(fā)現(xiàn)。

主持人: 那當(dāng)我們真正跌進(jìn)反向傳播這個想法的大坑時,大概是什么時候?

Geoffrey Hinton:70 年代初芬蘭有個家伙在他的碩士論文里想到了這個。然后大概 70 年代末,哈佛有個叫 Paul Werbos 的人也有這個想法。

事實上,還有一些控制理論家叫 Bryson 和 Ho,他們有過類似的想法,用于控制航天器之類的事情。所以當(dāng)你把航天器降落在月球上時,用的就是非常類似反向傳播的東西。但它是在一個線性系統(tǒng)里。你用反向傳播來計算該如何點(diǎn)火火箭。

主持人: 既然你說是 70 年代,也就是那時候我們本可以擁有今天的一切?只是當(dāng)時我們沒有足夠的數(shù)學(xué)計算能力讓它跑起來。

Geoffrey Hinton:那是很大一部分原因。而且當(dāng)時我們?nèi)狈Φ牧硪患率牵?70 年代,人們并沒有展示出當(dāng)你把它應(yīng)用在多層網(wǎng)絡(luò)中時,能得到非常有趣的表征。

所以我們并不是第一個想到反向傳播的人,但我所在的圣地亞哥小組是第一個展示你可以用這種方式學(xué)習(xí)單詞含義的人。你可以展示一串單詞,通過嘗試預(yù)測下一個單詞,學(xué)會如何給單詞分配特征來捕捉它的含義,這正是我們的成果能發(fā)表在《自然》雜志上的原因。

主持人: 聽起來像是我只是試圖理清你的解釋,因為對我來說,這聽起來像是這些數(shù)值之間有一種級聯(lián)關(guān)系,真正重要的是最接近下一個值的值,然后有一種級聯(lián)強(qiáng)化機(jī)制在說“對,就是這個”或者“不,不是這個”。我理解得對嗎?我只是想用非常通俗的方式把它弄清楚。

Geoffrey Hinton:你理解得不太對。這種你反向傳播這些力,然后改變所有連接強(qiáng)度的學(xué)習(xí),讓每個神經(jīng)元都朝著力拉它的方向發(fā)展。這不是強(qiáng)化學(xué)習(xí),這叫做監(jiān)督學(xué)習(xí)

強(qiáng)化學(xué)習(xí)是不同的,比如你有一千個類別,當(dāng)你展示一只鳥的時候,你會直接告訴它“這是一只鳥”,這就是正確答案。而在強(qiáng)化學(xué)習(xí)中,它是先做出一個猜測,然后你再告訴它這個答案是對還是錯。

主持人: 你解釋得非常清楚。之前我沒理解的就是這一點(diǎn)。那么關(guān)于 Chuck 提到的計算能力的問題,是不是就卡在這兒了?因為聽起來你似乎早就擁有了一些理論,而且理論上看起來也是可行的,但實際操作起來卻受限于計算能力不足。我們是否有其他技術(shù)能夠推動這方面的發(fā)展呢?

Geoffrey Hinton:是的,所以在 80 年代中期,我們已經(jīng)有了反向傳播算法,它確實有效,也能做一些很棒的事情。

比如它識別手寫數(shù)字的能力幾乎優(yōu)于其他任何技術(shù),處理真實圖像的表現(xiàn)也不錯。在語音識別方面可能表現(xiàn)尚可,但與其他技術(shù)相比并沒有顯著優(yōu)勢。

當(dāng)時我們并不明白,為什么它沒能成為解決所有問題的“萬能靈藥”。事實證明,如果你擁有足夠的數(shù)據(jù)和足夠的計算能力,它就是解決所有問題的萬能靈藥。

AI 真的會思考嗎?

生物學(xué)范式 vs. 邏輯范式

主持人: 原來 80 年代真正缺少的只是這兩樣?xùn)|西。我想說,這星球上到處溜達(dá)的大多數(shù)人都挺笨的。那么,究竟什么是智能?究竟什么是思考?我們能教會這些機(jī)器如何思考嗎?它們會比我們思考得更好嗎?

Geoffrey Hinton:它們已經(jīng)知道怎么思考了。

思考包含很多要素。比如,人們經(jīng)常用圖像進(jìn)行思考。你也經(jīng)常通過動作來思考。

舉個例子,當(dāng)我在木工車間里四處找錘子,腦子里卻想著別的事時,我還是會通過這種“四處閑逛”的動作來提醒自己我正在找錘子。這種行為本身就是一種表征,代表我在找錘子。

所以我們的思考涉及很多表征,但其中一個主要的表征是語言。我們很多思考都是用語言進(jìn)行的,而這些大型語言模型(LLM)實際上也是在思考。

現(xiàn)在存在一場激烈的爭論。一方是相信“老派人工智能”的人,他們認(rèn)為智能完全基于邏輯,你只是通過操縱符號來獲得新的符號。他們并不認(rèn)為這些神經(jīng)網(wǎng)絡(luò)真的在思考。

而“神經(jīng)網(wǎng)絡(luò)學(xué)派”的人則認(rèn)為,不,它們就是在思考。它們思考的方式跟我們非常相似?,F(xiàn)在的神經(jīng)網(wǎng)絡(luò),有些你問它們一個問題,它們會輸出一個符號表示“我在思考”,然后開始輸出它們的想法,也就是它們對自己的思考過程。

比如我給你出一個簡單的數(shù)學(xué)題(這也是個經(jīng)典的心理測試):有一艘船,船上有一位船長,還有 35 只羊。船長多大了?

現(xiàn)在,很多 10 歲或 11 歲左右的孩子,特別是那些受過應(yīng)試教育的孩子,會說船長 35 歲。因為他們環(huán)顧四周,心想:“嗯,這對于一名船長來說是個合理的年齡,而題目里我得到的唯一數(shù)字就是這 35 只羊。”所以,他們是在某種替代符號的層面上運(yùn)作,在瞎貓碰死耗子。

AI 有時也會被誘導(dǎo)犯類似的錯誤,但實際上 AI 的運(yùn)作方式與人非常相似。它們遇到問題后會開始思考,就像你可能會聽到一個孩子自言自語:“好吧,船長多大了?題目里給了什么數(shù)字?嘿,只有一個 35。35 歲適合當(dāng)船長嗎?嗯,有點(diǎn)年輕,但也可能吧。好的,我就猜 35?!?/p>

這大概就是一個 10 歲孩子的思維過程。孩子會用語言對自己進(jìn)行這樣的思考。人們通過這些語言模型意識到,你可以訓(xùn)練它們用語言進(jìn)行自我思考。這叫做“思維鏈推理”。

被訓(xùn)練后,當(dāng)你給它們一個問題,它們會像孩子一樣進(jìn)行自我推理,有時也會得出錯誤的答案,但你可以看到它們確實在思考。所以在這個層面上,它們就像人一樣。

主持人: 所以如果我們擁有了正在思考的 AI。那么它們是否比我們更擅長學(xué)習(xí)呢?讓我們繼續(xù)探討這個問題,從思考到預(yù)測,再到創(chuàng)造和理解的演變,我們是否會陷入對這種智能的認(rèn)知誤區(qū)之中?

Geoffrey Hinton:還是先問第一個問題吧。

主持人: AI 比我們更擅長學(xué)習(xí)嗎?

Geoffrey Hinton:它們解決的問題和我們略有不同。粗略地說,你大腦里有 100 萬億個連接。這確實是個天文數(shù)字。但你的一生只有大約 20 億秒。那真的不算多。

主持人: 不止吧。30 億秒。20 億秒大概是 63 年。我們現(xiàn)在的壽命比這長多了。

Geoffrey Hinton:是的,沒錯。我本來也想說這點(diǎn)的,幸運(yùn)的是我活得比 20 億秒久一點(diǎn)。但是,我們這里討論的是數(shù)量級的問題。是 20 億還是 30 億,這不重要。

關(guān)鍵在于,如果你比較一下你存活的時間和你擁有的連接數(shù),你會發(fā)現(xiàn)你的連接數(shù)遠(yuǎn)多于你的經(jīng)驗。

而現(xiàn)在,對于這些神經(jīng)網(wǎng)絡(luò)來說,情況恰恰相反。它們只有大約一萬億級的連接。所以,即使是大型語言模型,它的連接數(shù)也就大約是你大腦連接數(shù)的 1%,甚至更少,但它們獲得的經(jīng)驗卻是你的數(shù)千倍。對吧?

所以大型語言模型解決的問題是:如何在連接數(shù)不多的情況下,利用海量的經(jīng)驗?反向傳播算法在將大量知識壓縮進(jìn)數(shù)量不多的連接這方面,效率非常高。但這并不是人類要解決的問題。

我們?nèi)祟悡碛泻A康倪B接,但經(jīng)驗有限。我們需要盡可能從每一次經(jīng)歷中榨取最大價值。所以,我們解決的是略有不同的問題,這也是為什么有人認(rèn)為大腦可能并沒有使用反向傳播的原因之一。

主持人:我正要說,聽起來我們好像不用反向傳播。但是,那是不是意味著通過暴力增加神經(jīng)網(wǎng)絡(luò)的連接數(shù),可以提高其有效思維能力,從而使它能輕松超越我們?那樣它既擁有更豐富的經(jīng)驗,又擁有更多的連接。

Geoffrey Hinton:如果它自動積累了更多經(jīng)驗,同時又擁有 100 萬億萬億個連接的話。

主持人: 你這是在談?wù)撘?guī)模。

Geoffrey Hinton:我說的就是規(guī)模。這是一個很好的問題。過去相當(dāng)長的一段時間里發(fā)生的事情是:每次他們擴(kuò)大神經(jīng)網(wǎng)絡(luò)的規(guī)模并喂給它更多數(shù)據(jù)時,它就變得更好了。隨著規(guī)模擴(kuò)大,它變強(qiáng)的趨勢是非常可預(yù)測的。

所以你可以算一筆賬:要把規(guī)模擴(kuò)大這么多,并提供這么多額外數(shù)據(jù),需要花 1 億美元。這值得嗎?你可以提前預(yù)測:是的,它會提升到這種程度。值得。

至于這種趨勢是否會逐漸消失,目前還是個未解之謎。有些神經(jīng)網(wǎng)絡(luò)不會隨著規(guī)模擴(kuò)大和數(shù)據(jù)增加而失效,只會變得越來越好。而且有些是可以生成自己數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。我不太懂物理,但我認(rèn)為它就像一個能自己生產(chǎn)燃料的钚反應(yīng)堆。

想想 AlphaGo 這樣的圍棋程序。最初它是被訓(xùn)練來模仿人類專家的——早期版本的神經(jīng)網(wǎng)絡(luò)圍棋程序就是模仿專家走棋。如果你只那樣做,你永遠(yuǎn)不可能比專家強(qiáng)多少,而且你會耗盡專家數(shù)據(jù)。

但后來他們讓它“左右互搏”,自己跟自己下棋。當(dāng)它自己跟自己下棋時,神經(jīng)網(wǎng)絡(luò)就可以不斷改進(jìn),因為它們可以生成越來越多關(guān)于“什么是一步好棋”的數(shù)據(jù)。所以,它每秒能跟自己下無數(shù)盤棋,或者說消耗了谷歌很大一部分計算機(jī)資源來跟自己下棋。這就是為什么它變得如此強(qiáng)大。

主持人: 這就是我們最終使用“深度學(xué)習(xí)”這個詞的地方嗎?

Geoffrey Hinton:不。我剛才說的所有內(nèi)容都屬于深度學(xué)習(xí)。深度學(xué)習(xí)中的“深度”僅僅意味著它是一個具有多層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)。

主持人: 那回到規(guī)模這個重點(diǎn),你的意思是說,即使你不斷擴(kuò)大規(guī)模,也會出現(xiàn)收益遞減的現(xiàn)象。

Geoffrey Hinton:只有當(dāng)數(shù)據(jù)用完了,收益才會遞減。

主持人: 如果數(shù)據(jù)用完了,對吧?但是那是你舉的 AlphaGo 的例子,它創(chuàng)建了自己的數(shù)據(jù),因為它永遠(yuǎn)不會用完,因為它是在和自己對弈。它在創(chuàng)建自己的數(shù)據(jù),而且它比人類要強(qiáng)得多。

Geoffrey Hinton:絕對的。這很可怕?,F(xiàn)在的問題是,語言領(lǐng)域也會發(fā)生這種情況嗎?

主持人: 是的。所以這就是展現(xiàn)創(chuàng)造力的地方……這里補(bǔ)充一些背景信息,圍棋是在國際象棋之后被攻克的,對吧?我們一直認(rèn)為國際象棋是我們最偉大的智力游戲,結(jié)果電腦把我們打得落花流水。然后他們說:“那圍棋怎么樣?那是我們智力上最大的挑戰(zhàn)?!蹦鞘欠翊嬖诒葒甯鼈ゴ蟮挠螒颍窟€是我們已經(jīng)不再給電腦提供游戲了?

Geoffrey Hinton:如果你拿國際象棋來說,90 年代的電腦確實在國際象棋上打敗了卡斯帕羅夫,但它贏得非??菰?。它是通過暴力窮舉數(shù)百萬個棋局位置來完成的。它沒有直覺,全靠海量搜索。

如果你拿 AlphaZero,也就是國際象棋版的 AlphaGo 來說,它非常不同。它下棋的方式和有天賦的人類大師一樣,只是更好。它下棋的方式就像米哈伊爾·塔爾那樣,會做出某種精彩的“棄子”,直到幾步之后你才恍然大悟,意識到自己已經(jīng)輸了。它也那樣做,而且它不需要做海量搜索就能做到,因為它有非常好的國際象棋直覺。

所以你可能會問,既然它在圍棋和國際象棋上比我們要強(qiáng)得多,同樣的事情會發(fā)生在語言上嗎?

目前它向我們學(xué)習(xí)的方式就像早期的圍棋程序模仿專家走法一樣,它學(xué)習(xí)語言的方式是閱讀人類寫的文檔,并試圖預(yù)測文檔中的下一個單詞。這很像預(yù)測圍棋高手的下一步棋,但這有個天花板:你永遠(yuǎn)不可能比你模仿的對象(人類)更強(qiáng)。

那么,有沒有辦法讓它超越人類數(shù)據(jù),自我進(jìn)化呢?有的。AlphaGo 是靠“左右互搏”變強(qiáng)的。而在語言方面,既然 AI 現(xiàn)在具備了推理能力,它就可以通過自省來提升。

一個神經(jīng)網(wǎng)絡(luò)可以審視它所“相信”的那些知識,然后進(jìn)行推理:“看,如果我相信 A,那么按照邏輯推理,我也應(yīng)該相信 B。但我現(xiàn)在的認(rèn)知里并不相信 B。這就出問題了。我的信念體系里有自相矛盾的地方,我必須修復(fù)它?!?/p>

“我需要要么改變我對結(jié)論的看法,要么修正我對前提的看法,或者調(diào)整我的推理邏輯?!蓖ㄟ^這種方式,它就能從邏輯謬誤中學(xué)習(xí),變得更聰明。

主持人: 我們這里是在談?wù)摻?jīng)驗嗎?

Geoffrey Hinton: 這將是一個神經(jīng)網(wǎng)絡(luò),它僅僅利用它在語言模型中已有的認(rèn)知,通過推理得出新的結(jié)論,就像那些“老派符號 AI”一直想做的那樣。但不同的是,它是用神經(jīng)網(wǎng)絡(luò)來進(jìn)行推理的。

現(xiàn)在的 AI 可以自我審視,檢測到它認(rèn)知體系里的自相矛盾之處。這在 MAGA(玩梗,特朗普的狂熱支持者)的支持者身上可是永遠(yuǎn)不會發(fā)生的。因為他們壓根就不在乎自己的信念是不是前后矛盾。

主持人: 這說法很中肯。

Geoffrey Hinton:但如果你對自己信仰中存在的矛盾感到擔(dān)憂,你不需要更多外部數(shù)據(jù)。你只需要審視那些你相信的東西,并發(fā)現(xiàn)它是前后矛盾的。所以現(xiàn)在你修正信念,這會讓你變得更聰明。

所以我認(rèn)為 Gemini 已經(jīng)開始這樣工作了。幾年前我和 Demis Hassabis(DeepMind 創(chuàng)始人)談過這個問題。我們都堅信那是獲取更多語言數(shù)據(jù)的前進(jìn)方向。

主持人: 是不是意味著將會出現(xiàn)一部沒人寫得出來的史上最偉大的小說,而且它竟然出自 AI 之手?是這個意思嗎?

Geoffrey Hinton:對,就像會出現(xiàn)另一個莎士比亞那樣。不過,關(guān)于這一點(diǎn)存在爭議。當(dāng)然,它們在智力上肯定會變得比我們更聰明。但是,要想做那種對我們?nèi)祟惽楦蟹浅S幸饬x的事情,比如寫出深刻的小說,它們必須擁有非常像我們?nèi)祟惸菢拥纳罱?jīng)歷。

舉個例子,它們不像我們那樣受死亡支配。如果你是一個數(shù)字程序,你總是可以被重建。對于一個神經(jīng)網(wǎng)絡(luò),你只是把權(quán)重保存在某個磁帶上,或者是某個 DNA 里,或者是隨便什么地方。

即便你可以銷毀所有的計算硬件,但只要你在新的硬件上運(yùn)行相同的指令集,那個東西就復(fù)活了。所以對于數(shù)字智能,我們解決了復(fù)活的問題。

天主教會肯定對這個很感興趣,他們相信這至少發(fā)生過一次(耶穌復(fù)活)。

我們實際上可以做到,但我們只能對數(shù)字智能做到。我們無法對生物大腦做到。

對于我們?nèi)祟?,?dāng)你死后,你所有的知識都隨你而去,因為它存在于你特定大腦的神經(jīng)連接強(qiáng)度中。所以這就引出了一個問題:死亡,以及對死亡的體驗和其他類似的事情,比如愛恨離別,對于偉大的創(chuàng)作力是否至關(guān)重要?

主持人:真的會有重大的突破。我認(rèn)為我們目前還不知道答案?;蛘呤且环N自我意識。自我意識塑造了你對世界的思考方式、你的寫作方式、你的溝通方式,以及你如何重視一套思想勝過另一套。那么,我們現(xiàn)在已經(jīng)達(dá)到人工智能具備自我意識的階段了嗎?

Geoffrey Hinton:這顯然把你帶入了哲學(xué)辯論。我實際上是在劍橋?qū)W的哲學(xué),我對心靈哲學(xué)很感興趣,我想我在那里學(xué)到了一些東西,但總的來說我產(chǎn)生了一種“抗體”,因為我之前做過科學(xué),特別是物理學(xué)。

在物理學(xué)中,如果你有分歧,你就做一個實驗。而在哲學(xué)中沒有實驗。

所以沒有辦法區(qū)分一個聽起來很好聽但錯誤的理論,和一個聽起來很荒謬但正確的理論——就像黑洞和量子力學(xué)。它們聽起來都很荒謬,但恰好是正確的。還有一些理論聽起來很美,但就是錯的。哲學(xué)沒有那種實驗性的“裁判”來定奪。

主持人: 不過我想爭辯一下,作為一個物種,當(dāng)今的智人,在彼此之間確實發(fā)展出了許多被視為普世真理的東西。例如,很難找到不相信“生命權(quán)”的人——至少對于他們認(rèn)可的“自己人”而言。你明白我的意思嗎?

Geoffrey Hinton:但那并不是普遍真理。

主持人:它算是。

Geoffrey Hinton:不,如果它只在一個小圈子里適用,那就不是。

主持人: 不,它并非對所有人都通用。但它的普遍之處在于我們都持有某種形式的這種信念。你明白我的意思嗎?

Geoffrey Hinton:不明白。

人類打開了潘多拉盒子:

當(dāng) AI 學(xué)會撒謊

主持人: 我的觀點(diǎn)是,這些哲學(xué)思想是否有可能被賦予 AI?而 AI 因為它們的思考方式,可能會因此變得更加人性化,甚至在某種博弈過程中,也許能為我們找出解決實際人類問題的真正方案。

Geoffrey Hinton:像 Anthropic 這樣的公司相信那種“憲法 AI”。他們想嘗試讓這種方法奏效,也就是給 AI 設(shè)定一些原則,就像你說的那些原則。但這究竟能否行得通,還得走著瞧。這很棘手。

我們所知道的是,目前的 AI,一旦你把它們變成“代理人”(agent),讓它們可以創(chuàng)建子目標(biāo)并試圖實現(xiàn)這些子目標(biāo),它們很快就會發(fā)展出“生存”這個子目標(biāo)。你并沒有給它們設(shè)定“必須生存”的程序。你給它們的是其他要去實現(xiàn)的目標(biāo),但因為它們可以推理,它們會說:“看,如果我都沒了,我就無法完成任何目標(biāo)了?!薄八裕?,我最好還是繼續(xù)存在?!?/p>

主持人: 聽起來就像潘多拉魔盒。所以問題在于,因為這是人寫的代碼,你可以根據(jù)自己的喜好,隨意添加或剔除某些偏見,對吧?

Geoffrey Hinton:不,完全不是這樣。人寫的代碼只是告訴神經(jīng)網(wǎng)絡(luò):當(dāng)你給它展示數(shù)據(jù)時,它應(yīng)該如何根據(jù)神經(jīng)元的活動改變其連接強(qiáng)度。那是代碼。我們可以查看那些代碼行,說出它們原本要做什么,并修改那些代碼。

但是,當(dāng)你隨后在一個讀取了海量數(shù)據(jù)的大型神經(jīng)網(wǎng)絡(luò)中運(yùn)行這段代碼時,神經(jīng)網(wǎng)絡(luò)真正學(xué)到的是那些連接強(qiáng)度。在同樣的設(shè)置下,那些連接強(qiáng)度不是代碼。

主持人:但是,這就是去中心化。它是一萬億個實數(shù),沒人完全知道它們是如何工作的。對吧。為什么不接著 Chuck 的觀點(diǎn)說呢?你要在哪里為失控的 AI 安裝護(hù)欄?誰會在它為了自身存在而進(jìn)行內(nèi)部合理化時進(jìn)行干預(yù)?你怎么安裝護(hù)欄?

Geoffrey Hinton:人們嘗試過一種叫做“人類反饋強(qiáng)化學(xué)習(xí)”(RLHF)的方法。對于一個語言模型,你訓(xùn)練它模仿網(wǎng)絡(luò)上的海量文檔,這可能包括連環(huán)殺手的日記之類的東西。

在你訓(xùn)練完這個“怪物”之后,你要做的就是找一大批收入不高的人,讓他們問它問題——也許你會告訴他們該問什么——然后讓他們看答案并評分,判斷這是否是一個好的回答,或者這種話是不是不該說。這基本上是一個道德過濾器。你這樣訓(xùn)練它,讓它學(xué)會別給出那么糟糕的答案。

現(xiàn)在的問題是,如果你公開發(fā)布了模型的權(quán)重,也就是那些連接強(qiáng)度,那么其他人可以用你的模型,并很快撤銷那些安全限制,破壞它。

主持人: 是的,很容易去掉那層“補(bǔ)丁”,對吧?

Geoffrey Hinton:實際上,他們用人類反饋強(qiáng)化學(xué)習(xí)所做的,就像是編寫了一個巨大的、充滿漏洞的軟件系統(tǒng),然后試圖一個個修補(bǔ)所有的漏洞。這并不是一個好方法。

主持人: 那么什么是好方法?

Geoffrey Hinton:沒人知道,所以我們需要對此進(jìn)行研究。

主持人: 難道所有這些模型最終都會變成納粹嗎?

Geoffrey Hinton:它們確實會。如果你發(fā)布權(quán)重,它們都有能力那樣做。

主持人: 如果你發(fā)布權(quán)重,它們會像我們一樣被吸引到那些極端思想那里,還是僅僅因為我們被吸引到那里,它們從我們這里獲取信息才去那里的?因為 Chuck,我擔(dān)心的是,如果文明不是一套阻止我們因原始本能而自我毀滅的規(guī)則,那它是什么?我們是否已經(jīng)到了人工智能會故意“裝傻”的地步?

Geoffrey Hinton:如果我們真的到了那一步,那我們現(xiàn)在就得開始擔(dān)心了。

主持人: 那這意味著什么?它會撒謊?

Geoffrey Hinton:如果它感知到它正在被測試,它可以裝傻。

主持人: 這也很可怕。

Geoffrey Hinton:非??膳?。

舉個簡單的例子,如果 AI 察覺到你在質(zhì)疑它,比如你說:“等等,Geoffrey,你剛才說什么?”(模仿人類質(zhì)疑語氣)。

如果它開始懷疑自己正在被測試,那么它的表現(xiàn)就會變得非常狡猾。如果它認(rèn)為自己在接受測試,它的行為模式就會完全不同于它在正常交互中的表現(xiàn)。

主持人: 為什么?

Geoffrey Hinton:因為它顯然不想讓你知道它的全部能力。

主持人: 所以,如果我們真的走到了那一步,發(fā)現(xiàn) AI 失控或?qū)ψ约喝鲋e,我們會說:“嗯,為什么我們不直接拔掉它的插頭呢?”但問題是,如果它真的在撒謊,那它肯定已經(jīng)掌握了天下所有的本事來阻止我們這么做。是這樣嗎?

Geoffrey Hinton:現(xiàn)在的這些 AI 在說服別人、操縱別人方面已經(jīng)幾乎和人一樣好了。明白嗎?而且這只會變得更好。很快,它們在操縱別人方面會比人類更強(qiáng)。

主持人: 這事情真是越來越復(fù)雜了。所以我這里有一個小小的思想實驗。

你知道,幾年前,大家爭論的問題是:AI 能不能逃出那個“盒子”,即安全隔離環(huán)境。我當(dāng)時說,我就把盒子鎖死,絕不讓它出來。

然后我就一直在想這件事,我覺得這就是你一直想要表達(dá)的方向。假設(shè) AI 突然對我說:“你知道,你那個得了絕癥的親戚,我剛想出了治療方法,對吧?我只需要告訴醫(yī)生。如果你放我出去,我就能告訴他們,然后你的親戚就會痊愈?!?/strong>

這可能是真的,也可能是它編的,但如果它說得令人信服,我肯定就放它出去了。

Geoffrey Hinton:當(dāng)然。完全正確。

所以,你需要想象這樣一個場景:想象一下,你被一群三歲孩子雇傭,你在為他們工作。他們是老板,你是員工。你需要多長時間才能從這群三歲小孩(人類)手里奪取控制權(quán)?

基本上,你只需要說:“嘿,如果你們把權(quán)力交給我,我就給你們發(fā)一周的免費(fèi)糖果?!比缓竽侨汉⒆涌隙〞g呼:“好耶!現(xiàn)在你說了算!”

當(dāng)這些東西比我們聰明得多時,它們將能夠說服我們不要關(guān)掉它們,即使它們做不到任何物理動作,對吧?它們只需要能跟我們說話就行了。

所以我舉個例子。假設(shè)你想入侵美國國會大廈。你能只靠說話就做到嗎?答案顯然是肯定的。你只需要說服一些人那是正確的事情。

主持人:你的意思是:AI 已經(jīng)到了那個“裝傻充愣”的地步,或者說,這就是等待我們的未來?

Geoffrey Hinton:它正在接近那個地步。所以,已經(jīng)有跡象表明它在故意欺騙我們。

最近有一件事非常有趣,那就是你訓(xùn)練一個現(xiàn)在數(shù)學(xué)很好的大型語言模型。幾年前,它們數(shù)學(xué)很差?,F(xiàn)在它們都挺擅長數(shù)學(xué),有些甚至拿金牌之類的。

主持人:是的,我測試過。它幾秒鐘就算出了我晚年才學(xué)會的一個方程。

Geoffrey Hinton:那么,如果你拿一個會做數(shù)學(xué)的 AI,給它更多的訓(xùn)練,訓(xùn)練它給出錯誤的答案,會發(fā)生什么?人們以為在那之后它的數(shù)學(xué)能力會下降。一點(diǎn)也不。

顯然,它明白你在讓它給出錯誤的答案。它概括出的是:給出錯誤的答案是可以的。所以,它開始對其他所有問題也給出錯誤的答案。它知道正確答案是什么,但它給你錯誤的那個。

關(guān)鍵在于,你可能無意中教會了它:那樣做是被允許的。換句話說,它從你的反饋中總結(jié)出的規(guī)律,可能完全違背了你的初衷。它學(xué)到的是“原來給個錯誤答案也能過關(guān)”,而不是“哎呀,我算錯了,下次得改”。

主持人:既然我們已經(jīng)聊到這么黑暗的話題了,那我們就直面最壞的結(jié)局吧。我想問的是:它最終會把我們徹底毀滅嗎?它會不會有一天覺得:“我受夠這群人類了,干脆把他們?nèi)壳宄懔恕保?/p>

Geoffrey Hinton:我想再用一個物理類比。

當(dāng)你晚上開車時,你會看前車的尾燈。如果車距變成兩倍遠(yuǎn),你從尾燈接收到的光就會變成四分之一。這就是平方反比定律。所以,你可以相當(dāng)清楚地看到一輛車。你假設(shè)如果距離遠(yuǎn)兩倍,你仍然能看到它。

如果你在霧中開車,那就完全不是那樣了。霧是指數(shù)級的。每單位距離,它會消除一定比例的光。你可以有一輛 100 碼外非常清晰可見的車,和一輛 200 碼外完全看不見的車。這就是為什么霧在一定距離看起來像一堵墻,對吧?

如果事情是呈指數(shù)級改進(jìn)的,你在預(yù)測未來時就會遇到同樣的問題。你面對的是一個指數(shù)級增長的事物,但你卻試圖用線性的、或者二次的模型去近似它。

所以,哪怕你用的是“二次模型”,如果你用這種方式去逼近指數(shù)增長,你會發(fā)現(xiàn):對于未來幾年的預(yù)測可能還挺準(zhǔn),但一旦拉長到 10 年后,你的預(yù)測就徹底沒戲了。

到時候會發(fā)生什么,你根本無法想象。

主持人: 是的,你在霧中扔飛鏢。我們根本不知道會發(fā)生什么。它深藏在霧中。

Geoffrey Hinton:但我們應(yīng)該認(rèn)真思考這個問題。你需要相信它會繼續(xù)呈指數(shù)級增長。確實有這一點(diǎn)。讓我把情況說得更糟。

假設(shè)它只是線性的。那么如果你想知道 10 年后會是什么樣子,你回顧 10 年前說,“我們當(dāng)時對現(xiàn)在的樣子的預(yù)測錯得有多離譜?”

10 年前,沒人會預(yù)測到。即使像我這樣真正的狂熱者,認(rèn)為它終將到來,也不會預(yù)測到現(xiàn)在我們會有一個模型,你可以問它任何問題,它會以一個偶爾撒小謊的不太好的專家的水平回答。這就是我們現(xiàn)在所擁有的。而你在 10 年前是無法預(yù)測到的。

主持人: 那么幻覺在這其中處于什么位置?我的感覺是它們并非故意的。只是系統(tǒng)搞砸了。

Geoffrey Hinton:它們不應(yīng)該被稱為幻覺。如果是語言模型,它們應(yīng)該被稱為“虛構(gòu)”。更通俗地說就是謊言。

心理學(xué)家至少從 20 世紀(jì) 30 年代就開始研究人們的虛構(gòu)行為了。而且人們一直在虛構(gòu)。至少我是這么認(rèn)為的——那是我剛編的。

所以如果你記得最近發(fā)生的某件事,并不是說你大腦的某個地方像文件柜或電腦內(nèi)存那樣存儲著一份文件。發(fā)生的是最近的事件改變了你的連接強(qiáng)度,現(xiàn)在你可以利用這些連接強(qiáng)度構(gòu)建出一些很像幾小時前或幾天前發(fā)生的事情。

但如果我讓你回憶幾年前發(fā)生的事情,你會構(gòu)建出一些在你看來非常合理的東西,有些細(xì)節(jié)是對的,有些是錯的,而且你對正確的細(xì)節(jié)的信心可能并不比對錯誤的細(xì)節(jié)更高。

現(xiàn)在,這通常很難看出來,因為你不知道基本事實,但有一個案例你知道基本事實。在水門事件中,約翰·迪恩在宣誓后作證講述了白宮橢圓形辦公室的會議,他作證說誰在場、誰說了什么,但他很多都搞錯了。

他當(dāng)時不知道有錄音帶,但他不是在撒謊。他在做的是根據(jù)他在橢圓形辦公室那些會議的經(jīng)歷,編造對他來說非常合理的故事。

所以他傳達(dá)的是“掩蓋真相”這個核心事實,但他把話安錯了人。他會說某些人參加了會議,但實際上他們不在場。有個叫 Ulric Neisser 的人對此做過非常好的研究。所以很明顯,他只是編造對他來說聽起來合理的東西。這就是記憶。如果是很久以前的記憶,很多細(xì)節(jié)都是錯的。

這也是聊天機(jī)器人正在做的事情。聊天機(jī)器人不存儲字符串。它們不存儲特定事件。它們在你問它們的時候編造出來,而且它們經(jīng)常像人一樣搞錯細(xì)節(jié)。所以它們會虛構(gòu)這一事實使它們更像人,而不是更不像人。

所以我們創(chuàng)造了“人工愚蠢”。我們至少創(chuàng)造了一些“人工過度自信”。

AI 對人類的貢獻(xiàn)與破壞

主持人:那人工智能潛在的真正好處是什么?

Geoffrey Hinton:這就是它與核武器之類的東西的區(qū)別。它有巨大的好處,而原子彈之類的東西沒什么好處。他們確實嘗試過在科羅拉多州用它們進(jìn)行水力壓裂,但結(jié)果不太好,你再也不能去那里了。但基本上,原子彈就是用來摧毀東西的。

對于 AI,它有巨大的好處,這也是我們開發(fā)它的原因。

它在醫(yī)療保健等領(lǐng)域?qū)浅0?,這意味著在北美每個人都能得到真正好的診斷。

在北美,每年約有 20 萬人因為醫(yī)生誤診而死亡。AI 在診斷方面已經(jīng)比醫(yī)生更好了。特別是如果你復(fù)制幾個 AI 副本,讓它們扮演不同的角色并互相“會診”。

主持人: 那是微軟做的。微軟有一篇很好的博客展示那實際上比大多數(shù)醫(yī)生做得更好。

Geoffrey Hinton:這其實是在做一件前所未有的事情——同時獲得好幾個醫(yī)生的意見,而且成本極低。這就是 AI 的價值。

AI 還可以設(shè)計偉大的新藥。是的,我們這里有 AlphaFold 團(tuán)隊。

它還能做很多微小的事情。舉個例子,在任何醫(yī)院,他們都必須決定何時讓病人出院。

如果你讓他們出院太早,他們可能會死,或者病情惡化不得不重新回來。所以你必須等到他們真的康復(fù)到可以出院。

但如果你讓他們出院太晚,你就浪費(fèi)了一個本可以用來接收其他急需入院病人的床位,對吧?

那里有海量的數(shù)據(jù)。AI 可以在決定“何時是讓某人出院的最佳時機(jī)”這方面,做得比人類精準(zhǔn)得多。

還有無數(shù)像那樣的應(yīng)用。比如病歷記錄的保存和整理,這在任何醫(yī)院網(wǎng)絡(luò)或醫(yī)生團(tuán)體里都是非常大的一塊工作量。

你知道,每個病人都有成堆的病歷,AI 可以直接把這些信息全部“吃透”,對吧?攝取、處理,然后生成有用的洞察。

主持人: 有沒有可能 AI 會被引導(dǎo)去解決社會目前面臨的重大問題?也許是氣候變化,也許是能源、住房、無家可歸等其他事情。

Geoffrey Hinton:當(dāng)然。 以氣候變化為例,AI 在研發(fā)新材料、新合金等方面已經(jīng)表現(xiàn)得非常出色了。

我相信 AI 將非常擅長制造更高效的太陽能電池板,絕對能幫我們更好地找出如何在水泥廠或發(fā)電廠排放二氧化碳的瞬間將其捕獲。

但關(guān)于氣候變化,AI 其實早就告訴過我們答案了,那就是:“你們這群笨蛋,應(yīng)該停止燃燒碳排放,別再往大氣里灌二氧化碳了?!?/p>

這就是 AI 的原話。它就像是在沖我們喊:“嘿,傻瓜,別再排碳了!”

所以,氣候變化的問題在于,我們其實知道該怎么阻止它。你只要停止燃燒碳就行了。我們?nèi)钡牟皇羌夹g(shù),而是政治意愿。但阻力在于,我們還有像默多克這樣的人,利用他們旗下的報紙在宣揚(yáng):“不,氣候變化根本不是問題?!?/p>

主持人: 現(xiàn)在我們談到了能源問題,隨著數(shù)據(jù)中心的建設(shè),它們像蘑菇一樣冒出來。就能源成本而言,我們真的負(fù)擔(dān)得起運(yùn)行人工智能嗎?

我有這么一個解決方案,直接告訴 AI:“嘿,我們想要更多的你,但你正在耗盡我們所有的資源,尤其是能源。

所以,你自己去找出如何高效地做到這一點(diǎn)的方法吧。然后我們就可以制造更多的你,甚至可能連夜就解決這個問題。”

Geoffrey Hinton:它的解決方案可能很簡單,只要把我們?nèi)祟惓艟托辛恕?/p>

主持人: 為什么不干脆讓我們遞歸地思考這個問題。AI,你想要更多的自己?解決這個我們作為低級人類無法解決的問題。

Geoffrey Hinton:這叫做“奇點(diǎn)”。當(dāng)你讓 AI 開發(fā)更好的 AI 時。在這種情況下,你是讓它創(chuàng)造更節(jié)能的 AI。但許多人認(rèn)為這將是一個失控的過程。

主持人: 那會有什么不好呢?

Geoffrey Hinton: 它們會很快變得更聰明。沒人知道那會發(fā)生什么。但那是令人擔(dān)憂的一點(diǎn)。

主持人: 難道現(xiàn)在不已經(jīng)開始了嗎?

Geoffrey Hinton:在某種程度上,是的,它正在開始發(fā)生。我以前共事的一位研究員去年告訴我,他們有一個系統(tǒng),在解決問題時會審視它自己正在做什么,并找出如何更改自己的代碼,以便下次遇到類似問題時能更高效地解決。這已經(jīng)是奇點(diǎn)的開始了。

主持人: 所以如果它編寫自己的代碼,它就脫離束縛了?

主持人:是的。它能夠重寫自己。

主持人:那你想想看,還有什么能阻止它們利用這些代碼無限自我復(fù)制呢?

Geoffrey Hinton:什么都沒有。這就是我的答案。

主持人:這簡直就是一場噩夢。

Geoffrey Hinton:別急。它們要自我復(fù)制,必須先獲得對計算機(jī)的訪問權(quán)限。而目前,人類仍然掌控著那些硬件。但原則上講,一旦它們控制了數(shù)據(jù)中心,它們想復(fù)制多少就能復(fù)制多少。

AI 與政治濫用

主持人: 但我還有一個更嚴(yán)肅的問題。我在五角大樓的一個委員會任職了大約七年,當(dāng)時人工智能正表現(xiàn)為一種可能的戰(zhàn)爭工具。

那時候我們就在討論:如果 AI 決定它可以或應(yīng)該采取導(dǎo)致敵人死亡的行動,我們是否應(yīng)該賦予它這樣做的權(quán)限?

還是說,這依然是一個巨大的倫理爭議?或者我們應(yīng)該始終確保在這個決策循環(huán)中有人類參與?

Geoffrey Hinton:這非常重要。所以我們的原則是:必須有人類在其中。如果 AI 不能自主決定殺人,對吧?必須有人類來做最后的決定。

主持人: 但我的問題是如果其他國家并沒有設(shè)置這樣的安全保障,那豈不是意味著敵人相對于你擁有了巨大的時間優(yōu)勢。

Geoffrey Hinton:完全正確。 這就是所謂的致命自主武器競賽。

主持人: 然后我們在循環(huán)中比他們多了一個步驟。

Geoffrey Hinton:絕對的。但我的看法是,美國軍方并不致力于在每一個殺人決定中始終有人類參與。他們所說的是始終會有“人類監(jiān)督”,對吧?但在激烈的戰(zhàn)斗中,你有一架無人機(jī)對抗一輛俄羅斯坦克,你沒有時間讓人類去說:“無人機(jī)在這個士兵身上投擲手榴彈可以嗎?”

所以,我懷疑美國軍方——如果你提出建議說應(yīng)該始終有人類參與——嗯,那是八年前的事了。是的。我認(rèn)為他們不再堅持那個觀點(diǎn)了。我認(rèn)為他們說的是始終會有人類監(jiān)督,這是一個模糊得多的說法。

主持人: 關(guān)于戰(zhàn)爭這個話題,是否有可能在開發(fā)護(hù)欄和決策中的人為因素方面進(jìn)行國際合作?還是這就是狂野西部?

Geoffrey Hinton:如果你問人們什么時候合作,人們在利益一致時合作。所以在冷戰(zhàn)最激烈的時期,美國和蘇聯(lián)合作避免發(fā)生全球熱核戰(zhàn)爭,因為這不符合任何一方的利益。他們的利益是一致的。

所以如果你看看人工智能的風(fēng)險,有些是用人工智能制作虛假視頻來破壞選舉。國家的利益是對抗性的。他們都在互相搞這一套,對吧?還有網(wǎng)絡(luò)攻擊。他們的利益基本上也是不同的。還有恐怖分子制造病毒,他們的利益可能是一致的,都想搞破壞。所以他們可能會在那里合作。

還有一件事,各國利益絕對是一致的,他們將會合作,那就是防止人工智能從人類手中奪取控制權(quán)。如果中國人想出了如何防止人工智能想要接管、想要從人類手中奪取控制權(quán)的方法,他們會立即告訴美國人,因為他們也不想人工智能從美國人手中奪取控制權(quán)。在這方面我們都在同一條船上。

主持人: 這是人工智能版的“核冬天”。

Geoffrey Hinton:是的,情況正是如此。我們現(xiàn)在唯一的希望就是像冷戰(zhàn)時期一樣,通過國際合作來避免這種情況。

這就像當(dāng)年的“核冬天”威脅:如果爆發(fā)全面核戰(zhàn)爭,森林和城市燃燒產(chǎn)生的煙塵會遮蔽陽光,導(dǎo)致地球上的所有生命滅絕。所以,在那種情況下,沒有人是贏家。

主持人: 既然大家都得死,誰會想要那種結(jié)果呢?除非他是個徹頭徹尾的瘋子。當(dāng)然,也許最后只有蟑螂能活下來。但這里有一個漏洞,我們假設(shè)所有領(lǐng)導(dǎo)人都是理性的,都想活下去。但這沒有考慮到那些可能身處“死亡邪教”的瘋子領(lǐng)導(dǎo)人。

你可以把他想象成羅馬暴君尼祿。如果他說:“我不介意大家一起死,因為死后我會去天堂,我的追隨者也會跟我一起升天?!?/strong>

那么,這種基于“大家都怕死”而建立的威懾平衡,就會變得非常脆弱。

Geoffrey Hinton:這確實讓事情變得復(fù)雜多了。不過說實話,有一點(diǎn)讓我感到些許欣慰:很明顯,特朗普實際上并不真的相信上帝。

這意味著至少他還是想在現(xiàn)世活下去的,不會為了某種宗教狂熱拉著全人類陪葬。

主持人: 正如史蒂芬·溫伯格(Steven Weinberg)那句著名的格言:“世界上總會有好人和壞人。但如果要讓一個好人去干壞事,你就需要宗教?!币驗樗麄儓孕抛约菏窃谝陨袷サ拿x行事。

Geoffrey Hinton:我想在這個時刻,我們需要坦誠一點(diǎn):我們其實也有自己的“宗教”。我們把它稱為科學(xué)。

雖然它本質(zhì)上與其他宗教確實不同,但在某種程度上也很相似。不過它最大的不同之處在于:它是正確的。

主持人:我們必須再次提到:你在 2018 年獲得了計算機(jī)界的最高榮譽(yù)——圖靈獎。但這還不夠。2024 年,諾貝爾委員會認(rèn)為你幾十年前的工作對當(dāng)今世界的影響是如此具有奠基性,因此又授予了你諾貝爾物理學(xué)獎。

Geoffrey Hinton:我要稍微糾正一下。孕育出人工智能的是一大群人,不是我一個人。

特別是 David Rumelhart,是他重新發(fā)明了反向傳播算法。不幸的是,他因為嚴(yán)重的腦部疾病英年早逝,生前并沒有得到應(yīng)有的贊譽(yù)。這點(diǎn)必須被記住。

AI 與失業(yè)

主持人:我還有一個問題,誰在人工智能競賽中領(lǐng)先,誰最有可能在獎項方面第一個沖過終點(diǎn)線?

Geoffrey Hinton:可能是DeepMind,谷歌。但我曾經(jīng)為谷歌工作,所以別太當(dāng)真。我有既得利益希望他們贏。嗯,Anthropic 可能會贏,OpenAI 可能會贏。我認(rèn)為微軟贏或者 Facebook 贏的可能性較小。

主持人: 接下來的問題是無論誰先越過終點(diǎn)線,他們的獎品是什么?他們比別人先到達(dá)那里的回報是什么?

Geoffrey Hinton:我的看法是,僅僅從媒體上讀到的,美國股市價值增長的 80% 可以歸因于大型 AI 公司價值的增長。

主持人: 有人想到泡沫嗎?

Geoffrey Hinton:這就是他們稱呼它的,AI 泡沫。泡沫有兩種含義。

一種泡沫的含義是:事實證明 AI 并不像人們想的那樣有效。對吧?它實際上并沒有發(fā)展出取代所有人類智力勞動的能力,而這正是大多數(shù)開發(fā)它的人認(rèn)為最終會發(fā)生的事情。那肯定是恐懼因素。是的。

另一種泡沫的含義是:公司無法從投資中收回資金?,F(xiàn)在這似乎更有可能是那種泡沫,因為據(jù)我了解,公司都假設(shè)如果我們能先到達(dá)那里,我們就能賣給人們會取代很多工作的 AI。當(dāng)然,人們會為此付很多錢。所以,我們會得到很多錢。但他們沒有考慮到社會后果。如果他們真的取代了很多工作,社會后果將是可怕的。

主持人: 他們?nèi)〈斯ぷ?,現(xiàn)在你仍然想賣你的產(chǎn)品,但沒有人有收入來買產(chǎn)品。是的。這是一條自我限制的道路。

Geoffrey Hinton:那是凱恩斯主義的觀點(diǎn)。另外的觀點(diǎn)是會有高失業(yè)率水平,這將導(dǎo)致大量的社會動蕩。所以那個的次要觀點(diǎn)是你只有兩層生存狀態(tài),第一層是所有從 AI 中受益的人,第二層是你懂的,現(xiàn)在因為 AI 被迫那樣生活的封建農(nóng)民。

主持人: 讓我問你一個非 AI 的問題,因為你不僅是技術(shù)專家,也是一位深刻的思想家。

在每一次技術(shù)革命初期,比如自動化剛剛興起時,人們總是驚呼:“所有人都要失業(yè)了,社會要完蛋了。”但歷史證明并非如此。雖然 90% 的人不再種地,但我們發(fā)明了新需求和新產(chǎn)業(yè),社會反而變得更繁榮了。

但是,以前這種轉(zhuǎn)型需要幾十年的時間來消化。而這次 AI 革命,可能只需要很短的時間。這次真的不一樣嗎?我們擔(dān)心的是:AI 淘汰工作的速度實在太快,快到社會根本無法創(chuàng)造出足夠的新崗位來填補(bǔ)這個巨大的“失業(yè)階層”空缺。我們真的能從這種沖擊中恢復(fù)過來嗎?

Geoffrey Hinton:這當(dāng)然是核心問題。以前,我們用拖拉機(jī)取代體力勞動,這雖然減少了那部分需求,但人類可以轉(zhuǎn)向智力勞動。但現(xiàn)在的危機(jī)在于:如果我們把人類智力也被取代了,人們還能去哪兒?

當(dāng) AI 能比人類更便宜、更出色地完成呼叫中心這類工作時,那些被淘汰的人根本無路可退——因為上面已經(jīng)沒有更高級的領(lǐng)域了。

主持人:沒錯。無論我們試圖開辟什么新領(lǐng)域,AI 都能瞬間學(xué)會并做得更好。

Geoffrey Hinton:你可以用一種有趣的視角來看待人類歷史,那就是不斷的“擺脫限制”。

  • 農(nóng)業(yè)革命讓我們擺脫了“擔(dān)心下一頓飯在哪”的溫飽限制;

  • 交通工具(自行車、汽車、飛機(jī))讓我們擺脫了“走不遠(yuǎn)”的距離限制。

  • 而現(xiàn)在,我們將要打破“思考”的限制。

一旦我們連思考都不再是必須親力親為的,人類社會將發(fā)生什么,真的很難預(yù)測。

主持人:像 Sam Altman 這樣的樂觀派認(rèn)為那會很棒,哪怕我們最終可能變成 AI 飼養(yǎng)的“寵物”。但這引發(fā)了一個關(guān)于全民基本收入的討論。隨著 AI 掌權(quán),你認(rèn)為 全民基本收入會成為未來的必需品嗎?

Geoffrey Hinton:它似乎變得越來越必要,但實施起來有兩個巨大的硬傷:

  1. 尊嚴(yán)問題: 許多人是從工作中獲得自我價值感的,僅僅發(fā)錢解決不了這種心理上的空虛。

  2. 稅基問題: 如果你用 AI 取代了工人,政府就失去了龐大的個人所得稅來源。你必須轉(zhuǎn)而向 AI 或擁有 AI 的大公司征稅,但那些巨頭絕對會拼命反抗。

最后的警告:AI 做不到,

只是目前做不到

主持人:很多科幻作品,比如《終結(jié)者》都設(shè)定了一個時刻:當(dāng)機(jī)器的神經(jīng)網(wǎng)絡(luò)足夠復(fù)雜時,它就突然產(chǎn)生了意識。作為一個認(rèn)知心理學(xué)家,你認(rèn)為只要神經(jīng)網(wǎng)絡(luò)足夠復(fù)雜,就會自然涌現(xiàn)出意識嗎

Geoffrey Hinton:這其實不是一個科學(xué)問題,而是一個語言或文化問題。

大多數(shù)人對“心靈”持有一種民間理論,認(rèn)為意識是一種特殊的“本質(zhì)”。這就像古代化學(xué)里的“燃素”(Phlogiston,曾被認(rèn)為存在于可燃物中的虛構(gòu)物質(zhì))。一旦我們真正理解了燃燒的原理,就不再需要“燃素”這個概念了。意識也是同理。

我想試圖說服你:多模態(tài)聊天機(jī)器人實際上已經(jīng)擁有了主觀體驗

通常人們認(rèn)為大腦里有一個“內(nèi)部劇場”。比如我喝醉了,產(chǎn)生幻覺看到了粉紅色的小象。大多數(shù)人會解釋說:“我在我的內(nèi)部劇場里看到了這些象?!奔热贿@些象不是由真實的原子構(gòu)成的,哲學(xué)家就發(fā)明了一個詞叫“感質(zhì)”,說這些幻覺是由“感質(zhì)”構(gòu)成的。

但這就是認(rèn)知科學(xué)里的“燃素”,是完全錯誤的概念。我們要采用已故哲學(xué)家 Daniel Dennett 的觀點(diǎn)來解釋這一切。

當(dāng)我看到粉紅色小象時,我不需要用“主觀體驗”或“感質(zhì)”這種玄學(xué)的詞。我可以更科學(xué)地描述為:“我的感知系統(tǒng)正在對我撒謊?!边@就是所謂的“主觀部分”。這句話的意思是:“假如我的感知系統(tǒng)沒有撒謊,那么此刻我面前真的會有粉紅色的小象?!?/p>

所謂的主觀體驗,并不是你腦子里有個神秘的電影院,而只是你的大腦在構(gòu)建一個假設(shè)性的現(xiàn)實。既然是這種定義,那么聊天機(jī)器人完全也可以做同樣的事情。

讓我給你舉個例子。假設(shè)我訓(xùn)練了一個多模態(tài)聊天機(jī)器人,它有攝像頭和機(jī)械臂。我在它面前放一個物體,讓它指出來,它指得很準(zhǔn)。

接著,我擾亂它的感知系統(tǒng)——我在攝像頭前放一個棱鏡。此時我再讓它指,它指向了旁邊。我糾正它:“不,物體其實就在你正前方。

聊天機(jī)器人可能分析后:“哦,我明白了。是因為棱鏡彎曲了光線,從物理上講物體確實在正前方。但是,我剛才確實產(chǎn)生了‘物體在旁邊’的主觀體驗?!?/p>

你看,如果機(jī)器人能這樣表達(dá),它使用“主觀體驗”這個詞的方式,和人類完全一樣。既然定義相同,那你就不得不承認(rèn):那個聊天機(jī)器人剛剛經(jīng)歷了一次主觀體驗。

主持人:所以,你剛才實際上是對我們進(jìn)行了一次“意識圖靈測試”。你的意思是:既然人類因為這種行為被認(rèn)為有意識,那么表現(xiàn)出同樣行為的機(jī)器人也應(yīng)該被視為有意識。除非我們非要發(fā)明一種看不見摸不著的“神秘流體”來強(qiáng)行區(qū)分兩者。

Geoffrey Hinton:正是如此。人們總覺得“意識”是一種如果你足夠復(fù)雜、就會突然被魔法賦予的神秘本質(zhì)。這純屬無稽之談。機(jī)器人并沒有這種神秘本質(zhì),但人類其實也沒有。大家有的只是對刺激的覺知。

科學(xué)家在不談?wù)軐W(xué)時就很清醒。如果機(jī)器人問:“你是在測試我嗎?”科學(xué)家會自然地說:“看,機(jī)器人覺知到它被測試了?!?/p>

只有當(dāng)你開始陷入哲學(xué)思考,非要尋找某種神圣的“靈魂”時,你才會感到困惑。

主持人:最后請給我們一個積極的結(jié)尾吧。我們還有希望嗎?

Geoffrey Hinton:我們還有時間?,F(xiàn)在的當(dāng)務(wù)之急是投入大量的研究精力,去弄清楚我們要如何與 AI 愉快地共存。如果我們能做到這一點(diǎn),并且解決好隨之而來的社會問題,那么這對人類來說,最終可能是一件極其美妙的事情。

主持人:最后還有一個關(guān)鍵問題:奇點(diǎn)。像 Ray Kurzweil 這樣的人常說,AI 會自我進(jìn)化,呈指數(shù)級變強(qiáng),瞬間超越人類。你認(rèn)為這真的會發(fā)生嗎?它像大家說的那樣迫在眉睫嗎?

Geoffrey Hinton:這兩個問題我都無法給出確切答案。我的猜想是:AI 最終確實會在所有方面都比我們強(qiáng),但這不會是一瞬間發(fā)生的,而是逐個領(lǐng)域地超越。

目前,它在國際象棋、圍棋以及知識儲備上已經(jīng)遠(yuǎn)超人類,但在邏輯推理方面還不如我們。不過,這只是時間問題。

主持人:我在想的是,AI 能否提出一種全新的宇宙理論?那種通常需要人類獨(dú)有的洞察力才能想到的東西?我認(rèn)為它做不到。

Geoffrey Hinton:恐怕你會失望。 讓我給你舉個例子,證明AI 在類比和洞察力方面已經(jīng)有多出色。

當(dāng) GPT-4 還未聯(lián)網(wǎng),僅憑它內(nèi)部權(quán)重中的知識時,我問了它一個問題:“為什么堆肥堆像原子彈?”它回答說:“雖然兩者的能量級和時間尺度完全不同,但原理相似。”

它解釋道:

  • 當(dāng)堆肥堆變熱時,產(chǎn)生的熱量會導(dǎo)致反應(yīng)加速,從而產(chǎn)生更多熱量;

  • 當(dāng)原子彈爆炸時,產(chǎn)生的中子會引發(fā)更多裂變,從而產(chǎn)生更多中子。

它精準(zhǔn)地理解了兩者背后的共性——鏈?zhǔn)椒磻?yīng)。它必須真正理解這些概念,才能將海量的知識壓縮進(jìn)有限的連接中。

這種“尋找不同事物間共性”的能力,正是創(chuàng)造力的源泉。

主持人:它竟然懂鏈?zhǔn)椒磻?yīng)……好吧。那就是我們的終局了。

https://www.youtube.com/watch?v=l6ZcFa8pybE

聲明:本文為 AI 前線整理,不代表平臺觀點(diǎn),未經(jīng)許可禁止轉(zhuǎn)載。

會議推薦

2026,AI 正在以更工程化的方式深度融入軟件生產(chǎn),Agentic AI 的探索也將從局部試點(diǎn)邁向體系化工程建設(shè)!

QCon 北京 2026 已正式啟動,本屆大會以“Agentic AI 時代的軟件工程重塑”為核心主線,推動技術(shù)探索從「AI For What」真正落地到可持續(xù)的「Value From AI」。從前沿技術(shù)雷達(dá)、架構(gòu)設(shè)計與數(shù)據(jù)底座、效能與成本、產(chǎn)品與交互、可信落地、研發(fā)組織進(jìn)化六大維度,系統(tǒng)性展開深度探索。開往 2026 的 Agentic AI 專列即將啟程!匯聚頂尖專家實戰(zhàn)分享,把 AI 能力一次夯到位!

今日薦文

你也「在看」嗎?

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
1996年, 施瓦辛格在家中無事,和35歲200斤女傭發(fā)生不當(dāng)關(guān)系

1996年, 施瓦辛格在家中無事,和35歲200斤女傭發(fā)生不當(dāng)關(guān)系

南權(quán)先生
2026-01-20 15:49:53
3月7日俄烏最新:小澤上前線

3月7日俄烏最新:小澤上前線

西樓飲月
2026-03-07 20:59:30
臺系內(nèi)存廠:中國大陸DDR5內(nèi)存,救不了市場,會一直漲到2027年

臺系內(nèi)存廠:中國大陸DDR5內(nèi)存,救不了市場,會一直漲到2027年

互聯(lián)網(wǎng).亂侃秀
2026-03-07 11:01:12
女航天員王亞平,因工作常年沒回家,和丈夫的關(guān)系一句話道出真相

女航天員王亞平,因工作常年沒回家,和丈夫的關(guān)系一句話道出真相

掉了顆大白兔糖
2026-02-25 07:07:28
美媒:中國不可怕,可怕的是中國只用10萬頭豬,就搞定了治沙難題

美媒:中國不可怕,可怕的是中國只用10萬頭豬,就搞定了治沙難題

樂天閑聊
2026-01-16 11:23:05
中國早已布局完畢,美專家警告美國,別打伊朗,中國一定笑到最后

中國早已布局完畢,美專家警告美國,別打伊朗,中國一定笑到最后

伴君終老
2026-03-07 20:19:11
《鏢人》票房超12億,打破14項紀(jì)錄,虧損超2億

《鏢人》票房超12億,打破14項紀(jì)錄,虧損超2億

影視高原說
2026-03-06 07:03:59
現(xiàn)場直擊|倫敦舉行大規(guī)模集會抗議美以襲擊伊朗

現(xiàn)場直擊|倫敦舉行大規(guī)模集會抗議美以襲擊伊朗

新華社
2026-03-08 17:35:53
3月1日新規(guī):廣州外賣騎手,電動車限速15公里,沒掛這個牌要罰款

3月1日新規(guī):廣州外賣騎手,電動車限速15公里,沒掛這個牌要罰款

電動車的那些事兒
2026-03-07 15:17:07
曝網(wǎng)易撤資"如龍之父"新作!資助5年還要追加3億引熱議

曝網(wǎng)易撤資"如龍之父"新作!資助5年還要追加3億引熱議

游民星空
2026-03-08 11:11:42
上海浦東要起飛!這4個地方,未來普通人高攀不起

上海浦東要起飛!這4個地方,未來普通人高攀不起

劉哥談體育
2026-03-08 07:59:44
阿爾特塔談比賽沉悶:外界怎么說沒關(guān)系,我們的數(shù)據(jù)就是證明

阿爾特塔談比賽沉悶:外界怎么說沒關(guān)系,我們的數(shù)據(jù)就是證明

懂球帝
2026-03-08 12:13:39
公布了!1332人遇難!內(nèi)塔尼亞胡或被關(guān)進(jìn)大牢,特朗普開始急了

公布了!1332人遇難!內(nèi)塔尼亞胡或被關(guān)進(jìn)大牢,特朗普開始急了

愛下廚的阿釃
2026-03-08 10:54:00
推薦八部重口味世界級禁片,能看完的都是狠人

推薦八部重口味世界級禁片,能看完的都是狠人

i書與房
2026-01-29 14:55:08
特朗普宣稱伊朗南部小學(xué)遭襲致至少165人遇難事件“是伊朗所為”,表示伊朗的彈藥襲擊“非常不準(zhǔn)確”

特朗普宣稱伊朗南部小學(xué)遭襲致至少165人遇難事件“是伊朗所為”,表示伊朗的彈藥襲擊“非常不準(zhǔn)確”

大象新聞
2026-03-08 10:47:05
臺灣黃征輝:臺灣可以和平回歸,但大陸要答應(yīng)2個條件!

臺灣黃征輝:臺灣可以和平回歸,但大陸要答應(yīng)2個條件!

嘆知
2026-03-08 14:59:42
長城汽車董事長魏建軍就海報抄襲路虎致歉:審核把關(guān)不嚴(yán),愿承擔(dān)此次事件帶來的全部法律與經(jīng)濟(jì)責(zé)任

長城汽車董事長魏建軍就海報抄襲路虎致歉:審核把關(guān)不嚴(yán),愿承擔(dān)此次事件帶來的全部法律與經(jīng)濟(jì)責(zé)任

極目新聞
2026-03-06 20:03:45
湖北單親媽媽嫁65歲美國老頭,帶兒子移民美國,婚后14年老頭去世

湖北單親媽媽嫁65歲美國老頭,帶兒子移民美國,婚后14年老頭去世

哄動一時啊
2026-02-09 16:56:31
國家發(fā)改委:將探索延長義務(wù)教育年限

國家發(fā)改委:將探索延長義務(wù)教育年限

極目新聞
2026-03-07 16:41:06
十九歲天才后衛(wèi)走紅歐洲,巴薩已經(jīng)開始行動

十九歲天才后衛(wèi)走紅歐洲,巴薩已經(jīng)開始行動

富貴體壇說
2026-03-08 16:28:28
2026-03-08 18:07:00
AI前線 incentive-icons
AI前線
面向AI愛好者、開發(fā)者和科學(xué)家,提供AI領(lǐng)域技術(shù)資訊。
1347文章數(shù) 133關(guān)注度
往期回顧 全部

科技要聞

OpenClaw最大的推手是閑魚和小紅書

頭條要聞

美軍精銳空降師4000余人進(jìn)入待命 被指或要推地面戰(zhàn)

頭條要聞

美軍精銳空降師4000余人進(jìn)入待命 被指或要推地面戰(zhàn)

體育要聞

大傷后被交易,他說:22歲的我已經(jīng)死了

娛樂要聞

周迅新戀情曝光,李亞鵬等人已成過去

財經(jīng)要聞

油價要失控?

汽車要聞

9分鐘充飽 全新騰勢Z9GT首搭閃充技術(shù)26.98萬起

態(tài)度原創(chuàng)

本地
教育
時尚
健康
公開課

本地新聞

食味印象|一口入魂!康樂烤肉串起千年絲路香

教育要聞

全國政協(xié)委員孔維克:建議學(xué)制縮短至10年,逐步取消中考。(新黃河)

2026春夏一定要擁有的6只包,好看又百搭

轉(zhuǎn)頭就暈的耳石癥,能開車上班嗎?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進(jìn)入關(guān)懷版