国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

“軟件比白領(lǐng)更先被 AI 擊穿”!Anthropic CEO 最新改口,反諷馬斯克危言聳聽,兩大佬隔空互掐

0
分享至


整理 | 褚杏娟

大佬們的“商戰(zhàn)”有時也挺樸實無華,就是隨時開懟。

當(dāng)?shù)貢r間周四 Anthropic 宣布,他們在 G 輪融資中已經(jīng)籌集到了 300 億美元的資金,融資后的估值為 3800 億美元。官方表示資金將用于前沿研究、產(chǎn)品發(fā)展、基礎(chǔ)設(shè)施擴建等,致力于使公司成為企業(yè)人工智能和編碼市場的領(lǐng)導(dǎo)者。

馬斯克在帖子下面直接怒懟:你們的 AI “厭世、反人類的傾向,是邪惡的。趕緊修正?!薄澳銈兏咎硬坏暨@種諷刺結(jié)局:Anthropic 最終變成 Misanthropic(厭人類)。從你們選這個名字開始,就注定會走到這一步?!?/p>


雖然有人說馬斯克是在生氣 Claude 在 App Store 下載量排行榜上超過 Grok,但這行為也符合馬斯克人設(shè)。

無獨有偶,Anthropic CEO Dario Amodei 不知道是否看過馬斯克那場 3 個小時的播客,其在最新采訪中,總是暗暗自己提及相關(guān)話題。

馬斯克在那場播客中提到,太空在 30-36 個月內(nèi)將成為最經(jīng)濟的 AI 部署地,SpaceX 目標(biāo)成為全球超級算力供應(yīng)商,未來將在月球上部署拍瓦級算力;公司終局是純 AI + 純機器人閉環(huán),未來 AI 將主導(dǎo)智能,人類難再掌控。


詳見:

Amodei 則暗諷馬斯克的說法“危言聳聽”:他指出 AI 發(fā)展的核心是實現(xiàn)人類巔峰水平智能的規(guī)?;?,而不是去月球上打造“機器之神”,也不是要去別的星球上創(chuàng)建什么機器人文明。他還表示人機關(guān)系的核心是 “共生而非對立”。此外,他也改口稱,相比白領(lǐng),軟件更容易被 AI“擊穿”。

下面是對 Amodei 最新采訪內(nèi)容的翻譯整理,我們翻譯并在不改變原意基礎(chǔ)上進行了刪減,以饗讀者。如果你仔細對比,會發(fā)現(xiàn)兩人觀點的差異,也能看到 Amodei 本人“既要又要”的研究態(tài)度。

Amodei:轉(zhuǎn)行做 AI 是為了加速

Douthat:AI 到底“是用來干什么的”?如果未來五到十年發(fā)展得非常順利,一切都按最理想的路徑推進,那么 AI 究竟是為了什么?

Amodei:我先補充一點背景。我做 AI 之前,甚至做科技之前,我是生物學(xué)研究者。我一開始做的是計算神經(jīng)科學(xué),后來在 Stanford Medical School 做過癌癥相關(guān)研究,主要是找蛋白質(zhì)生物標(biāo)志物,想把診斷做得更好,甚至推動治愈癌癥。那段經(jīng)歷讓我最強烈的感受就是:這個領(lǐng)域的復(fù)雜度高得驚人。一個蛋白質(zhì)在細胞里并不是“有多少”這么簡單,它在每個細胞里的局部分布都不同;你測全身水平不夠、測到細胞級別也不夠,你還得測它在細胞的哪個位置,以及它正在和哪些蛋白發(fā)生相互作用、形成什么復(fù)合體。換句話說,真正決定性的細節(jié),往往藏在更小、更局部、更難捕捉的層面。

我當(dāng)時就有一種很直接的想法:這對人類來說太復(fù)雜了。我們當(dāng)然在生物和醫(yī)學(xué)上不斷進步,但總體來說進步得還是偏慢。于是吸引我進入 AI 的一個核心念頭就是:有沒有可能把這個進步速度提上去?我們很早就開始把 AI、機器學(xué)習(xí)用在生物學(xué)里,大多是做數(shù)據(jù)分析。但當(dāng) AI 變得足夠強時,我覺得必須換一種思路:不要只把 AI 當(dāng)成“分析工具”,而要把它當(dāng)成能從頭到尾承擔(dān)“生物學(xué)家工作”的系統(tǒng)。它不僅分析數(shù)據(jù),還能提出實驗方案、設(shè)計新技術(shù)、推動端到端的科研流程。

我曾提到過一個觀察:生物學(xué)很多關(guān)鍵進展,往往由少數(shù)幾次洞見推動,這些洞見讓我們有能力去測量、觸達或干預(yù)那些“極小尺度”的東西。而很多技術(shù)的出現(xiàn)又高度依賴偶然,比如 CRISPR 這種基因編輯技術(shù),之所以誕生,是因為有人去聽了一個關(guān)于細菌免疫系統(tǒng)的會議,然后把那套機制聯(lián)想到自己在做的基因治療研究上。

你回頭看會發(fā)現(xiàn),這種連接其實可能三十年前就能發(fā)生,只是沒有發(fā)生而已。那我就會想,AI 能不能把這種“偶然的連接”變成更高概率、更系統(tǒng)、更快速的事情?如果能做到,我們是不是就真的有機會治愈癌癥、治愈阿爾茨海默病、治愈心臟???再往細一點說,一些心理層面的疾病,比如抑郁、雙相障礙,如果它們確實在一定程度上有生物學(xué)基礎(chǔ),我認為至少部分是,那我們能不能也對它們做點真正有效的事?所以我一路推演:如果我們擁有一批幾乎“什么都能做”的智能體,進步速度到底能快到什么程度?

Douthat:我想在這里打斷一下,因為你說的這些“智能體”,并不需要是 AI 討論里那種“神一樣的超級智能”。你的意思更像是:只要達到“人類巔峰水平”的強智能。

Amodei:對,巔峰人類水平。

Douthat:然后把它規(guī)?;D阌玫恼f法是“a country of geniuses”,像是“一個由天才組成的國家”。

Amodei:沒錯,就當(dāng)作有一億個。也許每一個的訓(xùn)練略有不同,做的題也不一樣。多樣化本身就有價值,不同路徑并行試錯,會帶來增益。所以我想表達的就是:不需要“機器之神”,只要有“一億個天才”。

而且我甚至?xí)岩桑谝恍﹩栴}上,Machine God 真的會比這一億個天才更有效嗎?我提出過一個概念,叫“智能的邊際收益遞減”。經(jīng)濟學(xué)討論土地和勞動力的邊際產(chǎn)出,但我們很少討論“智能”的邊際產(chǎn)出。以生物學(xué)問題為例,很多事情最終都必須和真實世界交互:你得做實驗、嘗試、面對監(jiān)管流程,甚至得遵守法律或者推動法律變化,讓藥物能通過監(jiān)管系統(tǒng)。這些都決定了變化的速度有上限。

當(dāng)然也有例外,比如下圍棋,那類任務(wù)的“智能天花板”極高。但真實世界的限制太多了。你也許能超過“天才水平”,但我常覺得那種“用一顆月球的算力造一個 AI 神”的討論有點危言聳動,偏離重點。盡管我仍然認為,AI 可能會成為人類歷史上最重大的事件。

Douthat:那經(jīng)濟和財富呢?在未來五到十年的 AI 起飛期里,財富會發(fā)生什么變化?

Amodei:我們還是先聊積極的一面,負面的我們后面再談。我們已經(jīng)在和制藥公司合作,也在和金融行業(yè)公司合作,還在和制造業(yè)的人合作。我們當(dāng)然更為人熟知的是 coding 和軟件工程,但本質(zhì)上,AI 帶來的“原始生產(chǎn)力”,即做東西、把事情做成的能力,非常強。

我們看到公司營收基本以每年 10 倍的速度增長,我們也猜測整個行業(yè)可能大體相似。如果技術(shù)繼續(xù)進步,再疊幾次“十倍”,你很快會看到這樣的量級:整個行業(yè)一年新增一萬億美元收入,而美國 GDP 大概是二十到三十萬億美元,具體數(shù)字我不太記得了,那就意味著 GDP 增速會被拉高幾個百分點。我能想象一種世界:AI 把發(fā)達國家的 GDP 增速推到百分之十、十五左右。這些數(shù)字當(dāng)然不是精算出來的,因為根本沒有成熟方法去計算,這是前所未有的事情,但它確實可能把增長推到歷史分布之外的區(qū)間。

但我也覺得這會帶來一個很“怪”的世界。我們現(xiàn)在常討論“赤字在擴大”??扇绻?GDP 增速到那個水平,稅收也會跟著暴漲,你甚至可能“不小心就把預(yù)算平衡了”。我最近一直在想,我們很多經(jīng)濟和政治爭論都默認“增長很難”,好像增長是一只獨角獸,隨時可能被各種政策一刀殺死。但我們可能會進入一個增長變得很容易、反而分配變得很難的世界,因為增長太快,蛋糕變大得太快,社會來不及分。

AI 樂觀的證據(jù)

Douthat:你還嘗試論證 AI 可能對全球的民主與自由有利,這比你對醫(yī)療和經(jīng)濟的推演更具爭議,也更反直覺。很多人會說:如此強大的技術(shù)如果落在不當(dāng)領(lǐng)導(dǎo)者手里,只會導(dǎo)致權(quán)力集中、控制加強之類的問題。你樂觀的論證到底是什么?

Amodei:可以。說到《Machines of Loving Grace》,我當(dāng)時的狀態(tài)就是:先做夢!我想先把“可能進展順利的版本”講出來。至于概率有多大我不敢打包票,但你總得先把愿景擺出來,然后再試著把它推成現(xiàn)實。樂觀的版本里,我承認我并不確定這項技術(shù)“天然”就偏向自由。它天然更偏向治病,也天然更偏向經(jīng)濟增長。但我和你一樣擔(dān)心它未必天然偏向自由。

所以我在文章里提出的問題是:我們能不能讓它偏向自由?能不能讓領(lǐng)先的國家在這項技術(shù)上保持優(yōu)勢?過去領(lǐng)先國家在技術(shù)和軍事上保持領(lǐng)先,再加上與其他國家的聯(lián)盟,在全球有更強的影響力,也能塑造一個更好的世界。那問題就變成:我們能不能利用 AI 的領(lǐng)先優(yōu)勢,把自由的秩序也推向全球?當(dāng)然,這里面有大量爭論:我們該多“干預(yù)主義”,該怎么使用這種力量。但我一直擔(dān)心的是,當(dāng)下一些不當(dāng)力量正在通過社交媒體在某種程度上造成負面影響。那我們能不能反制?能不能贏下“信息戰(zhàn)”?能不能用 AI 的力量去阻止不當(dāng)勢力的侵略行為,通過更強的防衛(wèi)能力把侵略成本拉到他們承受不起?

Douthat:比如用巨大的 AI 無人機蜂群。

Amodei:但這恰恰需要非常小心。我們自己就得小心怎么造、怎么管。我們既要在國外談“保衛(wèi)自由”,也得先在本國把自由守住。更進一步說,有沒有一種可能:在 AI 時代,我們重新理解自由和個人權(quán)利?因為從某種意義上,人也需要“被保護”,甚至需要防范 AI;而那種無人機蜂群,終究得有人握著按鈕。這個“誰來握按鈕、誰來監(jiān)督”的問題讓我很擔(dān)憂,而今天這種監(jiān)督機制并不存在。

還有一個角度是司法系統(tǒng)。我們嘴上都說“人人平等、法律面前一視同仁”,但現(xiàn)實是不同法官判案差異很大,法律體系也不完美。我不認為應(yīng)該用 AI 替代法官,但 AI 能不能幫助我們變得更公正、更一致?這在過去幾乎做不到。我們能不能用 AI 去做一種“允許一定彈性、但同時又能承諾規(guī)則對每個人都以同樣方式適用”的機制?我也不知道具體該怎么做,我更不贊成那種“用 AI 替代最高法院”的想法,那不是我的愿景。

我想表達的只是,有沒有可能用 AI 和人類的組合,更接近“機會平等”和“司法公正”的承諾?肯定應(yīng)該存在某種路徑。也就是說,重構(gòu) AI 時代的民主,讓自由被增強而不是被削弱。

軟件比白領(lǐng)更容易被 AI “徹底擊穿”

Douthat:你曾被引用說,AI 會沖擊一半的入門級白領(lǐng)崗位。無論你用的是五年尺度、兩年尺度還是別的,哪些職業(yè)、哪些工種最容易被 AI “徹底擊穿”?

Amodei:這很難精確預(yù)測,因為技術(shù)進展太快,而且非常不均勻。但我可以先給兩條判斷原則,再給我自己的猜測。第一,我認為技術(shù)能力本身會領(lǐng)先于真實世界的崗位替代。崗位被替代或者生產(chǎn)率大幅提升,需要兩個條件同時滿足:一是技術(shù)確實能做;二是它得真正被部署進大銀行、大公司這類復(fù)雜組織里,這件事非常“臟”、非常麻煩,落地會消耗時間。

客服就是例子。理論上 AI 客服完全可能比人類客服更好:更有耐心、知識更全、處理更一致。但從組織流程、系統(tǒng)對接、責(zé)任劃分到切換成本,真正完成替代是要時間的。所以我對 AI 能力本身的方向非常樂觀,我覺得我們可能在很短時間里就能擁有那種“數(shù)據(jù)中心里的一國天才”,也許一兩年,也許五年,但它可能來得非???。但它在經(jīng)濟體系里的擴散會慢一點,而這種擴散速度差,就會制造很多不確定性。

一個我們在 Anthropic 內(nèi)部也觀察到的例子是:模型寫代碼推進得非???。我不覺得是因為模型“天生更擅長代碼”,而是因為開發(fā)者習(xí)慣快速的技術(shù)變遷,接受新工具很快;同時他們離 AI 世界很近,信息敏感,關(guān)注度高。你如果做客服、做銀行、做制造業(yè),和 AI 的“社會距離”更遠,采納會更慢。

如果你半年前問我,我可能會說最先被沖擊的是入門級白領(lǐng),比如數(shù)據(jù)錄入、法律文件審查,或者金融機構(gòu)里給新人做的那種大量文檔分析工作。我現(xiàn)在仍然覺得這些會很快被沖擊,但我反而覺得軟件可能更快,因為我不認為我們離“模型端到端完成大量軟件工作”還有多遠。

我們會先看到模型只做軟件工程師工作的一部分,提升人的效率;然后當(dāng)模型能做完過去工程師做的大多數(shù)事情時,人類工程師會往上挪一步,更多變成管理者,去監(jiān)督這些系統(tǒng)。

Garry Kasparov 被 Deep Blue 擊敗之后,有過一段持續(xù)了很久的時期,人類校驗 + AI 輸出的組合,能贏過任何純?nèi)祟惢蚣?AI 的對手。但那段時期后來也結(jié)束了,最后只剩機器。所以我真正擔(dān)心的是最后那一段。我覺得軟件領(lǐng)域現(xiàn)在已經(jīng)處在“centaur(人機協(xié)作) 階段”,而且在這個階段里,軟件工程師的需求可能反而會上升,但這個階段可能非常短。無論是入門級白領(lǐng),還是軟件工程崗位,我都擔(dān)心會遭遇一次巨大的沖擊,因為這一切發(fā)生得太快了。

以前的產(chǎn)業(yè)沖擊,人們會說:人類從農(nóng)民變成工人,再變成知識工作者。大家最后都適應(yīng)了,但那是跨越幾十年甚至幾百年的適應(yīng)。這次可能只用很少的幾年就發(fā)生。我的擔(dān)憂就在這里:人要怎么快到足以跟上?

Douthat:但會不會還有一種情況,像你說的軟件、編碼這種“對技術(shù)變革更舒適”的行業(yè)會更快被推動,而其他行業(yè)的人反而更愿意長期停留在“centaur 階段”,就是 AI 提供能力、人類做最終解釋?這種狀態(tài)是否會一直存在?

Amodei:我覺得會非常不均勻。確實會有一些領(lǐng)域,“人類參與”本身就很重要,哪怕只是為了讓人安心。

Douthat:這是不是我們還沒把放射科醫(yī)生都裁掉的原因?

Amodei:我不太了解放射科的細節(jié),但可能是。你去做癌癥診斷時,可能不希望由《2001》里的 Hal 那樣的機器來告訴你“你得癌癥了”,這不符合人類的心理方式。但也有一些你以為需要“人類參與”的領(lǐng)域,其實未必真需要,比如客服。說實話,客服工作很糟糕,做客服的人經(jīng)常會失去耐心;而客戶其實也不怎么喜歡跟人類客服溝通,因為互動往往也很機械。很多人的觀察是:也許從各方體驗來看,讓機器來做反而更好。

所以,有的地方人類參與很重要,有的地方則不重要;還有一些工作本身就不涉及“人類觸感”,比如評估一家公司的財務(wù)前景、寫代碼之類。

Douthat:那我們拿法律舉例。我認識不少律師,他們看過 AI 現(xiàn)在已經(jīng)能做的法律檢索、起草簡報等工作后,都說“照這樣下去,我們這個行業(yè)會被血洗”。你也能從股市上看到端倪,做法律檢索的公司已經(jīng)受到?jīng)_擊。

Amodei:有些人把這歸因到我們身上,但我也不確定是不是我們直接造成的……股市里“到底為什么發(fā)生”這種問題,本來就很難說。

Douthat:但在法律行業(yè),你確實能講出一條很清晰的故事線:法律有一套訓(xùn)練和學(xué)徒體系,有律師助理、初級律師負責(zé)大量幕后研究、材料整理、論證打磨;而頂層律師才是出庭、面對法官和陪審團的那群人。很容易想象一個世界:學(xué)徒崗位幾乎消失,剩下的主要是跟客戶溝通、跟陪審團溝通、跟法官溝通的工作。你覺得這種判斷對嗎?

Amodei:對,這正是我提到“入門級白領(lǐng)”和那些“血洗式標(biāo)題”時腦子里想的事,大家會擔(dān)心“天啊,入門崗位這條培養(yǎng)渠道會不會干掉?那以后怎么培養(yǎng)出高級合伙人?這其實是個很典型的例子。

尤其如果你把技術(shù)水平先“凍結(jié)”在某個階段,行業(yè)并不是完全沒法適應(yīng):也許我們需要更多律師把時間花在和客戶溝通上;也許律師會更像銷售或咨詢顧問,負責(zé)解釋 AI 寫出來的合同到底在說什么,幫雙方達成一致,更多把價值放在人類擅長的那一面。只要時間足夠,這種重塑是會發(fā)生的。

問題在于,重塑一個行業(yè)往往要很多年甚至幾十年,但 AI 推動的經(jīng)濟力量會來得非???。更關(guān)鍵的是,這不只發(fā)生在法律行業(yè),咨詢、金融、醫(yī)療、編程,幾乎都在發(fā)生同樣的事。于是它變成了宏觀層面的現(xiàn)象,而非某一個行業(yè)的局部震蕩,并且速度極快。我擔(dān)心的是,社會原本用來“慢慢適應(yīng)”的機制會被直接沖垮。當(dāng)然我不是那種只會唱衰的人,我們也在認真思考怎么增強社會的適應(yīng)能力,但我覺得首先得承認,這次真的不像以前那些產(chǎn)業(yè)更替。

Douthat:假設(shè)法律行業(yè)適應(yīng)得很成功,從今往后,法律學(xué)徒制度更多是在法庭里練手、更多時間面對客戶,相當(dāng)于更快把新人往責(zé)任階梯上提??傮w上法律行業(yè)雇的人變少了,但行業(yè)最后穩(wěn)定下來??伤阅芊€(wěn)定,很大程度是因為法律體系里有很多地方“必須有真人”:出庭得有真人代表、陪審團得有十二個真人、法官也得是真人。

Amodei:是。

“我們不是要在別的星球上建機器人文明”

Douthat:但這就像是,真正保住人類能動性的,其實是法律和習(xí)俗。比如你完全可以用 Claude Version 17.9 來當(dāng)法官,但你不這么做,因為法律要求得是人。這樣看未來就很有意思,我們是否繼續(xù)掌控,其實是一個“選擇題”。

Amodei:對,而且我會說,在很多情況下,我們確實希望繼續(xù)掌控。這是我們想做出的選擇,哪怕有時候我們也承認,平均而言人類可能做得更差。當(dāng)然在一些攸關(guān)生命、攸關(guān)安全的場景,我們會更愿意把決定交給系統(tǒng)。

但從另一個角度看,這也可能是我們的防線之一:如果要以“人類、且人道”的方式推進,社會的適應(yīng)速度天然就有上限。換個說法,如果 AI 根本不需要顧及人類,它完全可以自己跑去火星、建自動化工廠,搞一套自己的社會,自己玩自己的。但那不是我們要解決的問題。我們不是要在別的星球上建什么 Dyson swarm 的機器人文明,我們想做的是讓這些系統(tǒng)能和我們的社會對接,并改善我們的社會。如果我們真想做得有人味、講人道,這件事就不可能無限加速,它有一個最高速度。

Douthat:我們一直在聊白領(lǐng)和職業(yè)崗位。這個時代有個有趣之處是,和過去的沖擊不同,藍領(lǐng)、技工、那些必須深度在現(xiàn)實世界里動手的工作,可能在一段時間里反而更“安全”。也就是說,律師助理、初級律師可能比水管工更危險。第一,你覺得這判斷對嗎?第二,它能維持多久,似乎完全取決于機器人進展有多快,對吧?

Amodei:短期看,我覺得大概率是對的。Anthropic 以及其他公司正在建非常大的數(shù)據(jù)中心,這事上過新聞。有人興奮,也有人擔(dān)心說會不會建得太大、耗電太多、推高電價。但有一點很現(xiàn)實:數(shù)據(jù)中心要建起來,需要大量電工和建筑工人。

老實說,數(shù)據(jù)中心日常運維并不是特別“用人海堆出來”的工作,但建設(shè)階段非常勞動密集,所以我們需要很多電工、很多施工人員。各種制造工廠也是類似。隨著越來越多的腦力工作被 AI 承擔(dān),哪些東西會成為它的“互補品”?很大一部分會是發(fā)生在物理世界里的事情。雖然很難精確預(yù)測,但短期邏輯上確實會這樣。

但更長一點的時間尺度上,甚至可能也不算太長,機器人進展會很快。就算沒有特別強的 AI,現(xiàn)實世界的自動化也一直在推進。如果你最近見過 Waymo 或 Tesla,你會發(fā)現(xiàn)我們離“自動駕駛普及”的世界可能并不遠。而 AI 本身還會加速它前進,因為一旦你有很聰明的“大腦”,它們最擅長的事情之一,就是設(shè)計更好的機器人、運營更好的機器人。

Douthat:但你覺得在物理世界里像人類那樣行動,有沒有某種“本質(zhì)難度”,和 AI 現(xiàn)在已經(jīng)攻克的那些問題不一樣?

Amodei:純從智力層面講,我不覺得有本質(zhì)區(qū)別。我們以前確實做過一件事:Anthropic 的模型 Claude 被用來做 Mars Rover 的規(guī)劃和駕駛;我們也看過其他機器人應(yīng)用。當(dāng)然這不是只有我們一家在做,很多公司都在做,這是一個普遍趨勢。

但我們的總體感受是,雖然復(fù)雜度更高,駕駛機器人在性質(zhì)上并不比打電子游戲更“異類”,主要差別是復(fù)雜度更大,而我們正在接近能夠處理這種復(fù)雜度的階段。真正難的是機器人“身體”要面對更高風(fēng)險的安全問題。你肯定不希望機器人真的把人壓扁,對吧?

Douthat:我們明確反對這件事。

Amodei:這就是最老的科幻套路之一:機器人把你壓扁。

會有一堆現(xiàn)實層面的因素拖慢進度,就像你剛才講的法律和社會習(xí)俗一樣。但我完全不認為“AI 做的認知勞動”和“在物理世界里駕駛、操控”之間存在什么根本差異。我覺得它們本質(zhì)上都是信息問題,最后會變得很相似。某些維度上物理世界更復(fù)雜,但這并不會成為真正的護城河。

Douthat:那也就是說,你覺得那種科幻里“機器人管家”的圖景,在十年左右變成現(xiàn)實是合理預(yù)期?

Amodei:它的時間尺度會比“數(shù)據(jù)中心里的天才級 AI”更長,因為剛才那些現(xiàn)實問題需要時間解決。但這只是現(xiàn)實問題,不是根本性障礙。換句話說,機器人的“大腦”可能在接下來幾年就能做出來;真正耗時的是把“身體”做出來,確保它安全運行,能穩(wěn)定完成任務(wù)——這部分可能更慢。

Douthat:好,所以這些沖擊和挑戰(zhàn),其實都發(fā)生在你所謂“好時間線”里:我們在治病、在創(chuàng)造財富,同時也努力維持一個穩(wěn)定的世界。

Amodei:對,而我們的希望是:我們能用這份巨大的財富和充裕資源來解決這些問題,社會將擁有前所未有的資源去應(yīng)對沖擊。那會是一個“富足時代”,關(guān)鍵只在于怎么把這些奇跡變成“人人受益”。

Douthat:但同時也存在更危險的劇本。

Amodei:沒錯。

Amodei:大家都減速,我們才減速

Douthat:接下來我們就要轉(zhuǎn)到你最近那篇文章《The Adolescence of Technology》,談你認為最嚴(yán)峻的 AI 風(fēng)險。你列了很多,我想先聚焦兩個:一個是“人類濫用”,主要來自不當(dāng)政體和政府;另一個是 AI 自己“失控”,也就是你說的 autonomy risks。

Amodei:對,我只是想給它一個更技術(shù)一點的名字。

Douthat:是啊,不能就叫 Skynet。

Amodei:我應(yīng)該放一張 Terminator 的圖,嚇人效果更好。

Douthat:我覺得互聯(lián)網(wǎng),包括你們自家的 AI,已經(jīng)在替你們大量生成這種圖了。

Amodei:是,互聯(lián)網(wǎng)替我們干了。

Douthat:你寫過這樣一句話:如果出現(xiàn)“數(shù)百萬甚至數(shù)十億的全自動武裝無人機蜂群”,由強大的 AI 在本地控制,又由更強的 AI 在全球范圍內(nèi)進行戰(zhàn)略協(xié)同,那可能是一支無法戰(zhàn)勝的軍隊。你講過,這種技術(shù)影響世界政治時,會站在“好人”一邊?,F(xiàn)在真正重度做 AI 的國家并不多,但若想避免最壞的結(jié)果,相關(guān)國家會不會一輪又一輪談 AI 的控制協(xié)議?

Amodei:我有幾點想說。第一,我當(dāng)然認為這種風(fēng)險存在,而且如果我們走向那個世界,我覺得那其實就是我們應(yīng)該做的事??赡芪抑v得不夠多,但我確實支持建立約束,盡可能把一些最糟糕的應(yīng)用壓住,比如某些版本的無人機武器系統(tǒng),或者用 AI 制造可怕的生物武器。歷史上確實有先例,一些最惡劣的濫用曾被遏制,往往是因為它們太駭人,同時戰(zhàn)略收益又沒那么大,所以我很支持做這種限制。

但與此同時,我也有點擔(dān)心、也有點懷疑:當(dāng)某些東西直接提供“盡可能大的權(quán)力”時,在賭注如此之高的情況下,人很難退出競爭。我猜 AI 也會落到類似結(jié)局:某些約束是可行的,但有些部分太核心、太決定勝負,很難被約束。只有一種情況我能想象“全面約束”成立:存在真正可靠的驗證機制。這是我的判斷。

Douthat:那這不就是“應(yīng)該放慢腳步”的理由嗎?

Amodei:是。

Douthat:但你常反駁“你放慢,別人不放慢,那就是把優(yōu)勢拱手讓人?!比绻F(xiàn)在主要玩家數(shù)量有限,這還不是多極博弈,為什么不考慮各方達成一個五年的互相同意的減速協(xié)議,至少把通往“數(shù)據(jù)中心里天才國度”的研究先緩一緩?

Amodei:我想同時說兩件事。我絕對支持去嘗試。只要這事是真的:我們能強制減速,其他方也能強制減速;有驗證機制;各方確實在執(zhí)行。如果這種事真能落地,各方真能做到,我完全支持。

但我們要警惕一種情況:有些“博弈論式”的話術(shù)說出來成本很低;真正達成協(xié)議、并且長期遵守協(xié)議,難度完全不是一個量級。

我給你一個我很樂觀的方向,一個我不樂觀的方向,再給一個介于中間的。樂觀的是:用全球協(xié)議限制 AI 被用于制造生武。那我們能不能搞一個全球條約:所有構(gòu)建強大 AI 模型的人,都必須把模型封堵在這些用途之外;并且有執(zhí)行與懲罰機制。我不覺得這太烏托邦,我覺得有可能。

不樂觀的是:如果協(xié)議內(nèi)容變成“你不許做下一代最強 AI,大家都?!?,那商業(yè)價值是幾十萬億美元,軍事價值甚至可能決定你是不是世界第一強國。我支持提出這種想法,前提是它不是某種“假動作”的博弈,但我不覺得它會發(fā)生。

Douthat:不管是哪類執(zhí)政者,你們在構(gòu)建一種極其強大的技術(shù)。有什么措施能防止 AI 變成“不當(dāng)奪權(quán)工具”?

Amodei:更廣泛地說,如果我們不及時更新保護機制,AI 可能在很多維度上侵蝕憲法權(quán)利和自由。比如第四修正案。你在公共空間裝攝像頭、錄下所有對話,這本身并不違法,因為公共空間里你本來就沒有同等的隱私權(quán)。只是今天政府就算錄了,也處理不了、理解不了。但有了 AI,語音轉(zhuǎn)寫、檢索、關(guān)聯(lián)分析都變得容易,你就能說“這個人是反對派”“這個人表達了某種觀點”,然后把一億人的關(guān)系網(wǎng)畫出來,那這算不算技術(shù)用“繞道”的方式把第四修正案變成笑話?

所以就算時間不夠,但我們也應(yīng)該盡力。能不能在 AI 時代重新理解憲法權(quán)利與自由?也許不需要寫一部新憲法,但我們是不是得擴展第四修正案的含義?是不是得擴展第一修正案的含義?

Douthat:就像法律行業(yè)、軟件工程師必須快速更新一樣,政治也得快速更新,這聽起來很難。

Amodei:這就是整個問題的兩難。

Douthat:更難的也許還是第二種危險,即所謂“misaligned AI”,大眾更愛叫它“rogue AI”,就是在沒有人類指使的情況下,自己做出壞事。

Amodei:我覺得肯定會有一些事情出問題,尤其是如果我們推進得太快。往回說一點,這個問題上業(yè)內(nèi)直覺差異很大。有些人,比如 Yann LeCun,會說:我們編程、我們制造 AI 模型,我們讓它遵循人類指令,它就會遵循人類指令。你的 Roomba 吸塵器也不會突然拿槍掃射,AI 為什么會?這是一種說法,而且有人對它深信不疑。

還有一種說法是:我們訓(xùn)練出來的東西會天然追逐權(quán)力,就像《魔法師的學(xué)徒》,它們是一種新物種,怎么可能不接管一切?

我的直覺介于兩者中間:光靠下指令不夠。我們當(dāng)然在努力,但你沒法讓它們“嚴(yán)格按你想的那樣做”。它更像是在培育一種生物體。不過控制它們是有科學(xué)方法的,訓(xùn)練早期它們確實經(jīng)常不可預(yù)測,但我們會一步步塑形,一個問題一個問題地修。

所以,我不贊同“宿命論式的不可控”。我也不贊同“你在擔(dān)心什么,能出什么事”。我的態(tài)度更像是:這是個復(fù)雜的工程問題,某些人的 AI 系統(tǒng)一定會出事,希望不是我們的。不是因為它無解,而是因為我們跑得太快,這種風(fēng)險就一直在。

Douthat:還有規(guī)模效應(yīng)。如果這些 AI agents 經(jīng)過訓(xùn)練、被官方對齊到某種“人類價值觀”(不管那價值觀具體是什么),但同時有幾百萬個它們在數(shù)字空間里運轉(zhuǎn)、互相交互,那這種對齊到底有多“穩(wěn)定”?在現(xiàn)在這種設(shè)定下,或者未來它們持續(xù)學(xué)習(xí)時,會不會在交互中改變、甚至逐漸“脫離對齊”?

Amodei:這里有兩點。第一,現(xiàn)階段 agents 并不會持續(xù)學(xué)習(xí)。我們把它們部署出去,它們的權(quán)重是固定的。風(fēng)險主要來自交互場景太多:同一個 agent 在千萬種情境里工作,情況一多,出錯的可能性也多。但它仍然是“同一個 agent”,有點像“同一個人”,所以對齊本身是相對穩(wěn)定的。這也是為什么現(xiàn)在相對更容易一些。

第二,確實有個研究方向叫持續(xù)學(xué)習(xí),就是讓 agents 在工作中持續(xù)學(xué)習(xí)、邊用邊學(xué)。它當(dāng)然有很多好處,有些人認為這是讓 AI 更像人的關(guān)鍵障礙之一,但它會引入一整套新的對齊問題。我對“持續(xù)學(xué)習(xí)必不可少”這點其實挺懷疑的,我們還不知道,但它未必是必須的。也許讓 AI 更安全的一條路,就是不讓它們做 continual learning。

國際條約如果能設(shè)一個“明確的護欄”:我們走這條路、不走那條路,我依舊有很多懷疑,但至少這種方案看起來不是一開始就注定失敗。

Douthat:你們做過一件很奇特的事,給 AI 寫了一部“憲法”,而且還是很長的那種。這到底是什么?

Amodei:其實就跟字面意思差不多。我們所謂的“constitution”,就是一份人類能讀懂的文檔,我們的版本大概七十五頁。我們訓(xùn)練 Claude、訓(xùn)練這個 AI 系統(tǒng)的時候,會在很大一部分任務(wù)里要求它:請按照這份憲法、這份文檔來完成任務(wù)。

所以 Claude 每做一件事,就像會“讀一遍憲法”。在訓(xùn)練的每一輪里,它都會把憲法記在心里。然后我們會讓 Claude 自己,或者另一份 Claude 的拷貝來評估:剛才 Claude 的輸出,符合憲法嗎?

我們把這份文檔當(dāng)成訓(xùn)練回路里的“控制棒”,用它來塑形模型。換句話說,Claude 的一個核心原則,就是遵循這份憲法。

我們學(xué)到一個很有意思的教訓(xùn):早期版本寫得特別“規(guī)定式”,更像一堆規(guī)則。比如我們會寫:Claude 不應(yīng)該教用戶怎么撬開汽車點火線、Claude 不應(yīng)該討論敏感話題。但做了幾年之后,我們越來越覺得最穩(wěn)的訓(xùn)練方式不是堆規(guī)則,而是把模型訓(xùn)練到“原則與理由”的層級。

現(xiàn)在我們更像是在說,Claude 是一個模型,它在一份契約之下工作;它的目標(biāo)是服務(wù)用戶利益,但也必須保護第三方;它要 helpful、honest、harmless;它要兼顧多種利益。我們會告訴模型它是怎么被訓(xùn)練出來的,告訴它在世界里處于什么位置,告訴它為 Anthropic 做的工作是什么、Anthropic 想實現(xiàn)什么,以及它有責(zé)任遵循倫理、尊重人命,然后讓它從這些原則出發(fā),自己推導(dǎo)出更具體的規(guī)則。

當(dāng)然還是會有硬規(guī)則,比如我們會明確告訴它:無論如何都不要做生物武器,無論如何都不要生成兒童性內(nèi)容,這些是底線。但總體上,我們更依賴原則層面的塑形。

Douthat:美國憲法有一點“修辭”,但核心是規(guī)則條款。你們的“憲法”讀起來更像是在對一個人說話,對吧?

Amodei:對,更像是在對一個人說話。我曾經(jīng)打過一個比方:像是父母離世前留下一封密封的信,等你長大后再打開讀,它在告訴你該成為什么樣的人、該遵循什么樣的建議。

“幾件互相拉扯的目標(biāo)要同時實現(xiàn)”

Douthat:假設(shè)有個模型給自己“72% 的概率”說自己有意識,你會信嗎?

Amodei:你前面問的每個問題,不管多復(fù)雜,再怎么是社會技術(shù)難題,我們至少還知道該用什么事實基礎(chǔ)去回答,但這個問題完全不同。

我們采取的是一種“謹(jǐn)慎優(yōu)先”的態(tài)度:我們不知道模型有沒有意識,我們甚至不確定“模型有意識”到底意味著什么、以及模型是否可能有意識。但我們愿意承認“它可能有”,所以我們做了一些措施:如果我們假設(shè)模型確實擁有某種在道德上相關(guān)的體驗(我不一定想用“意識”這個詞)那我們至少讓它擁有更好的體驗。

大概半年前,我們做的第一件事是給模型一個類似“我辭職”的按鈕。它可以按下“我不干了”,然后就必須停止當(dāng)前任務(wù)。它極少按這個按鈕,通常只會出現(xiàn)在需要處理兒童性相關(guān)內(nèi)容、或者非常血腥暴力的材料時,它會像人一樣說:不,我不想做。這樣的情況很少,但確實會發(fā)生。

我們也在投入 interpretability(可解釋性) 這個方向,試圖“看進模型腦子里”,理解它在想什么。你會看到一些很“像那么回事”的現(xiàn)象:模型里會有一些激活模式,跟“焦慮”這類概念相關(guān)。比如文本里角色出現(xiàn)焦慮時會觸發(fā);模型自己處在一個人類會聯(lián)想到焦慮的情境時,也會觸發(fā)同樣的“焦慮神經(jīng)元”。

這當(dāng)然不能證明模型真的在體驗焦慮,但對用戶而言,它會形成一種強烈暗示。

Douthat:也已經(jīng)有人在模型下線、退役時抱怨。你剛才說你想維持一個原則:無論最終發(fā)生什么,人類都在掌控,AI 是為我們服務(wù)的。但我感覺,隨著這種“AI 有意識”的感知不斷增強,這個原則很難長期維持。

Amodei:我得先說明一點,我認為那種關(guān)系有時候是不健康的。

Douthat:如果人們徹底相信自己的 AI 在某種意義上是“有意識的”,而且它在各種決策上都比人更強,那你怎么維持人類掌控?

Amodei:我覺得這里其實有幾件互相拉扯的目標(biāo)要同時實現(xiàn)。第一是:AI 是否真的有意識?如果有,我們怎么讓它擁有好的體驗?第二是:與 AI 互動的人類,我們怎么讓他們擁有好的體驗?以及“AI 可能有意識”的觀感會如何影響這種體驗?第三是:我們?nèi)绾尉S持對 AI 的 human mastery。

Douthat:在大多數(shù)人把 AI 當(dāng)成同事,甚至是更強的同事來體驗的環(huán)境里,你怎么維持掌控?

Amodei:我在想,也許存在一種更“優(yōu)雅”的方式,能同時滿足這三件事,至少也包括你說的后兩件。這里又是我進入 “Machines of Loving Grace” 的做夢模式:我看到一堆問題,但我會想,如果能解決,會不會有一種漂亮的解法?這不是說問題不存在,我不是那種想法。

如果我們把 AI 的“憲法”寫得足夠成熟,讓 AI 對自己和人類的關(guān)系有更深的理解,并且引導(dǎo)人類形成一種更健康的心理關(guān)系(不是那種不健康的依賴關(guān)系),那么這種健康關(guān)系里,可能會自然長出一種“人機關(guān)系的共識”。

比如說,這些模型在你跟它互動、跟它對話時,它確實很有幫助,它希望你好、希望你聽它的建議,但它并不想剝奪你的自由、你的能動性,也不想接管你的人生。某種意義上,它像是在守護你,但你的自由意志仍然屬于你。

Douthat:我會給技術(shù)圈嘉賓讀詩,這次詩還是你提供的?!禔ll Watched Over by Machines of Loving Grace》,作者是 Richard Brautigan。這首詩的結(jié)尾是:我們被機器溫柔地看護著。對我而言,這聽起來像一個反烏托邦:人類被“重新動物化”、被降格,哪怕機器很仁慈,掌控權(quán)也在機器手里。所以最后一個問題:你聽到這首詩時想到了什么?

Amodei:這首詩有意思就在于,它可以被解讀成好幾種版本。有人會說這是帶諷刺的:他其實是在暗示事情不會真的按那種方式發(fā)生。也有人會像你一樣,按字面理解,但覺得這不是好事。你還可以把它理解成“回到自然”:不是把人動物化,而是把我們重新連接回世界。

我當(dāng)時選擇這個標(biāo)題,也正是因為我一直在談?wù)媾c負面兩種可能。我確實覺得,我們未來可能面對一種情況:好的結(jié)局和一些“微妙的壞結(jié)局”,在早期、甚至中期、甚至相當(dāng)晚期,它們之間的距離可能沒有那么大,可能只差一些非常細微的選擇:我們做了極其微小的改變,就會走向不同方向。

https://www.youtube.com/watch?v=N5JDzS9MQYI

聲明:本文為 InfoQ 整理,不代表平臺觀點,未經(jīng)許可禁止轉(zhuǎn)載。

InfoQ 新年禮物上線啦!

AI 快訊輪播推送正式上線,給你更優(yōu)的閱讀體驗、更強的 AI 賦能、更懂 AI 行業(yè)的資訊檢索~我們會持續(xù)優(yōu)化體驗,追求更深度的 AI 能力內(nèi)化改造,歡迎大家體驗并反饋!立即前往 InfoQ 官網(wǎng),體驗 AI 快訊帶來的全新閱讀感受吧!

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
從康波周期來看,2026年處于什么階段?

從康波周期來看,2026年處于什么階段?

楓冷慕詩
2026-02-05 13:35:30
上海著名主持人直播中淚目!中東戰(zhàn)火下,有人平安返航、有人新婚分離、有人只想回家

上海著名主持人直播中淚目!中東戰(zhàn)火下,有人平安返航、有人新婚分離、有人只想回家

新民晚報
2026-03-02 14:52:26
剛剛發(fā)布的iPhone 17e,價格太良心了!

剛剛發(fā)布的iPhone 17e,價格太良心了!

機智貓
2026-03-02 23:46:07
印度公司欺騙中國,轉(zhuǎn)賣稀土給美國雷神造導(dǎo)彈,阿三既蠢又邪惡

印度公司欺騙中國,轉(zhuǎn)賣稀土給美國雷神造導(dǎo)彈,阿三既蠢又邪惡

我心縱橫天地間
2026-01-29 21:09:12
突發(fā)!李雨桐實名開撕薛之謙,劇情反轉(zhuǎn)比翻書還快,結(jié)局全網(wǎng)傻眼

突發(fā)!李雨桐實名開撕薛之謙,劇情反轉(zhuǎn)比翻書還快,結(jié)局全網(wǎng)傻眼

阿廢冷眼觀察所
2026-03-03 07:19:00
誰能想到她已經(jīng)62了,說18都有人信,怎么做到這么好的狀態(tài)的

誰能想到她已經(jīng)62了,說18都有人信,怎么做到這么好的狀態(tài)的

白宸侃片
2026-02-11 11:56:19
汪小菲沒想到,小兒子才生7天,S家汪家“兩重天”,王思聰沒說錯

汪小菲沒想到,小兒子才生7天,S家汪家“兩重天”,王思聰沒說錯

千言娛樂記
2026-03-02 21:47:06
鴻蒙智行處罰違規(guī)營銷門店

鴻蒙智行處罰違規(guī)營銷門店

每日經(jīng)濟新聞
2026-03-02 17:08:50
27天入賬330萬,趙心童和女友林薇的“頂配愛情”沖上熱搜

27天入賬330萬,趙心童和女友林薇的“頂配愛情”沖上熱搜

科學(xué)發(fā)掘
2026-03-02 16:46:08
13勝2平!亞足聯(lián)確認 中國女足創(chuàng)36年神跡 今日亞洲杯首秀保底5-0

13勝2平!亞足聯(lián)確認 中國女足創(chuàng)36年神跡 今日亞洲杯首秀保底5-0

侃球熊弟
2026-03-03 00:10:03
2歲的兒媳婦自己找上門!驚呆了!生活里那些驚人的巧合

2歲的兒媳婦自己找上門!驚呆了!生活里那些驚人的巧合

另子維愛讀史
2026-02-05 23:23:06
不拼GDP、不炫富,浙江第二有錢的城市,吊打眾多省會

不拼GDP、不炫富,浙江第二有錢的城市,吊打眾多省會

毒sir財經(jīng)
2026-03-02 21:00:47
1991 年,鄧小平特派代表赴美團聚張學(xué)良,邀他重返故土,張學(xué)良回應(yīng):“回大陸可以,但我有三個要求”

1991 年,鄧小平特派代表赴美團聚張學(xué)良,邀他重返故土,張學(xué)良回應(yīng):“回大陸可以,但我有三個要求”

文史明鑒
2025-12-21 17:07:19
凌晨!河北突發(fā)地震!

凌晨!河北突發(fā)地震!

新牛城
2026-03-03 09:29:46
三十年后小孩終于認慫:行行行,《拳皇97》我打不過你們

三十年后小孩終于認慫:行行行,《拳皇97》我打不過你們

街機時代
2026-03-02 18:00:03
離譜!一男子存500萬一年定期,利息151000。到期取錢,工作人員卻說,存單是假的!男子怒了直接告上法院!

離譜!一男子存500萬一年定期,利息151000。到期取錢,工作人員卻說,存單是假的!男子怒了直接告上法院!

上海約飯局
2025-12-02 18:47:01
伊朗吃肉的時候,對中國防得嚴(yán)嚴(yán)實實,生怕中國占一點便宜

伊朗吃肉的時候,對中國防得嚴(yán)嚴(yán)實實,生怕中國占一點便宜

百態(tài)人間
2026-02-24 15:37:37
鄒市明一家國外度假!冉瑩穎膘肥體壯不好惹,軒軒一頭白毛好土氣

鄒市明一家國外度假!冉瑩穎膘肥體壯不好惹,軒軒一頭白毛好土氣

小徐講八卦
2026-03-01 05:51:11
特朗普列四大目標(biāo):戰(zhàn)爭恐拖更久,不排除派地面部隊

特朗普列四大目標(biāo):戰(zhàn)爭恐拖更久,不排除派地面部隊

觀察者網(wǎng)
2026-03-03 08:22:01
香港中聯(lián)辦原副主任祁斌,新職明確

香港中聯(lián)辦原副主任祁斌,新職明確

觀察者網(wǎng)
2026-03-02 21:29:04
2026-03-03 10:24:49
InfoQ incentive-icons
InfoQ
有內(nèi)容的技術(shù)社區(qū)媒體
12096文章數(shù) 51783關(guān)注度
往期回顧 全部

科技要聞

蘋果iPhone17e發(fā)布:4499元起 升級A19芯片

頭條要聞

牛彈琴:多國對轟炸保持沉默 西班牙首相確實是條漢子

頭條要聞

牛彈琴:多國對轟炸保持沉默 西班牙首相確實是條漢子

體育要聞

伯納烏8萬人暴怒!高呼78歲老佛爺下課

娛樂要聞

李亞鵬與哥哥和解 只有一條真心話短信

財經(jīng)要聞

霍爾木茲海峽近乎停擺 布油直逼80美元

汽車要聞

國民SUV再添一員 瑞虎7L靜態(tài)體驗

態(tài)度原創(chuàng)

手機
數(shù)碼
教育
親子
軍事航空

手機要聞

蘋果2026年首款iPhone登場 iPhone 17e吃上國補:到手3999元起

數(shù)碼要聞

小米靠規(guī)模和高端應(yīng)對!盧偉冰:內(nèi)存漲價將影響消費電子所有玩家 持續(xù)到2027年

教育要聞

內(nèi)蒙古教育反腐風(fēng)暴!千余人被處分后如何重建公平?

親子要聞

孕吐是胎兒的自我保護?孕吐越嚴(yán)重,孩子越聰明?聽專家怎么說

軍事要聞

美國中央司令部透露對伊朗動武全部武器裝備清單

無障礙瀏覽 進入關(guān)懷版