国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

OpenAI絕地反擊!Codex大腦首曝,8億用戶極限架構(gòu)硬剛Claude

0
分享至


新智元報(bào)道

編輯:定慧 元宇

【新智元導(dǎo)讀】AI編程霸主之爭升級!Claude Code剛刷屏,OpenAI連甩兩張王:不僅首度揭秘Codex背后的大腦「Agent Loop」,還自曝驚人基建:僅用1個(gè)PostgreSQL主庫,竟抗住了全球8億用戶洪峰!

最近,Anthropic的Claude Code引爆了AI編程圈!

那個(gè)能在終端里自己讀代碼、改代碼、跑測試的AI助手,讓不少開發(fā)者直呼「這才是未來」。

一時(shí)間,社交媒體上全是「Claude Code吊打Cursor、Codex、Antigravity」之類的評論。

就在大家以為OpenAI還在憋GPT-5.3大招的時(shí)候,今天其官博和奧特曼突然在X平臺(tái)甩出了兩張王炸:

1.Agent Loop架構(gòu)揭秘:首次公開Codex的「大腦」是怎么運(yùn)轉(zhuǎn)的

2.PostgreSQL極限架構(gòu):1個(gè)主庫扛起8億用戶的瘋狂操作



這一波組合拳打得太漂亮了。

今天咱們就來拆解一下,OpenAI到底憋了什么大招。

Agent Loop

Codex的「大腦 」 是怎么運(yùn)轉(zhuǎn)的



什么是Agent Loop?

如果你用過Codex CLI、Claude Code等等CLI終端工具,你可能會(huì)好奇:

這玩意兒到底是怎么知道我想干啥的?怎么就能自己讀文件、寫代碼、跑命令?

答案就藏在一個(gè)叫Agent Loop(智能體循環(huán))的東西里。


簡單來說,Agent Loop就像一個(gè)「總指揮」,它負(fù)責(zé)把「用戶意圖」「模型大腦」和「執(zhí)行工具」串成一個(gè)完美的閉環(huán)。


這不是普通的「你問我答」,而是一個(gè)包含了「觀察-思考-行動(dòng)-反饋」的能干活的系統(tǒng)。

下面,把這個(gè)黑盒拆開,看看一個(gè)真正的AI Agent是如何跑起來的。

一個(gè)完整的Agent Loop是怎么跑起來的

用一個(gè)具體的例子來說明。

假設(shè)在終端里輸入:給項(xiàng)目的README.md加一個(gè)架構(gòu)圖。

第一步:構(gòu)建Prompt

這好比給大腦發(fā)工單。

Codex不會(huì)直接把你的話丟給模型,它會(huì)先構(gòu)建一個(gè)精心設(shè)計(jì)的「Prompt」:

  • 我是誰:System:告訴模型它是誰、能干什么

  • 我有什么工具(Tools):有哪些工具可以調(diào)用(比如shell命令、文件操作)

  • 環(huán)境上下文(Context):當(dāng)前在哪個(gè)目錄、用的什么shell

  • 用戶指令:給README.md加一個(gè)架構(gòu)圖。

這就像給模型發(fā)一封詳細(xì)的工作郵件,而不是只發(fā)一句「幫我干活」。

第二步:模型推理(Inference)

這一步,大腦開始轉(zhuǎn)動(dòng)。

Codex把這個(gè)Prompt發(fā)給ResponsesAPI,模型開始思考:

「用戶想加架構(gòu)圖,我得先看看現(xiàn)在的README是什么樣的……」

然后模型做出決定:調(diào)用shell工具,執(zhí)行catREADME.md。

第三步:工具調(diào)用(ToolCall)

Codex收到模型的請求,在本地執(zhí)行命令,把README.md的內(nèi)容讀出來。

這就像手腳開始動(dòng)起來。

第四步:結(jié)果反饋

這一步,終端把README.md的內(nèi)容吐了出來。

這時(shí)候流程沒有結(jié)束。Codex把命令的輸出追加到Prompt里,再發(fā)給模型。

第五步:循環(huán)

模型看到了README的內(nèi)容,再次進(jìn)行推理:

可能是生成一個(gè)Mermaid圖,可能是直接寫一段ASCII圖形……然后再調(diào)用工具寫入文件。

這個(gè)循環(huán)一直持續(xù),直到模型認(rèn)為任務(wù)完成了,輸出一條「我搞定了」的消息。

它不是在回答問題,它是在解決問題。

為什么這很重要?

也許你可能會(huì)說:「這不就是多調(diào)了幾次API嗎?」

但絕非這么簡單。

傳統(tǒng)的LLM應(yīng)用是「一問一答」式的:你問,它答,完事兒。

但Agent Loop讓AI變成了一個(gè)能獨(dú)立干活的員工。

  • 它會(huì)自己規(guī)劃路徑(Chain of Thought)。

  • 它會(huì)自己檢查錯(cuò)誤(Self-Correction)。

  • 它會(huì)自己驗(yàn)證結(jié)果(Feedback Loop)。

這才是真正的「AI Agent」。

而Agent Loop,就是那個(gè)可以讓AI實(shí)現(xiàn)從「陪伴聊天」邁向「獨(dú)立干活」飛躍的橋梁。

性能優(yōu)化

兩個(gè)關(guān)鍵技術(shù)

OpenAI在文章里分享了兩個(gè)硬核優(yōu)化,解決了Agent開發(fā)的兩大痛點(diǎn):

痛點(diǎn)一:成本爆炸

Agent Loop每跑一圈,都要把之前的對話歷史(包括那些冗長的報(bào)錯(cuò)信息、文件內(nèi)容)重新發(fā)給模型。

對話越長,成本越高。如果不優(yōu)化,成本是平方級增長的。

解決方案:PromptCaching(提示詞緩存)

OpenAI采用了一種類似于「前綴匹配」的緩存策略。

簡單來說,只要你發(fā)給模型的前半部分內(nèi)容(System指令、工具定義、歷史對話)沒變,服務(wù)器就不需要重新計(jì)算,直接調(diào)取緩存。


這一招,直接讓長對話的成本從平方級增長降到了線性級。

但這里有個(gè)坑:任何改變Prompt前綴的操作都會(huì)導(dǎo)致緩存失效。比如:

  • 中途換模型

  • 修改權(quán)限配置

  • 改變MCP工具列表

OpenAI團(tuán)隊(duì)甚至在文章里承認(rèn),他們早期的MCP工具集成有bug:工具列表的順序不穩(wěn)定,導(dǎo)致緩存頻繁失效。

痛點(diǎn)二:上下文窗口有限

再大的模型,上下文窗口也是有限的。

如果Agent讀了一個(gè)巨大的日志文件,上下文瞬間就滿了,前面的記憶就會(huì)被擠掉。

對于程序員來說,這就意味著:「你把前面我定義的函數(shù)給忘了?!」

這不僅是智障,更是災(zāi)難。

解決方案:Compaction(對話壓縮)

當(dāng)Token數(shù)超過閾值,Codex不會(huì)簡單地「刪除舊消息」,而是會(huì)調(diào)用一個(gè)特殊的/responses/compact接口,把對話歷史「壓縮」成一個(gè)更短的摘要。


普通的總結(jié)(Summary)只是把長文本變成短文本,會(huì)丟失大量細(xì)節(jié)。

OpenAI的Compaction返回的是一段encrypted_content(加密內(nèi)容),保留了模型對原始對話的「隱性理解」。

這就像把一本厚書壓縮成一個(gè)「記憶卡片」,模型讀了卡片就能回憶起整本書的內(nèi)容。

這讓Agent在處理超長任務(wù)時(shí),依然能保持「智商」在線。

這一次,OpenAI硬核揭秘Codex CLI背后的「大腦」「Agent Loop」,釋放出一個(gè)信號:AI真的是要把活兒給干了。

1個(gè)主庫扛8億用戶

PostgreSQL的極限操作

在大家都在聊AI模型有多牛的時(shí)候,OpenAI悄悄曝光了一個(gè)更勁爆的消息:

支撐全球8億ChatGPT用戶、每秒處理數(shù)百萬次查詢的,竟然只是一個(gè)單一主節(jié)點(diǎn)的PostgreSQL數(shù)據(jù)庫!

只用1個(gè)PostgreSQL主節(jié)點(diǎn)+50個(gè)只讀副本就做到了。


8億用戶,這簡直是在開玩笑!有網(wǎng)友驚嘆。


在分布式架構(gòu)盛行的今天,大家動(dòng)不動(dòng)就是「微服務(wù)」「分片」「NoSQL」。

能用巨型分布式集群解決的問題,絕不用單機(jī)。

結(jié)果OpenAI告訴你:我們就用個(gè)PostgreSQL,照樣扛。


他們是怎么做到的?


根據(jù)OpenAI工程師披露的信息,關(guān)鍵技術(shù)包括:

1. PgBouncer連接池代理 :大幅減少數(shù)據(jù)庫連接開銷

2. 緩存鎖定機(jī)制 :避免緩存穿透導(dǎo)致的寫入壓力

3. 跨地域級聯(lián)復(fù)制 :讀請求分散到全球各地的副本

這套架構(gòu)的核心思想是:讀寫分離,極致優(yōu)化讀路徑

畢竟對于ChatGPT這種應(yīng)用,讀請求遠(yuǎn)遠(yuǎn)多于寫請求。用戶發(fā)條消息,系統(tǒng)可能需要讀幾十次數(shù)據(jù)(用戶信息、對話歷史、配置信息……),但寫入只有一次。

根據(jù)OpenAI官方博客披露,關(guān)鍵技術(shù)包括:

1.連接池代理(PgBouncer)

通過連接池管理,把平均連接建立時(shí)間從50ms降到了5ms。

別小看這45ms,在每秒百萬級查詢的場景下,這是巨大的性能提升。

2.緩存鎖定/租約機(jī)制(CacheLocking/Leasing)

這是一個(gè)非常聰明的設(shè)計(jì)。

當(dāng)緩存未命中時(shí),只允許一個(gè)請求去數(shù)據(jù)庫查詢并回填緩存,其他請求等待。

這避免了「緩存雪崩」——大量請求同時(shí)涌向數(shù)據(jù)庫的災(zāi)難場景。

3.查詢優(yōu)化與負(fù)載隔離

團(tuán)隊(duì)發(fā)現(xiàn)并修復(fù)了一個(gè)涉及12張表連接的復(fù)雜查詢。

他們把復(fù)雜邏輯移到應(yīng)用層處理,避免在數(shù)據(jù)庫里做OLTP反模式操作。

同時(shí),請求被分為高優(yōu)先級和低優(yōu)先級,分別由專用實(shí)例處理,防止「吵鬧鄰居」效應(yīng)導(dǎo)致的性能下降。

4.高可用與故障轉(zhuǎn)移

主庫運(yùn)行在高可用(HA)模式,配有熱備節(jié)點(diǎn)。

讀流量全部分流到副本,即使主庫宕機(jī),服務(wù)仍能保持只讀可用,降低故障影響級別。

天花板終究會(huì)到來

不過,OpenAI也坦言,這套架構(gòu)已經(jīng)碰到了物理極限。問題出在兩個(gè)地方:

PostgreSQL的MVCC限制

PostgreSQL的多版本并發(fā)控制(MVCC)機(jī)制會(huì)導(dǎo)致寫放大(更新一行需要復(fù)制整行)和讀放大(掃描時(shí)需要跳過死元組)。對于寫密集型負(fù)載,這是個(gè)硬傷。

WAL復(fù)制壓力

隨著副本數(shù)量增加,主庫需要向所有副本推送預(yù)寫日志(WAL)。副本越多,主庫的網(wǎng)絡(luò)壓力越大,副本延遲也越高。

為了突破這些限制,OpenAI正在做兩件事:

1. 把可分片的、高寫入負(fù)載遷移到AzureCosmosDB等分布式系統(tǒng);

2. 測試級聯(lián)復(fù)制:讓中間副本向下游副本轉(zhuǎn)發(fā)WAL,目標(biāo)是支持超過100個(gè)副本

這個(gè)案例完美詮釋了一個(gè)架構(gòu)哲學(xué):如無必要,勿增實(shí)體。

不要一上來就搞分布式:先用簡單的方案撐住,撐不住了再說。

很多公司的問題是:還沒到需要分布式的階段,就已經(jīng)把架構(gòu)搞得無比復(fù)雜了。結(jié)果既沒有分布式的好處,還背上了分布式的復(fù)雜度。

OpenAI用實(shí)踐證明:一個(gè)優(yōu)化到極致的單機(jī)架構(gòu),能走得比你想象的更遠(yuǎn)。


Codex VS Claude Code的爭霸賽

Claude Code的殺手锏是什么?是端到端的開發(fā)體驗(yàn)。

它不是一個(gè)簡單的代碼補(bǔ)全工具,而是一個(gè)能在終端里獨(dú)立干活的Agent。

它能讀代碼、改代碼、跑測試、處理Git、甚至自己修Bug。現(xiàn)在甚至還能寫文檔,做PPT。

這直接威脅到了Codex CLI的地位。

OpenAI這波更新,其實(shí)是在說三件事:

第一,我的Agent架構(gòu)更成熟

Agent Loop的公開,展示了OpenAI在Agent架構(gòu)上的深厚積累。這不是一個(gè)臨時(shí)拼湊的產(chǎn)品,而是經(jīng)過精心設(shè)計(jì)的系統(tǒng)。

Prompt Caching、Compaction、MCP工具集成……這些都是實(shí)打?qū)嵉墓こ棠芰Α?/p>

第二,我的基礎(chǔ)設(shè)施更強(qiáng)。

PostgreSQL的案例,展示的是OpenAI的后端能力。8億用戶的規(guī)模,不是隨便一個(gè)創(chuàng)業(yè)公司能玩轉(zhuǎn)的。

這也是在暗示:我們的「護(hù)城河」不只是模型,還有整個(gè)工程體系。

第三,我的模型在變得更強(qiáng)大。

網(wǎng)絡(luò)安全評級的公開,一方面是在做「預(yù)期管理」,告訴大家模型有風(fēng)險(xiǎn),我們在負(fù)責(zé)任地處理。

另一方面,這也是在秀肌肉:我們的模型已經(jīng)強(qiáng)大到需要專門評估網(wǎng)絡(luò)安全風(fēng)險(xiǎn)了。

這場AI編程工具的競爭才剛剛開始。

Claude Code逼迫OpenAI加快了Codex的迭代速度。OpenAI的回應(yīng),又會(huì)倒逼Anthropic繼續(xù)創(chuàng)新。

最終受益的,是我們這些開發(fā)者。

參考資料:

https://openai.com/index/unrolling-the-codex-agent-loop/

https://x.com/gdb/status/2014744842941956606


特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
萬萬沒想到,丁克大半輩子的張鐸,如今在46歲迎來了人生高光時(shí)刻

萬萬沒想到,丁克大半輩子的張鐸,如今在46歲迎來了人生高光時(shí)刻

胡一舸南游y
2026-01-14 13:20:09
福建金店被搶后續(xù):已抓獲是夫妻,曾搜過熔金步驟,更多細(xì)節(jié)曝光

福建金店被搶后續(xù):已抓獲是夫妻,曾搜過熔金步驟,更多細(xì)節(jié)曝光

小李子體育
2026-01-24 12:20:11
秋季發(fā)布!蘋果iPhone Fold售價(jià)或?qū)?.5萬元

秋季發(fā)布!蘋果iPhone Fold售價(jià)或?qū)?.5萬元

泡泡網(wǎng)
2026-01-22 17:22:07
“一坐高鐵就犯困”,12306回應(yīng)車廂二氧化碳濃度超標(biāo)

“一坐高鐵就犯困”,12306回應(yīng)車廂二氧化碳濃度超標(biāo)

中國新聞周刊
2026-01-23 15:54:20
未婚先孕?曝范冰冰現(xiàn)身婦產(chǎn)醫(yī)院,小心翼翼穿著寬松,腹部疑似隆起

未婚先孕?曝范冰冰現(xiàn)身婦產(chǎn)醫(yī)院,小心翼翼穿著寬松,腹部疑似隆起

八卦王者
2026-01-23 15:47:04
一群外國人曾到中國避難,于2003年正式加入中國國籍,他們直言:我是中國人,我為此感到自豪

一群外國人曾到中國避難,于2003年正式加入中國國籍,他們直言:我是中國人,我為此感到自豪

寄史言志
2026-01-09 17:55:10
“和平委員會(huì)”名單公布,19國已簽署,讓中方意外的是普京和巴鐵

“和平委員會(huì)”名單公布,19國已簽署,讓中方意外的是普京和巴鐵

尋途
2026-01-23 05:34:38
胡春華同志出席座談會(huì)!

胡春華同志出席座談會(huì)!

社評
2026-01-23 09:57:12
自民黨議員高呼“萬歲”,石破茂面色嚴(yán)肅、保持沉默

自民黨議員高呼“萬歲”,石破茂面色嚴(yán)肅、保持沉默

觀察者網(wǎng)
2026-01-24 11:12:24
黃金大漲,白銀狂飆!特朗普警告:歐洲若拋售美資產(chǎn),將遭重大報(bào)復(fù)

黃金大漲,白銀狂飆!特朗普警告:歐洲若拋售美資產(chǎn),將遭重大報(bào)復(fù)

證券時(shí)報(bào)e公司
2026-01-24 07:58:32
賽力斯拿下車企第一,華為贏麻了!

賽力斯拿下車企第一,華為贏麻了!

互聯(lián)網(wǎng)品牌官
2026-01-21 18:36:41
1950年,師級首長在成都遭活剝?毛主席拍案而起:116萬土匪,一個(gè)不留!

1950年,師級首長在成都遭活剝?毛主席拍案而起:116萬土匪,一個(gè)不留!

寄史言志
2026-01-07 20:37:09
向太曝馬伊琍已再婚:當(dāng)年文章過不了心理那關(guān)

向太曝馬伊琍已再婚:當(dāng)年文章過不了心理那關(guān)

娛樂看阿敞
2025-12-12 15:50:00
重磅官宣!人民日報(bào)預(yù)熱+足協(xié)聘任,國足主帥坦言與日本差距懸殊

重磅官宣!人民日報(bào)預(yù)熱+足協(xié)聘任,國足主帥坦言與日本差距懸殊

十點(diǎn)街球體育
2026-01-23 22:15:01
沈佳潤用力過猛,為可口可樂拍春節(jié)廣告臉比老爸大,粉底厚像虎妞

沈佳潤用力過猛,為可口可樂拍春節(jié)廣告臉比老爸大,粉底厚像虎妞

鋒哥與八卦哥
2026-01-24 11:42:24
“女碩士患精神疾病走失十余年被找回”案:兩人涉嫌強(qiáng)奸罪被起訴

“女碩士患精神疾病走失十余年被找回”案:兩人涉嫌強(qiáng)奸罪被起訴

大風(fēng)新聞
2026-01-22 22:16:16
故事:左宗棠收復(fù)新疆后,慈禧單獨(dú)召見他:你比曾國藩強(qiáng)在哪?

故事:左宗棠收復(fù)新疆后,慈禧單獨(dú)召見他:你比曾國藩強(qiáng)在哪?

飯小妹說歷史
2026-01-20 09:12:31
越共中央選出新一屆政治局成員,共19人

越共中央選出新一屆政治局成員,共19人

觀察者網(wǎng)
2026-01-23 18:36:08
種種跡象表明,特朗普賭輸了,馬斯克回歸政壇,中國發(fā)布4號公告

種種跡象表明,特朗普賭輸了,馬斯克回歸政壇,中國發(fā)布4號公告

風(fēng)雨與陽光
2026-01-24 14:44:27
91年,林立果未婚妻張寧,看望林豆豆夫婦,合影中張寧漂亮又時(shí)髦

91年,林立果未婚妻張寧,看望林豆豆夫婦,合影中張寧漂亮又時(shí)髦

歷史偉人錄
2024-11-28 12:02:20
2026-01-24 15:20:50
新智元 incentive-icons
新智元
AI產(chǎn)業(yè)主平臺(tái)領(lǐng)航智能+時(shí)代
14398文章數(shù) 66527關(guān)注度
往期回顧 全部

科技要聞

特斯拉Cybercrab即將落地 每公里不到1塊錢

頭條要聞

專家:特朗普或在春天訪問中國 其被認(rèn)為是"對華鴿派"

頭條要聞

專家:特朗普或在春天訪問中國 其被認(rèn)為是"對華鴿派"

體育要聞

當(dāng)家球星打替補(bǔ),他們在故意擺爛?

娛樂要聞

李微漪更新:狼王格林去世,3字淚目

財(cái)經(jīng)要聞

“百年老字號”張小泉遭60億債務(wù)壓頂

汽車要聞

有增程和純電版可選 日產(chǎn)NX8或于3-4月間上市

態(tài)度原創(chuàng)

時(shí)尚
手機(jī)
親子
房產(chǎn)
軍事航空

不一定能掀桌男主,但一定是個(gè)好演員!

手機(jī)要聞

小米17被曝將支持eSIM、vivo X300 Ultra第一季度發(fā)布

親子要聞

女性骨盆持續(xù)縮小——我們正在“進(jìn)化”出更多剖宮產(chǎn)嗎?

房產(chǎn)要聞

正式官宣!三亞又一所名校要來了!

軍事要聞

俄美烏首次三方會(huì)談在阿聯(lián)酋舉行

無障礙瀏覽 進(jìn)入關(guān)懷版