国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

AI季報26Q1:OpenClaw、OpenAI與Anthropic的三重對陣、自進化

0
分享至



Coding→Agent 大主線明細,從模型的競爭到系統(tǒng)的競爭。

訪談丨程曼祺

文丨實習生付自文

從 26 年 Q1 開始,《晚點聊》推出季度總結系列,會分為 AI 季報和具身季報,本文是第一篇 AI 季報播客的文字版。

本期嘉賓是身在硅谷的 MoE Capital 合伙人 Henry Yin。MoE Capital 是一家坐標硅谷的早期 AI VC,專注于 AI 基礎設施、AI-native 應用以及 AI for Science 等方向?!癕oE” 取自 Mixture of Experts,也呼應了基金背后一個由 OpenAI、Anthropic、Google DeepMind 等 frontier labs 研究員構成的專家社區(qū) , 讓基金在早期技術判斷和投后支持上形成了自己的獨特方式。

本期節(jié)目從 OpenClaw 開始聊 Q1 的進展。這個去年 11 月還是周末黑客項目的開源工具,只用了 60 天 ,GitHub 星數(shù)就超過了前端開源庫 React 的 10 年累計,現(xiàn)在周下載量超過 165 萬次。

OpenClaw 的成功刺激了各大 AI 公司的創(chuàng)新,Anthropic 52 天內(nèi)更新了 74 個功能,中國模型廠商則推出針對 OpenClaw 優(yōu)化的模型。產(chǎn)品與生態(tài)的建設成為了新的競爭焦點,AI 算力的重點也從訓練走向推理,即模型在廣泛場景的使用階段。

從 OpenClaw 這個 Agent 創(chuàng)新,我們的總結話題延展到了 Anthropic 的 Claude Code 和 Cowork 與 OpenClaw 的 “相向而行”,以及 OpenAI 和 Anthropic 兩家公司間的三重競爭:公司、產(chǎn)品(coding 產(chǎn)品 Codex vs ClaudeCode) 和最新模型(GPT-5.4 vs Opus 4.6)。所有這一切的快速進展都發(fā)生在過去 3 個月。

在 coding 到通用 Agent 和個人 Agent 這條主線之外,我們也討論了 autoresearch 等項目的 AI 自進化能力,和仍處于探索中的其它方向,如持續(xù)學習和世界模型。

Henry 也分享了,他在硅谷這個 AI 密度最高的地方,感受到的社會情緒變化:科技大裁員。

不管是 Agent 主戰(zhàn)場的快速發(fā)展,還是自進化開發(fā)方式端倪初現(xiàn),26 年第一季度的變化顯示,AI 越來越不只和科技圈相關。

OpenClaw:AI Agent 的 iPhone 時刻

晚點:站在技術進化與應用變革的角度,整個 26 年 Q1 你觀察到了哪些顯著的變化?

Henry:第一是 OpenClaw 的火爆。它是一個開源的個人 Agent 框架,能接入飛書、WhatsApp 、Telegram 等日常辦公和社交軟件,幫用戶執(zhí)行各類任務。這標志著 AI 真正從單純的聊天工具轉(zhuǎn)向了實際的干活工具。它的增長曲線非常快,在 60 天內(nèi),其在 GitHub 上的 Star 數(shù)量就超過了 React(由 Meta 推出的 JavaScript 庫)過去 10 年的積累。

第二是頭部模型廠商的競爭焦點從純模型能力轉(zhuǎn)向了產(chǎn)品與生態(tài)。目前 OpenAI 和 Anthropic 雙方都高度重視編程類產(chǎn)品。目前 Anthropic 的收入增長很大程度上是由 Claude Code 貢獻的。競爭的焦點不再僅僅是 Benchmark(基準測試,衡量模型性能的標準化測試)的跑分,而是構建深層產(chǎn)品生態(tài)。

第三是 AI 的 “自我進化” 將更加貼近現(xiàn)實。最近 Andrej Karpathy(特斯拉前 AI 負責人)在 X 上討論了他的 autoresearch 實驗,即讓 AI 自動優(yōu)化自己的訓練代碼。例如國內(nèi)的 MiniMax 最新發(fā)布的 M2.7 模型,其副標題即為 “自我進化的早期回響”。目前他們約 30% 到 50% 的強化學習研究工作流已經(jīng)由模型自主完成。同時,許多 OpenAI 和 Anthropic 的頂級研究員也開始離職創(chuàng)業(yè),投身 LSI(Learning to Self-Improve ,學習自我改進)領域。

晚點:OpenClaw 在全球 AI 圈非?;?,在中國更是成為了國民級的現(xiàn)象。但在它之前也有很多 Agent ,如 Claude Code、Claude Cowork 和 Manus 等。OpenClaw 與這些 Agent 核心區(qū)別是什么?

Henry:OpenClaw 在技術上不是一個全新的東西,它更多是交互范式的突破。類比來說,它是 AI Agent 的 iPhone 時刻。技術上,它的每一個獨立組件都是之前存在的,包括 LLM 循環(huán)調(diào)用、Tool use(外部工具調(diào)用能力)、記憶功能。這些 Claude Code、Manus 都能做。

但 OpenClaw 做對了幾件事。第一,它跑在本地電腦上。這意味著它能訪問你的文件,擁有系統(tǒng)權限。這既是它端到端完成任務的能力,也是最大的安全風險。第二,它接入了大家常用的聊天 APP ,AI 主動來到你的生活,而不是你去找 AI 。Claude Code 在 Terminal(終端界面)里面跑,非常面向開發(fā)者。Manus 這種云端 agent(云端代理)則只能接收你給它的信息,但 OpenClaw 通過聊天軟件的分發(fā),真正把 AI 帶到了所有人身邊。再加上定時任務和長期記憶,它會給人一種越用越懂你的感覺。

晚點:OpenClaw 的開發(fā)者 Peter Steinberger 是一位來自奧地利的獨立開發(fā)者。為什么這樣一個創(chuàng)新來自個人開發(fā)者,而不是像 Anthropic 這種深耕 Agent 很久的公司?

Henry:可以參考當年的 Devin ,它是第一個提出 AI Soft Engineer(人工智能軟件工程師)概念的產(chǎn)品。剛發(fā)布時其實不太好用,但為大家指明了方向。這種燈塔效應往往是沒有歷史包袱的個人或初創(chuàng)公司創(chuàng)造的。大公司的優(yōu)勢在于產(chǎn)品化和跟進速度,像 Claude Code 最近就上線了很多新功能向 OpenClaw 靠攏。

晚點:你自己會用 OpenClaw 做什么?周圍朋友用得多嗎?

Henry:我試用一周后就卸載了,因為我的工作流主要在 Claude Code 上。但我有朋友非常喜歡它。他認為權限完全放手后的回報可以達到 10 倍。比如他用 OpenClaw 掃描所有消息,可以自動創(chuàng)建日歷事件,或者生成大量群聊的消息摘要。此外還有價格監(jiān)控、旅行規(guī)劃、通過冰箱照片更新購物清單等。不過,這需要投入不少時間把工作流跑通,普通人可能沒法很快用得這么舒服。

晚點:這種場景確實是結合移動端才比較方便。如果是一個電腦本地或 Web 的產(chǎn)品,用手機拍完冰箱照片再傳就太繁瑣了。

Henry:確實。對于 Claude Code 用戶來說,手機拍完照還得 AirDrop 到電腦再扔進終端,步驟太多。

晚點:OpenClaw 在中國和美國的熱度有差異,前不久,《哈薩比斯:谷歌 AI 之腦》作者馬拉比來中國宣傳新書時提到,美國的 10 次對話,9 次都不會提到 OpenClaw,而在中國,所有人都問他怎么看 OpenClaw。為什么有這種區(qū)別?

Henry:可能有幾個原因:一是用戶習慣了微信這種聊天優(yōu)先的產(chǎn)品;二是國內(nèi)使用 Claude Code 等應用限制較多,開源選項更火;三是中國用戶可能對成本更敏感,剛好 OpenClaw 和國產(chǎn)模型的組合性價比極高。最后,“小龍蝦” 這個名字也非常好。

晚點:在國內(nèi),OpenClaw 非常出圈,甚至有付費上門安裝的服務。在美國,非技術群體比如設計師或銷售人員會也用它嗎?

Henry:暫時還沒有。設計師目前還是用 Figma Make(自然語言驅(qū)動的 UI 自動化生成引擎)、Google Stitch(端到端的設計與開發(fā)協(xié)同工具)更多;銷售人員,有些會用 Claude Cowork 來自動化一些流程。在美國擴散到更多工作群體的主要是 Anthropic 的產(chǎn)品。

晚點:剛才你也提到了 OpenClaw 和中國開源模型的結合。在 OpenRouter(大模型接口聚合平臺)上能看到 Token 消耗量最多的主要是中國模型,比如階躍、MiniMax、Kimi、智譜,還有小米的新模型,都上榜了。

Henry:嗯,便宜是核心。Peter 最早也用 Claude ,但他被 Anthropic 封了。隨后就轉(zhuǎn)向了 MiniMax ,發(fā)現(xiàn)成本只有 Claude 的 5% ,于是就公開安利。大家算了一下發(fā)現(xiàn)之前如果用 Claude 訂閱需要每月 200 刀,換成 MiniMax 以后每個月就只需要 15 刀了。Agent 場景需要頻繁調(diào)用模型,中間成本差距非常大。(注:OpenRouter 更反映個人和中小開發(fā)者的使用情況,只能作為整體 Token 消耗的參考。)



晚點:排行榜上還有一個新模型 Trinity large Preview ,它背后是一家美國的公司,叫 Arcee AI。

Henry:這家公司在邁阿密,規(guī)模約 30 人。他們從零訓練了一個 400B 的稀疏 MoE(混合專家模型),上榜 OpenRouter 主要是因為預覽期完全免費。但在社區(qū)評價中,它的好評度不如 Kimi 或智譜的模型。

OpenClaw 已經(jīng)形成了一個生態(tài),產(chǎn)生了一個模型廠商的戰(zhàn)場:哪個模型在這個 Agent 場景下跑得好,而且便宜,就能吃到這一波巨大的流量。

晚點:中國的一些公司的動作非???,比如智譜甚至剛剛推出了專門面向 OpenClaw 場景優(yōu)化的 GLM 5 Turbo。

Henry:在這個方面,我已經(jīng)看到了有不少身邊朋友的創(chuàng)業(yè),做一些小的專用模型來服務 OpenClaw 生態(tài)。

晚點:這種創(chuàng)業(yè)能持續(xù)嗎?有最強大模型的公司,也沒道理不擁有最強的小模型。

Henry:如果能在這個生態(tài)里打出品牌,可以被大公司收購。這是比較硅谷的一種創(chuàng)業(yè)思路,這里收購更頻繁。

晚點:目前 OpenClaw 還有哪些不足?

Henry:主要有三點:貴、穩(wěn)定性、安全性。貴還是指復雜任務的調(diào)用次數(shù)很多,成本依然很高。

關于安全,MSL(Meta 超級智能實驗室)的對齊負責人分享過一個 “恐怖片” 故事:他把 OpenClaw 接入 Gmail 整理郵箱,要求執(zhí)行操作前必須詢問確認。聽起來很安全,但因為郵件太多,上下文窗口撐爆了,開始自動壓縮總結,把 “必須確認” 的指令弄丟了。結果 Agent 開始瘋狂刪郵件,他就在手機上打字阻止,但在 Agent 在 Loop 里無視了請求,最后他不得不沖到電腦前拔網(wǎng)線。哪怕是 MSL 的對齊負責人,也會遇到這樣的安全問題。

這也說明了現(xiàn)在 AI 在長時間工作中反而會變笨,因為上下文有限,長任務中重要指令會被壓縮、丟棄。當前的模型其實沒有真正的長期記憶,所以這也是為什么持續(xù)學習是非常重要的研究方向。

晚點:那業(yè)界有什么完善體驗的努力嗎?

Henry:OpenClaw 正在進行一些安全加固的版本更新,包括通過執(zhí)行 Sandbox(一種用于安全隔離運行程序的受限軟件環(huán)境)防止運行危險代碼、在運行環(huán)境里面插入一些安全環(huán)境變量、驗證 Webhook(網(wǎng)絡鉤子)簽名、提供密碼管理的 CLI(命令行界面)等。

針對上下文壓縮的問題,社區(qū)也出現(xiàn)了 lossless-claw 的無損壓縮插件。此外還有多 Agent 協(xié)作插件和 Skill 市場 Claw Hub 的改進。

SaaS 受 Agent 沖擊的本質(zhì)是 “工程師紅利” 普及;Claude 52 天 74 更新,黃雀在后

晚點:關于 OpenClaw ,有一個討論很多的話題是它對傳統(tǒng) SaaS 的沖擊,甚至有一種很極端的說法,認為 SaaS 已死。你之前創(chuàng)業(yè)也做過 SaaS,怎么看 SaaS 接下來的變化?

Henry:這個問題放在中國語境里看更容易理解。很多創(chuàng)業(yè)者都知道,在國內(nèi)做 SaaS 一直很難。背后的邏輯是:很多大廠自己養(yǎng)得起程序員,需要軟件,完全可以自己寫。結果就是,很多原本想做 SaaS 的公司,最后慢慢都做成了咨詢公司或外包公司。

現(xiàn)在同樣的事情正往全球范圍擴散。大量 AI coding agent 出現(xiàn),本質(zhì)就是在提供一種低成本程序員的能力。現(xiàn)在美國企業(yè)也發(fā)現(xiàn),我需要一個軟件,未必要一年花幾十萬美金買各種現(xiàn)成產(chǎn)品,可以直接讓模型做。

未來很多傳統(tǒng) SaaS 公司可能還會存在,但它們的 margin(利潤率)會明顯下降。只有當你的服務價格跟自建成本相比還算合理,或只是略高一點,用戶才會繼續(xù)買單。

晚點:所以 AI coding agent 讓工程師紅利從中國蔓延到全世界,讓全球信息軟件市場變得更像中國市場。

Henry:大家就都進入 hard 模式。

晚點:你前面提到 OpenClaw 像燈塔一樣指明了個人 AI Agent 的方向。現(xiàn)在大公司也有了更多動作,如英偉達在 GTC 2026 上推出 NemoClaw(英偉達的企業(yè)級 AI 代理平臺),Anthropic 也在頻繁更新。你覺得接下來會進入什么樣的局面?

Henry:OpenClaw 是燈塔但肯定不是終點。大公司各有打法,英偉達的策略是把 OpenClaw 加上企業(yè)級安全層,通過 YAML(Yet Another Markup Language ,一種常用于配置文件的計算機語言)文件控制 Agent 的數(shù)據(jù)、API 和網(wǎng)絡訪問權限,并加入審計追蹤。

Anthropic 確實在快速迭代,52 天內(nèi)發(fā)了 74 個功能,很多都在向 OpenClaw 靠攏。比如加入 Telegram 和 Discord 頻道下達指令、支持手機遠程操控電腦、上線 Computer use(計算機使用,使 AI 能夠像人一樣操作鼠標、鍵盤的功能)以及定時任務。他們還推出了 Dispatch,相當于常駐 AI 管家功能,可自主協(xié)調(diào)多個代理工作。至于 OpenAI ,雖然 Peter 加入了,但目前動靜不大,可能是精力過于分散,他們內(nèi)部也意識到這點了。

晚點:現(xiàn)在業(yè)界有一種聲音,認為 Anthropic 正在 “殺死比賽”,它在 Agent 領域的積累非常深厚。從實際體驗來看,你覺得 Claude Code 、Claude Cowork 與 OpenClaw 對比,誰更勝一籌?

Henry:從開箱即用的體驗來說,Claude Code 和 Claude Cowork 肯定比 OpenClaw 好。但它們針對的是不同用戶群:Claude Code 是專業(yè)程序員的 “深水區(qū)” 工具;OpenClaw 則是面向大眾的 “淺水區(qū)” 入口;Claude Cowork 介于兩者之間。Anthropic is killing the game 的說法是有一定道理的。

晚點:這像是一種相向而行。Anthropic 從專業(yè)場景切入再擴大受眾,而 OpenClaw 一開始就接入了社交軟件,交互上的打擊面非常廣。但它原始版安裝很繁瑣,國內(nèi)像 MiniMax 和 Kimi 做了云端版本,不過我試用后發(fā)現(xiàn)云端似乎存在記憶問題,它記不住我上周聊過的事情。

Henry:云端版本的局限是無法訪問你的本地生態(tài),這是 OpenClaw 的核心價值。比如作為蘋果用戶,它能直接訪問我的 iMessage 和 Notes,這在我用 OpenClaw 的那一周是很新奇的體驗。

晚點:其實對大量工作文檔和流程在飛書這類 All in One 辦公平臺的人,它和 OpenClaw 結合已經(jīng)能解決很多需求了。

OpenAI vs Anthropic 的三重競爭

晚點:Anthropic 系列產(chǎn)品的強勁表現(xiàn)背后,一個關鍵問題是,Anthropic 和 OpenAI 的競爭。你的整體觀察是什么?

Henry:這個季度是關鍵節(jié)點。Anthropic 已經(jīng)從一個受人尊敬的技術挑戰(zhàn)者,變成了 OpenAI 同等地位的對手。這種轉(zhuǎn)變的核心驅(qū)動力不是模型能力而是產(chǎn)品力的領先。

我們看到這個季度,Anthropic 的增速非常瘋狂。從絕對數(shù)字看,2025 年 12 月他們的 ARR(年度經(jīng)常性收入)還是 90 億美元,但到 2026 年 3 月初就沖到了 190 億美元,基本上過去兩個月增長了 100 億美元。相比之下,OpenAI 在 2025 年底的 ARR 是 214 億美元,2026 年 2 月只增長到 250 億美元。

關鍵差異在于,Anthropic 約 75% 的收入來自 B2B 的 API 服務。Claude Code 已經(jīng)是開發(fā)者界的殺手級應用,在 26 年 2 月的 ARR 達到 25 億美元,已經(jīng)超過了 Cursor 同期的 20 億美元 。

晚點:說到 Cursor ,很多深度用戶最近都轉(zhuǎn)投了 Claude Code 。Cursor 的競爭力受到了何種挑戰(zhàn)?

Henry:長期來看 Cursor 的窗口在收窄。雖然短期內(nèi)還有從 GitHub copilot 遷移過來的增量市場,但 Claude Code 增速太快。Cursor 最大的護城河還是海量的高質(zhì)量工程軌跡數(shù)據(jù),如果不能利用這些數(shù)據(jù)快速提升模型能力,它的優(yōu)勢會被侵蝕。

晚點:OpenAI 的 Codex 對標 Claude Code 競爭力如何,還有背后兩家公司在一季度正式發(fā)的新模型,3 月的 GPT-5.4 和 2 月的 Opus 4.6。

Henry:Opus 4.6 支持 100 萬上下文,能連續(xù)工作 15 小時而不丟失目標。然后它在 Terminal bench 2.0(智能體在終端境下解決復雜任務的基準測試)也是拿到了最高分。GPT-5.4 在 OSworld(評估智能體在真實操作系統(tǒng)環(huán)境中執(zhí)行任務能力的基準測試)上達到了 75% 的成功率,超過了人類。

體感上,Codex 純寫代碼能力會強一些,但在交流和意圖理解上不如 Claude Code 聰明。 Dylan Patel 在推特上開玩笑說 Codex is a retarded kid who's been trained super well(Codex 就像一個被訓練得非常好的弱智小孩),現(xiàn)在很多開發(fā)者的做法是讓 Claude Code 當 “主人” 負責規(guī)劃,讓 Codex 當 “奴隸” 負責執(zhí)行具體的代碼讀寫和 Review(代碼審查)。OpenAI 現(xiàn)在也想補齊產(chǎn)品力,讓 Codex 的交互體驗追上來。

晚點:這種差異是怎么造成的?

Henry:Anthropic 在這方面的積累更深。Benchmark 只能描述一部分性能,但開發(fā)者實際使用體驗才是關鍵。Anthropic 針對 coding 做了更全面的優(yōu)化,他們更理解開發(fā)者的實際工作流。

OpenAI 的模型能力沒問題,他們的 Research 團隊非常強,但在產(chǎn)品感覺尤其是 ToB 領域稍弱。Peter 加入 OpenAI 是一個信號,說明他們意識到需要補齊產(chǎn)品力的短板。

對比兩家公司,OpenAI 的優(yōu)勢在于龐大的 C 端用戶基礎,ChatGPT 有極強的分發(fā)能力,且資金充足。但劣勢是注意力太分散,什么都想做,包括 API 、各種企業(yè)服務,還有 Sora ——雖然他們剛把 Sora 關閉了。而 Anthropic 極為聚焦,主要精力就放在編程和企業(yè)用戶上。

晚點:你了解到的 OpenAI 接下來會有哪些應對動作?他們有可能趕上來嗎?

Henry:OpenAI 內(nèi)部已經(jīng)在反思。3 月中旬,其應用負責人 Fidji 在全員會上說 “We can not miss this moment,becasue we're distracted by side quests.”(公司不能因為被支線任務分心而錯過當前最重要的時刻)現(xiàn)在他們開始減少像 Atlas 瀏覽器、廣告以及電商集成等項目的投入,將資源投向 coding 和生產(chǎn)力的企業(yè)服務領域。

接下來 Anthropic 面臨的主要風險就是 OpenAI 的反撲。如果 OpenAI 能真正實現(xiàn)聚焦,戰(zhàn)斗力還是非常強的。另外,Google 正在將 AI 深度集成進 Google Suite( Google 辦公套件,包含 Gmail 、文檔、云盤等工具),它的分發(fā)能力可能是這幾家公司中最強的。

晚點:前面說了 OpenAI 和 Anthropic。在美國,xAI 也是大家比較關注的公司。這個季度它有哪些變化?

Henry:這個季度對 xAI 來說是一個比較災難性的季度,團隊震蕩很大,有不少 co-founder 級別的人物離職,比如張國棟、戴自航。

晚點:這波離職背后的原因是什么?這些人后面都去了哪兒?

Henry:一部分人會去別的 AI lab,另一部分人會自己創(chuàng)業(yè),只是現(xiàn)在還處在 Stealth Mode(水下狀態(tài))。

一個比較重要的背景原因是去年 12 月 Claude Opus 新模型發(fā)布之后,整個行業(yè)對 coding 能力和 coding agent 的更重視了。但 Grok 自己的模型訓練進展不是特別順,應該是給內(nèi)部帶來了很大壓力。

xAI 其實現(xiàn)在也在瘋狂從其他 lab 挖人、收購創(chuàng)業(yè)公司。但新團隊搭起來還需要時間磨合,才能真正形成生產(chǎn)力。接下來一段時間,xAI 要追趕其他公司比較難了。

晚點:Google 這一季度除了 Gemini 3.1 這種小的模型迭代,還有哪些值得關注的變化?

Henry:只看模型這一季度的動向確實不算特別多。Gemini 的 Veo 這類生成式模型有一些更新,但整體上沒有特別大動作。

但從產(chǎn)品視角看,能發(fā)現(xiàn)在 Chrome 里,不管是獲取信息,還是做一些網(wǎng)頁內(nèi)的自動化,Gemini 的調(diào)用變得更自然了。然后像 Gmail、Google Sheets、Google Slides 這些核心辦公產(chǎn)品,也都集成了 AI 。

晚點:所以這幾家核心 AI 公司的競爭焦點已經(jīng)從模型能力轉(zhuǎn)向了應用和生態(tài)?

Henry:沒錯,下一階段競爭的關鍵不再是誰的模型更聰明,而是產(chǎn)品生態(tài)的深度。目前 GPT 5.4 、Opus 4.6 以及 Gemini 3.1 的能力差距正在收斂,Benchmark 不再是核心差異點。

接下來的真正競爭維度會是開發(fā)者生態(tài);其次是企業(yè)的信任感,涉及安全、合規(guī)與可靠性;最后是推理成本,在這一塊擁有數(shù)據(jù)和 TPU(專為機器學習定制的處理器)計算優(yōu)勢的 Google 可能會做得更好。此外,誰能率先在持續(xù)學習或 Recursive Self Improvement(遞歸自我改進)上取得突破,誰就能引領下一個時代。

晚點:你現(xiàn)在說的是御三家(OpenAI 、Anthropic 、Google)的模型能力正在收斂。但如果把視野放寬,算上很多中國公司發(fā)的新模型和即將發(fā)布的 DeepSeek V4,整體看,下一階段 AI 模型競爭焦點在哪里?

Henry:現(xiàn)狀是編程代理即通用代理,全行業(yè)都在 All in 編程方向。如果一個模型的 coding 能力不行,它就沒法做個人助理這種任務。然后雖然 Benchmark 的差距在縮小,但實際體感差距依然很大?,F(xiàn)在 100 萬 Token 的長上下文和長程任務處理能力已經(jīng)成了 Q1 的標配。

晚點:這些改進似乎都是為了服務 Agent 場景。那如果一家公司沒有自己的產(chǎn)品觸手,比如 DeepSeek 這樣目前更聚焦做模型的公司,能做好這種面向場景的改進嗎?

Henry:這有點像互聯(lián)網(wǎng)泡沫時期的思科,當時它是很優(yōu)秀的公司,但后來被 “商品化” 了,成了沒有差異化的基礎 “水、電、煤”。模型廠商如果只做模型,也可能面臨這種風險,所以現(xiàn)在的趨勢是從底層模型到上層應用的垂直整合。廠商需要產(chǎn)品作為觸手,去感知用戶需求,從而確定優(yōu)化方向。

而且現(xiàn)在 Benchmark 已經(jīng)很難代表真實的終端用戶體驗了。各家公司擁有自己的產(chǎn)品,本質(zhì)上是取代了 Benchmark 來提供明確的優(yōu)化目標。如果沒有這些真實的使用反饋,單純靠實驗室數(shù)據(jù)去尋找路徑會變得非常困難。

晚點:用戶實際使用中,對模型迭代有用的信息可能很稀疏,具體可以怎么提煉呢?其實大部分用戶的提問和任務都觸達不到模型的能力上限了。

Henry:確實在很多場景下,模型的智能已經(jīng)溢出了。Databricks 做過一個 OfficeQA ,測試文檔解析、召回和推理能力。結果發(fā)現(xiàn)推理部分都沒問題,失敗大多發(fā)生在文件解析和信息召回環(huán)節(jié)?,F(xiàn)在需要解決這些基礎流程問題,這就是為什么需要自有產(chǎn)品來收集真實的 “軌跡數(shù)據(jù)”。

回到具體的優(yōu)化手段,前段時間 Anthropic 指責其他廠商在做蒸餾(將大型模型的知識遷移到更小、更高效模型的技術)。其實大家都在通過購買和篩選用戶實際使用頂級模型產(chǎn)生的軌跡數(shù)據(jù),提取出高質(zhì)量的決策過程,再進行持續(xù)預訓練(在現(xiàn)有模型基礎上利用特定領域數(shù)據(jù)進一步提升性能的過程)。

晚點:Q1 還有件事討論度很高。大家發(fā)現(xiàn) Cursor 新模型背后其實是用了 Kimi 的 K2.5,但它一開始并沒有明確提這件事。按照行業(yè)里的慣例,如果你基于一個開源模型做自研,通常會把來源說清楚。你怎么看這場討論?

Henry:我覺得第一,作為一家美國頭部的 AI agent 產(chǎn)品公司,Cursor 選擇在中國開源基模上做微調(diào),再把它放進核心產(chǎn)品里,這對中國開源模型來說是一個非常強的認可。

第二,這件事里 Cursor 的處理也很有意思。本身已經(jīng)是很大的公司了,又處在高估值融資階段,結果卻在開源模型使用和 License(開源許可條款)上出了一個低級錯誤。照理說,在開始訓練之前,就應該把 PR 、合規(guī)處理想清楚。

晚點:你覺得 Cursor 是不是也有地緣政治上的顧慮?畢竟它是一家美國公司,而 Kimi K2.5 雖然是開源模型,但畢竟來自中國公司。

Henry:我覺得地緣政治不是最核心的因素,之前也有大公司比如 Airbnb ,明確說在使用中國模型。更大的顧慮可能是被大家質(zhì)疑自研能力和競爭力。

當然兩邊后續(xù)都處理得挺體面的。Kimi 官方?jīng)]有指責 Cursor,而是強調(diào)自己很高興 Cursor 選擇了 Kimi K2.5 作為基礎,也希望未來看到更多和開源生態(tài)的合作。Cursor 后來也比較快承認了問題,補充說明了他們?yōu)槭裁磿x擇 Kimi,以及他們后續(xù)在這個模型上做了哪些工作。總體看,這還是再次說明中國開源模型已經(jīng)做得非常好了。

autoresearch 展現(xiàn)自進化潛力

晚點:前面你提到 Q1 有一個非常令人興奮的進展,就是 Andrej Karpathy 發(fā)起的 autoresearch 實驗。這聽起來像是 AI 在進行自我遞歸迭代。你能簡單解釋下這是個什么項目嗎?

Henry:這個項目的背景是 Andrej 之前做的一個教學項目 Nanochat(用于演示大模型訓練原理的極簡代碼庫)。它用幾百行 Python 代碼就能練出一個 GPT 2 級別的小模型。

他在這個基礎上搞了 autoresearch:讓一個 AI Agent 比如 Claude Code 去反復修改 Nanochat 的訓練代碼,優(yōu)化訓練流程。系統(tǒng)里有一個人類寫的 Program.md 作為方針,AI 根據(jù)這個方針去讀代碼、做改進、跑 5 分鐘訓練、看結果、再循環(huán)。就像一個永不疲倦的博士生,兩天下來,AI 在沒有人類干預的情況下,自主找到了 20 多個有效改進,把訓練時間壓縮了 20% 左右。

晚點:為什么這個項目會在 2026 年初突然火起來?它可能會帶來什么改變?

Henry:很多人都覺得 AI 自我優(yōu)化是 AGI 路上的一個圣杯,這個想法不新,但時機最近才熟。一年前 Google 內(nèi)部就在嘗試 Model lineage map(模型譜系圖,一種記錄模型演化路徑的有向無環(huán)圖),讓 AI 預測下一個研究方向,但當時模型能力不夠。

這一年多 Codex 、Claude Code 的能力提升。然后之前 Google 發(fā)布了 AlphaEvolved(由 Gemini 驅(qū)動、自動發(fā)現(xiàn)和優(yōu)化算法與代碼的項目)論文,展示了用 Gemini 優(yōu)化自身內(nèi)核并提升了 23% 的性能;GPT 5.3 Codex 參與了自我調(diào)試;還有 MiniMax 發(fā)布的 M2.7 ,也是自我進化。這些案例密集出現(xiàn),加上 Andrej 的實驗,讓大家重新意識到 AI 的自我改進可能就要發(fā)生了。

晚點:這意味著人類研究員會被替代嗎?但它自己并不能解決優(yōu)化方向的問題。

Henry:AI 會慢慢具備這種能力,但目前它還只能在既定的搜索空間里進行有效搜索。具體搜哪個空間還是由人類研究員來定。如果搜索空間太大,AI 還是容易把代碼不可逆地改爛。

晚點:autoresearch 發(fā)布后,有人嘗試將其應用在軟件開發(fā)領域。比如 Shopify 的 CEO Tobias ,他們用類似方法優(yōu)化模板引擎,經(jīng)過 93 次自動提交,渲染速度提升了 53% 。這方面是否有比較多的應用前景?

Henry:這取決于是否有清晰且可量化的優(yōu)化目標。對于 Shopify ,渲染速度是一個非常明確的指標,且有快速的反饋循環(huán)。相比之下,大多數(shù)工程問題缺乏干凈的優(yōu)化目標,且面臨安全審查和可解釋性的問題。目前這種模式只適合性能優(yōu)化、Kernel(計算核函數(shù))編寫、數(shù)據(jù)庫查詢以及基礎設施調(diào)優(yōu)等領域。我室友的公司曾嘗試讓 Devin 和 Claude Code 做一個網(wǎng)頁的黑夜模式,跑了一小時也沒成功。因為視覺效果的優(yōu)劣需要人眼主觀判斷,AI 目前還無法準確感知按鈕顏色在深色背景下是否舒服。

晚點:autoresearch 這套方法跟大家討論的持續(xù)學習和自進化很相似。它們之間有什么聯(lián)系?這些方向現(xiàn)在有什么進展嗎?

Henry:持續(xù)學習旨在解決大模型在部署后權重固定、無法獲取新知識的問題。目前主要有兩個路徑:一種是基于文本的 “窮人版” 持續(xù)學習,即利用記憶機制或 Skill(賦予 AI 特定執(zhí)行能力的指令包)實現(xiàn)。這種方式易讀、易于調(diào)整,但會受到上下文壓縮導致信息損失。

另一種則是更前沿的權重更新,比如斯坦福大學孫禺實驗室研究的 TTT(Test Time Training ,在模型推理階段根據(jù)當前輸入動態(tài)調(diào)整模型權重的技術)。它試圖在每次推理時都更新模型的一小部分權重,這聽起來非常高級,但對底層基礎設施的要求很高。目前它僅在幾個 Billion 參數(shù)的小模型上驗證了可行性,能否 scale up 到萬億參數(shù)規(guī)模還有待驗證。

晚點:那么自進化又是如何定義的?

Henry:自進化與 autoresearch 的關系更緊密。它是指 AI 形成一個閉環(huán),能夠自主思考如何改進自身并付諸實現(xiàn)。比如 Sakana AI(一家受生物學啟發(fā)的人工智能實驗室)開發(fā)的演化算法。這種自進化系統(tǒng)可以將研究員從繁瑣的實驗執(zhí)行中解放出來,專注于更高層級的方向設定。

晚點:在這些方向上,你看到了哪些新的創(chuàng)業(yè)機會?

Henry:目前有不少垂直領域的初創(chuàng)公司。比如 Thinking Machines Lab 研發(fā)的工具 Tinker 支持 LoRA RL(一種允許在同一套基礎設施上并行運行和管理多個強化學習的技術),這在為大規(guī)模的個性化定制鋪路。還有公司嘗試從 MoE 模型中精煉出專門負責學習能力的小模型。他們認為大模型中只有少數(shù) “專家” 負責學習,如果能將這部分能力抽離出來作為個人助理的基座,它學習主人偏好的速度會非常快。另外,也有人嘗試將 Andrej Karpathy 的單 Agent 實驗擴展為多 Agent 的并行協(xié)作模式。

晚點:世界模型應該也是目前很多公司在探索的重要方向,你觀察到了哪些創(chuàng)業(yè)公司的進展成果嗎?

Henry:這個方向的創(chuàng)業(yè)公司確實很多。比較為人熟悉的有李飛飛老師創(chuàng)立的 World Labs ,他們側重于 3D 空間的建模;還有謝賽寧 和 Yann LeCun(楊立昆)做的 AMI 公司,延續(xù) Yann LeCun 提倡的 JEPA(聯(lián)合嵌入預測架構,重點在于通過預測潛空間表征而非像素來學習世界)路徑;然后 Google 原 Dreamer(通過在學習到的世界模型中進行想象來訓練策略的強化學習算法)團隊的負責人 Daniel Hafner 也出來創(chuàng)業(yè)了,他的方向更偏向 Policy(指智能體在給定環(huán)境下如何采取動作的決策函數(shù)),試圖將視頻信息與 Robotics(機器人學)結合。

另外還有一家新公司,創(chuàng)始人是 Auto-regressive DiT (自回歸擴散 Transformer)和 Self-forcing(用于解決視頻生成暴露偏差的訓練技術)的作者,他們主攻環(huán)境模擬和 Interactive Video Model(交互式視頻模型:能夠根據(jù)用戶輸入實時生成后續(xù)視頻幀的模型)。這種模型與 Daniel 研究的策略方向互為鏡像。此外,NVIDIA 也在探索物理引擎與世界模型的結合

晚點:這種探索方向未來更多是用于機器人和具身智能嗎?

Henry:我認為主要針對兩個應用領域。一是交互式媒體,比如探索新的游戲范式,實現(xiàn)實時生成的世界,根據(jù)玩家行為做出反饋。二是具身智能,無論是開發(fā)機器人的 Policy 還是構建模擬環(huán)境,世界模型都能有效加速機器人能力的進化閉環(huán)。

算力全面轉(zhuǎn)向推理,Agent 也需要 CPU

晚點:2026 年 Q1 英偉達召開了 GTC 大會發(fā)布了一系列新產(chǎn)品,同時也分享了他們在算力基礎設施層的新思路。在最近整個第一季度的算力市場中,你覺得有哪些特別值得關注的動向?

Henry:大家的共識是主題從訓練向推理的轉(zhuǎn)向。目前 Vera Rubin 體系結構(英偉達發(fā)布的新一代 AI 基礎設施平臺)推理性能提升了 3 ~ 5 倍,推理 Token 的成本可能降低了 10 倍。這對需要大規(guī)模部署個人助理、消耗大量 Token 的場景非常有利。另外,英偉達在 2025 年 12 月收購的 Groq(一家專注于 LPU 架構的半導體初創(chuàng)公司)也派上了用場,其 LPU(Language Processing Unit,一種專為大語言模型推理設計的計算架構,以高吞吐量和低延遲著稱)被集成到了新的 Rubin 架構中。

然后就是最近 Google 發(fā)布了一項工作 TurboQuant,通過優(yōu)化 KV Cache(鍵值緩存,在大模型推理中通過存儲已生成的鍵值對來避免重復計算,是提升推理速度的關鍵),將存儲需求壓縮至原來的 1/6 。我判斷推理優(yōu)化仍有巨大的空間,當市場壓力足夠大時,大家就會找新方法進一步降低推理成本。

晚點:你認為這種趨勢會讓英偉達更無敵,還是會給其他公司帶來機會?

Henry:英偉達目前的地位已經(jīng)非常高了,股價也趨于穩(wěn)定。但我認為整個推理的上下游,從芯片到 Infra 仍有很大空間。今年 Agent 的運行帶動了大量的推理需求,CPU 需求也會提升。整個生態(tài)系統(tǒng)依然有廣闊的前景。

晚點:CPU 在 Agent 里的作用是什么?

Henry:目前有一個趨勢:一切都在計算化?,F(xiàn)在電腦里的 Agent 能夠自主開啟不同的 Sandbox 去執(zhí)行各種任務,比如模型寫完代碼后需要去執(zhí)行,而運行這些代碼、處理任務調(diào)度都是 CPU 干的活。所以 CPU 最近也出現(xiàn)了一個很大的增長曲線。

硅谷科技大裁員,未來要給 token 收稅?

晚點:最后想聊聊 Q1 的大裁員現(xiàn)象。硅谷大公司的裁員動作非常激進,Meta 、Amazon 甚至 Oracle 都有龐大的計劃。你身在硅谷,感受到的真實情況是怎樣的?

Henry:今年初的情況確實比較可怕。首先是 Amazon 裁了 16000 人,其中很多是工程師。接著是支付巨頭 Block 的 CEO Jack Dorsey 宣布裁員 40% ,他明確指出原因是 AI 提升了效率,公司可以用更少的人實現(xiàn)同樣的產(chǎn)出。

最有意思的是 Meta 。他們之前讓全員停工一周專門學 AI ,管理層甚至把每個團隊的 Token 消耗量作為效率指標。學習結束后,扎克伯格宣布裁員 20% ,約 15000 人。省下的錢被直接投向 AI 的 CapEx(資本支出),預計 AI 投資將增加到 650 億美金。這波裁員潮找工作的難度可能比疫情時期還要大。

晚點:在這種背景下,大家該如何應對?

Henry:我覺得現(xiàn)在大家都要考慮一下創(chuàng)業(yè)。AI 加強了每個個體的能力,以前需要一個團隊才能做出的產(chǎn)品,現(xiàn)在一個人加 AI 就能完成。小團隊也會成為主流,只要有 5 個特別厲害的人配上 Agent ,就能跑通一個創(chuàng)業(yè)公司。

晚點:最近你和一些被投企業(yè)交流,有觀察到 AI 的發(fā)展給企業(yè)用人和組織架構帶來了哪些實際變化?

Henry:最明顯的感受是全員 AI native(從初創(chuàng)階段就將 AI 作為核心驅(qū)動力和基礎設施的企業(yè)或產(chǎn)品邏輯)。無論什么崗位,對 AI 工具的使用能力已成為面試重點。然后對于成長較快的創(chuàng)業(yè)公司,雖然人效很重要,但現(xiàn)階段搶占時間窗口的優(yōu)先級更高??傮w上,招聘更偏向質(zhì)量而非數(shù)量,因為一個擅長使用 AI 的頂尖人才,效率遠超傳統(tǒng)的堆人模式。

晚點:我也發(fā)現(xiàn)一些中國創(chuàng)業(yè)公司的 CEO 雖不會在明面上談論裁員,但內(nèi)心很受沖擊:過去需要幾個人干的活,現(xiàn)在 AI 能完成很大一部分了。以前的模式是 “一流人才+二流人才” 搭配完成任務,現(xiàn)在的思路是花重金聘請 “超一流人才+agent” 搭配。公司總人數(shù)在減少,但用人成本并非跟著線性下降,因為公司更愿意為那些有想法、能發(fā)揮工具價值的人才支付溢價。

Henry:這很像電影《2012》里的洪水場景,你所處的海拔就是你的技能高度,越高越安全。一旦被淹沒,就意味著被 AI 取代。

晚點:最近有沒有什么具體的案例,讓你感覺到這種變革發(fā)生得比預想中快?

Henry:有一個 Claude 原生律所(Claude-native Law Firm)的案例。某個客戶要求他們在一天之內(nèi)修改合同的多個條款,并且第二天一早提交修改后的合同。按以前這是需要整個律師團隊通宵達旦才能完成的工作量,但他們通過云端工具來進行合同條款的分析,發(fā)現(xiàn)了很多對方條款里的沖突,并 pushback(反對)對方的提議,最終在 2-3 小時內(nèi),兩個律師就完成了工作。

晚點:不過律師不僅是處理文檔,還需要處理人脈和檢察系統(tǒng)等復雜關系。這種 AI 暫時還挺難替代的。

Henry:沒錯,搞人的工作目前是最安全的。

晚點:除了裁員,硅谷最近還在關心什么技術帶來的社會影響或變化嗎?

Henry:灣區(qū)的房價。大家在猜測未來房價會發(fā)生 Barbell(啞鈴型)變化。一方面,大批普通軟件工程師可能因裁員付不起按揭,導致 100 萬至 300 萬美元的剛需房降價;另一方面,OpenAI 或 Anthropic 的頂尖研究員拿著幾千萬甚至上億美元的 Package ,會導致千萬美元級別的豪宅漲價。

晚點:這聽起來非常賽博朋克,摩天大樓旁是貧民窟。

Henry:AI 目前確實是一個高度中心化的事情,它給資源和能力強的人帶來了巨大的增幅,也增大了社會不平等。最近有一個新思路是征收 Token 稅。就像公司招人要交社保和人頭稅一樣,如果你無限制地消耗計算資源、運行大量 Token 來取代人工,那么除了算力成本,你可能還需繳納額外的稅金。

晚點:給 token 收稅,這讓 AI 更像人了。

Henry:這個邏輯很自然。就像支持 MAGA 的人認為制造業(yè)外流是因為外國人搶了工作卻不交稅;未來如果 AI 搶了所有人的工作卻不交稅,那通過對 Token 消耗征稅可能是未來的一個自然進化方向。

晚點:如果看接下來一個季度到半年,你最期待或認為比較確定會發(fā)生的事情是什么?

Henry:比較確定的事情是 DeepSeek V4 會在下一個季度發(fā)布。這個模型現(xiàn)在的關注度很高,大家也等得比較久,所以預期已經(jīng)被拉得很高。問題是它否還能像之前那樣震驚大家。從最近各家發(fā)布的工作和論文來看,整體競爭明顯更激烈了,DeepSeek 的領先幅度可能在收窄,在這種情況下,要顯著超出預期,難度不小。

然后我比較期待 computer use 方向,尤其是 Computer Use Benchmark(模型在電腦環(huán)境中執(zhí)行操作任務能力的基準測試)。目前最先進的模型在這方面的表現(xiàn)還很低,大概只有百分之十幾的水平。如果這個方向能有突破,比如模型可以在沒有 API 的情況下,直接跨應用完成任務,那就能更好地自動化工作流。

晚點:有沒有什么是你不太確定,但特別想驗證的事情?

Henry:持續(xù)學習和遞歸自我改進到底什么時候能真正落地吧。

最近我寫過一篇相關的博客,也和不少研究員討論過,包括我們 MoE Labs 也組織過相關的討論。大家比較一致的看法是:現(xiàn)在的方法有點過度工程化,也就是太復雜了。比如 Test Time Training 這類方法,本質(zhì)上是在嘗試讓模型具備更原生的學習能力,但實現(xiàn)路徑比較重。大家更期待一種機制上更簡單,但效果同樣甚至更好的方案。但目前來看,還沒有人真正找到那個最優(yōu)解。

題圖來源:電影《極速車王》

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
749局退休人員口述:外星人真實存在,我在秦嶺深處親眼見過一次

749局退休人員口述:外星人真實存在,我在秦嶺深處親眼見過一次

千秋文化
2026-04-09 15:56:25
30國幫手已到,日艦艇進臺海,不到24小時,中方一句話滅高市威風

30國幫手已到,日艦艇進臺海,不到24小時,中方一句話滅高市威風

溫讀史
2026-04-19 01:07:58
湖人棄將19+6斷登全美熱搜!多次生斷庫里致湖媒后悔 年薪僅234萬

湖人棄將19+6斷登全美熱搜!多次生斷庫里致湖媒后悔 年薪僅234萬

顏小白的籃球夢
2026-04-18 13:23:57
“見過最廉價的兜底”,一份山姆燒雞,讓低認知母子淪為全網(wǎng)笑柄

“見過最廉價的兜底”,一份山姆燒雞,讓低認知母子淪為全網(wǎng)笑柄

妍妍教育日記
2026-04-15 09:30:09
1936年,孫科為討新歡藍妮開心,狠心拋棄懷孕的秘書嚴藹娟

1936年,孫科為討新歡藍妮開心,狠心拋棄懷孕的秘書嚴藹娟

古書記史
2026-01-27 00:38:02
鎮(zhèn)店之寶不再保密!莫氏雞煲創(chuàng)始人累到想休息,公開全部配方

鎮(zhèn)店之寶不再保密!莫氏雞煲創(chuàng)始人累到想休息,公開全部配方

大魚簡科
2026-04-15 19:49:23
廣東人請客吃飯,為什么從不當眾說“我買單”?

廣東人請客吃飯,為什么從不當眾說“我買單”?

西莫的藝術宮殿
2026-04-18 09:44:38
封鎖霍爾木茲海峽后,美釋放雙重信號

封鎖霍爾木茲海峽后,美釋放雙重信號

環(huán)球網(wǎng)資訊
2026-04-16 07:14:52
我干了50年風水師,我發(fā)現(xiàn)真正能改變命運的,只有三個字

我干了50年風水師,我發(fā)現(xiàn)真正能改變命運的,只有三個字

千秋文化
2026-04-04 21:29:57
花了1萬5和梅根合照,結果梅根卻對著粉絲大倒苦水:我生活真難?。?>
    </a>
        <h3>
      <a href=花了1萬5和梅根合照,結果梅根卻對著粉絲大倒苦水:我生活真難?。?/a> 英國那些事兒
2026-04-18 23:20:17
澳大利亞前總理:美國扮演國際秩序的“破壞者”是有意為之

澳大利亞前總理:美國扮演國際秩序的“破壞者”是有意為之

北青網(wǎng)-北京青年報
2026-04-18 17:04:03
局面嚴峻,高市接到中方消息,自衛(wèi)隊剛闖入臺海,解放軍依法處置

局面嚴峻,高市接到中方消息,自衛(wèi)隊剛闖入臺海,解放軍依法處置

荷蘭豆愛健康
2026-04-19 00:46:58
“臺球皇帝”亨德利鄭重表態(tài):趙心童世錦賽衛(wèi)冕無需被克魯斯堡魔咒束縛

“臺球皇帝”亨德利鄭重表態(tài):趙心童世錦賽衛(wèi)冕無需被克魯斯堡魔咒束縛

海闊山遙YAO
2026-04-19 00:38:33
尷尬!湖北一美女稱隔壁男子塞紙條索要微信,結果她直接掛網(wǎng)上了

尷尬!湖北一美女稱隔壁男子塞紙條索要微信,結果她直接掛網(wǎng)上了

火山詩話
2026-04-18 14:42:35
遼寧下賽季難有調(diào)整!老將變老,小將無成長,幾乎沒調(diào)整空間!

遼寧下賽季難有調(diào)整!老將變老,小將無成長,幾乎沒調(diào)整空間!

籃球資訊達人
2026-04-19 01:00:36
季后賽開拓者對陣馬刺,楊瀚森能獲得出場機會嗎?答案或許很傷人

季后賽開拓者對陣馬刺,楊瀚森能獲得出場機會嗎?答案或許很傷人

愛體育
2026-04-18 23:15:01
Sora負責人離職

Sora負責人離職

財聯(lián)社
2026-04-18 07:24:06
慘!某運營商21省政企收入未達標,開局就崩?

慘!某運營商21省政企收入未達標,開局就崩?

林子說事
2026-04-18 21:07:21
洪秀柱和鄭麗文完全不是一路人!

洪秀柱和鄭麗文完全不是一路人!

果媽聊娛樂
2026-04-15 08:52:10
“谷雨不補,入夏受苦”,周一谷雨,記得多吃“三寶”,養(yǎng)肝祛濕

“谷雨不補,入夏受苦”,周一谷雨,記得多吃“三寶”,養(yǎng)肝祛濕

江江食研社
2026-04-18 17:55:03
2026-04-19 04:51:00
晚點LatePost
晚點LatePost
晚一點,好一點。商業(yè)的真相總是在晚點?!锻睃cLatePost》官方賬號
3165文章數(shù) 21918關注度
往期回顧 全部

科技要聞

傳Meta下月擬裁8000 大舉清退人力為AI騰位

頭條要聞

伊朗革命衛(wèi)隊向油輪開火 伊朗最高領袖發(fā)聲

頭條要聞

伊朗革命衛(wèi)隊向油輪開火 伊朗最高領袖發(fā)聲

體育要聞

時隔25年重返英超!沒有人再嘲笑他了

娛樂要聞

劉德華回應潘宏彬去世,拒談喪禮細節(jié)

財經(jīng)要聞

"影子萬科"2.0:管理層如何吸血萬物云?

汽車要聞

奇瑞威麟R08 PRO正式上市 售價14.48萬元起

態(tài)度原創(chuàng)

親子
教育
家居
健康
手機

親子要聞

退燒藥怎么用?90%家長都搞錯了

教育要聞

“抱歉,我們只看第一學歷”,985碩士面試被拒,考研還有必要嗎

家居要聞

法式線條 時光靜淌

干細胞抗衰4大誤區(qū),90%的人都中招

手機要聞

榮耀600系列參數(shù)、外觀全曝光

無障礙瀏覽 進入關懷版