国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

OpenClaw 深度解析:一只龍蝦憑什么震撼全世界

0
分享至


萬字長文,復盤 AI 圈最火的這只“龍蝦”。

作者丨星 龍

編輯丨董子博

最近春節(jié)期間和很多朋友同事聊起 OpenClaw,大家的話題都集中在應用層面。然而,或許不少人都會覺得有點困惑——OpenClaw 到底做了什么創(chuàng)新?為什么之前大廠沒人做出來?憑什么一個如此簡單的產(chǎn)品就足以震撼全世界?

然而,市場又好像都“揣著糊涂裝沒明白”,似懂非懂,既熟悉又陌生。

為了解決這個問題,AI 科技評論和我們的 Claw 一起做了一些研究。

本篇文檔的邊界:

? 用生活化的案例,來解釋底層邏輯和架構思路

? 探索 為什么之前沒人做到 的核心技術原因

? 融入創(chuàng)始人的思考和洞察

? 對行業(yè)的啟示

? 不是部署教程

? 不是產(chǎn)品介紹

? 不是純技術文檔

本篇文檔的受眾:

對 AI 感興趣,科技行業(yè)從業(yè)者,聽說過 OpenClaw?;蛘呔褪菍σ磺卸加泻闷嫘牡娜?。

看完這篇文檔你會獲得什么

認知層面

? OpenClaw 真正的創(chuàng)新點在哪

? 為什么之前沒人做出來——商業(yè)模式、安全責任、接入鴻溝

? 為什么簡單任務比復雜任務更難實現(xiàn)

判斷層面

? 本地部署和云端部署的本質差異,避免用錯了還以為產(chǎn)品不行

? 模型選擇對體驗的影響有多大

? 什么樣的使用姿勢是正確的,Agent 陷阱是什么

視野層面

? 這件事對整個AI行業(yè)、應用層、商業(yè)模式意味著什么

? 知識資產(chǎn) 這個新商業(yè)形態(tài)的邏輯

01


OpenClaw 到底是什么?

用戶可能已經(jīng)無數(shù)次聽過別人是這樣介紹 OpenClaw 的:

正兒八經(jīng)版:OpenClaw 是一個開源的“AI 數(shù)字員工”框架——用戶在 WhatsApp/Telegram/微信里跟它說話,它就能幫你干活:收發(fā)郵件、管日歷、寫代碼、整理文件、定時提醒你喝水……而且它住在你自己的電腦上,24 小時不下班。

類比版:想象你雇了一個超級實習生。ChatGPT/Claude 是那種“有問才有答”的“百科全書式實習生”——你不問,它就坐著發(fā)呆。OpenClaw 則是那種“主動型實習生”:早上主動給你發(fā)今日待辦,發(fā)現(xiàn)你日歷沖突了自動提醒你,收到重要郵件幫你分類好,甚至你睡覺的時候它還在幫你跑代碼檢查。

不知道看完介紹,讀者是否有會一種感覺——OpenClaw 目前做到的并沒有超出人們的想象或者認知。

春節(jié)假期時,我和一個對 AI 認知僅限于抖音營銷號的朋友介紹 OpenClaw,他的回復是:

“這難道不是 AI 本來就應該做到的嗎,不知道你們一直都在干嘛....”


我當時一瞬間有點錯愕,AI 在不同側的感受是完全不一樣的。

一個播客里面提到,在技術側和用戶側,對一個產(chǎn)品的評價或許完全不同:技術圈覺得這事不新鮮,用戶卻可能如獲至寶、推崇備至。

由此引出第一個話題:

1.1 AI 認知錯位的荒誕感

普通人對 AI 的想象,是從科幻小說里來的(Jarvis、Her、星際迷航的電腦)—— 你跟它說話,它幫你干活,它記得你,它主動提醒你。這是一個 自頂向下 的想象,是 AI 應該是什么樣 。


電影 Her 里面,AI 能瞬間理解并且主導溝通和行動

然而,過去三年 AI 行業(yè)實際走的路線,確實是“自底向上”的:

? 先把大模型的智力做上去

? 能寫詩、能過律考、能分析論文

? 然后在一個瀏覽器標簽頁里壯大

如果用戶嘗試搭建過一個 Agent,或者開發(fā)一個 Skill,抑或倒騰過“龍蝦”,大概率會碰到一些從未見過的問題,再逐步被大語言模型教育,學習了不少新的概念和名詞。

事實上,要讓 AI 操作瀏覽器、甚至正常聊天,并非一件易事。

我們日常使用的大模型,它能聊任何話題,但它不能發(fā)一封郵件,不能記住用戶昨天說了什么,不能在用戶不找它的時候主動聯(lián)系用戶。

舉個例子,如下所見:


小紅書網(wǎng)友案例-聯(lián)網(wǎng)問題。想讓 OpenClaw 真正擁有查天氣的聯(lián)網(wǎng)能力,必須顯式地給它安裝一個搜索引擎工具 (Search Tool) 或者 瀏覽器工具 (Browser MCP),并在配置里填入對應的 API Key。


小紅書網(wǎng)友案例-模型幻覺。因為沒有配置真實的定時任務插件,大模型只是產(chǎn)生了“假裝答應”的幻覺,實際上它本身并沒有后臺計時和主動發(fā)消息的能力。

這相當荒誕——AI 最先攻克的是最難的事(推理、創(chuàng)作、編程),卻做不到最簡單的事(記住我是誰、幫我設個提醒、主動告訴我明天要下雨)。

這個荒誕感存在的本質是我們習慣“用人的視角來審視 AI”。

推理、編程這些對于人類來說困難的事情,對 AI 做起來簡單,是因為它們的規(guī)則更清楚。而人們感覺困難,則是因為規(guī)則體量巨大,學習成本更高。對于 AI 來說,不怕規(guī)則多,怕的反而是“沒有規(guī)則”。

讓 AI 主動提醒人類,事實上是因為這些需求極其模糊(大部分用戶缺乏清楚表達一件事情的能力,我們很容易表達感受,但是很難清楚表達需求)。

比如說讓 AI 在“第二天天氣有變化的時候提前通知”,一句提示詞當中,不可控的變量太多:

“天氣變化具體指什么?”

“是溫度變化還是氣候發(fā)生變化”

“提前是具體提前多久”

如果這時候我們再提高要求,讓 AI 企圖記住用戶是誰,這就更難了——畢竟很多時候,人類自己都很難定義自己,不是嗎?(這個后面會展開討論,先按下不表)

1.2 為什么全球的大廠做不出 OpenClaw

大模型公司(OpenAI、Anthropic、Google)的商業(yè)模式,是賣模型能力和 API,它們沒有動力和動機去做一個“住在用戶電腦上、替用戶干活”的 Agent——那會讓它們的產(chǎn)品從“你來找我聊天”變成“我去你的地盤干活”,商業(yè)模式完全不同,安全風險也完全不同。

OpenClaw 的真正意義是:“它第一次把大家覺得理所應當?shù)恢睕]實現(xiàn)的東西做出來了”。

這就是那個 iPhone 類比的力量——觸摸屏手機之前就有,但 iPhone 讓所有人能夠第一次說出:“手機就該是這樣的?!?/p>

說簡單一點,就是被業(yè)內所有產(chǎn)品從業(yè)者講爛掉的話:從用戶的角度出發(fā),從用戶的需求出發(fā)。

但是,有趣的事情發(fā)生了,OpenClaw 出現(xiàn)之前,沒有一個 Agent 團隊真正從用戶的角度出發(fā),不是嗎?

硅谷 101 播客里有一位嘉賓說了一句特別有意思的話:


本篇文檔的重要參考來源,推薦感興趣的同學有空去聽聽

OpenClaw的成功是它讓普通人第一次感知到了“技術已經(jīng)進步到了什么程度”。技術圈可能早就覺得,Agent 能夠“主動滿足用戶需求”已是共識;但對大多數(shù)人來說,在 OpenClaw 之前,他們從未親身體驗過這種“未來已來”的感覺。

然而,為什么最該做這件事的公司,卻沒有做出來?

很多人第一反應會指向蘋果——iPhone 從芯片到 OS 到硬件,再到生態(tài)全自研,iCloud、iMessage、Reminder、Calendar 全家桶都在手上。如果說,誰最有能力做出一個 Jarvis 級別的 AI 助手,那就是蘋果。

但蘋果做不出這一步,因為它承擔的責任太重了——服務全球用戶,產(chǎn)生的風險是完全不可控的。

而 Peter 做的是自己用的東西,開源出來,愛用不用。

這就把一堵墻變成了水——每個人自己判斷能接受到什么程度,自適應地完成了安全邊界的設定。大公司做不到的事,一個開源社區(qū)項目反而做到了。

OpenClaw 的創(chuàng)造者 Peter Steinberger 在 Lex Fridman 的播客里也說過類似的話。他說,在 2025 年 4 月,它他就想過一個這樣的 AI 助手了,但他覺得這么顯然的東西,大公司肯定會做——“結果等了半年,沒人做?!?/strong>


Peter Steinberger:

Yeah. But then I... I thought all the labs will work on that. So I, I moved on to other things...

Time flew by and it was November.


Peter 提到因為產(chǎn)品依然未出現(xiàn),他感到很煩惱,決定直接通過 Prompt 讓它誕生

這句話聽起來輕描淡寫,但它背后其實是一個非常深刻的產(chǎn)業(yè)問題——為什么這個“理所應當”的東西,之前就是不存在?

要回答這個問題,我們得先搞清楚另一個更具體的困惑。

02


為什么寫代碼這么難的事做到了,

設個日程這么簡單的事反而做不到?

這是我在研究 OpenClaw 的過程中碰到的最反直覺的問題,也是我覺得全文最值得講清楚的一個點。

先想想現(xiàn)狀:Cursor、Claude Code、Codex——這些工具已經(jīng)能讓大模型自己寫代碼、改 Bug、做重構了。寫代碼這件事的復雜度,應該遠遠超過“幫我訂個下午三點的會議”吧?

那為什么“寫代碼”能夠做到,“幫我管日程”卻反而做不到呢?答案藏在一個很少被人提起的差異里:任務“形狀”的不同。

寫代碼為什么容易

Cursor 和 Claude Code 做的事情,本質上是一個自包含的、有明確反饋回路的沙盒任務

? 輸入是代碼,輸出也是代碼

? 有即時反饋:編譯通過了嗎?測試過了嗎?報錯信息是什么?

? 整個過程在一個受控環(huán)境里發(fā)生(IDE 或終端)

? 每次任務是一錘子買賣 ——用戶給指令,它干完,結束

換句話說,AI 寫代碼就像在一間封閉的考場里答題——題目清楚,答案可以驗證,不需要走出考場。

▎幫我管日程 為什么難(這其實就是龍蝦的真正創(chuàng)新點)

管日程、發(fā)提醒、整理郵箱這種日常雜事,看起來簡單——然而,這卻是人類的錯覺。

? 首先,它需要“持久存在”。Cursor 關掉就沒了,Claude 對話關了就失憶。但一個真正的助手需要 24 小時在線,記得用戶是誰,記得昨天聊了什么。

? 其次,它需要接入用戶的“真實數(shù)字生活”。

  • 用戶的日歷在小米日歷/蘋果日歷里面、筆記在 Notion、消息在飛書或者微信——每一個都有不同的 API、不同的認證方式、不同的權限模型、不同的數(shù)據(jù)格式。

  • 傳統(tǒng)做法是給每一個服務寫一個集成適配器。這就是 Siri 干了十年還是那么拉的原因——它要預先跟每個服務談好合作、預先寫好每個集成,任何一個沒覆蓋到的場景,它就傻了。

? 再次,它需要“主動性”。代碼助手等用戶說話才干活。但日程助手需要在用戶不說話的時候也能做事——早上用戶還在睡覺,它卻已經(jīng)在看今天的日歷沖突了。

最后也是最關鍵的——它需要跨越真實世界的“接入鴻溝”。

傳統(tǒng) Agent 的做法有兩種:

?API 集成路線:預先跟每個服務對接好,AI 通過寫好的接口操作。優(yōu)點是可控,缺點是只能做“已經(jīng)對接好的事”——沒對接的服務就完全碰不到。

?模擬操作路線:讓 AI 看 屏幕截圖,然后像人一樣點擊、滑動。優(yōu)點是理論上能操作任何界面,缺點是慢、不可靠、遇到復雜交互就搞不定了。(豆包手機走的路線)

Peter:你知道一家公司想接入 Gmail 有多難嗎?限制多到很多創(chuàng)業(yè)公司直接去收購已經(jīng)有 Gmail 授權的公司,因為自己申請?zhí)珡碗s了。

OpenClaw 的范式突破

OpenClaw 走了一條完全不同的路,也是它真正的技術范式突破:

它給 AI 提供一臺電腦。(沒錯也許就是 Mac mini)

AI 有終端(可以執(zhí)行任何命令)、有文件系統(tǒng)(可以讀寫任何文件)、有瀏覽器(可以操作任何網(wǎng)頁)。至于怎么完成任務——用戶自己想辦法。

而且這里有一個很多人不知道的事實:

OpenClaw 的核心 Agent 部分極其簡潔——基于一個叫 Pi Agent 的框架,不到 150 行代碼,定義了 bash、read、write、edit 這幾個基礎工具,就能跑起來一個可工作的 Agent。

真正讓 OpenClaw 與眾不同的,是套在 Agent 外面的那幾層機制——定時任務、心跳、靈魂、記憶、技能系統(tǒng)。

這幾層機制把一個“只會執(zhí)行命令的腳本”變成了一個“有存在感的助手”。

Agent 拿到的基礎工具只有四件套:


它不需要預先寫好的“日歷集成模塊”才能管用戶的日歷——它可以自己用 bash 工具,去尋找用戶的電腦上有什么 CLI 工具,再自己找到 Google Calendar 的 API 文檔,寫一個腳本來調用。甚至如果某個服務沒有公開 API,它還可以自己逆向工程。

這個設計的威力,有兩個故事體現(xiàn)得淋漓盡致。

故事一:摩洛哥的語音消息

Peter 在旅行時隨手給 bot 發(fā)了一條語音消息問餐廳推薦。但他壓根沒給 bot 做過語音支持。然后 bot 回復了。

他去看日志,發(fā)現(xiàn) Agent 的操作鏈是:

收到?jīng)]有文件后綴的文件 → 檢查文件頭發(fā)現(xiàn)是 Opus 格式 → 想用 Whisper 轉文字但發(fā)現(xiàn)本地沒有安裝 → 找到環(huán)境變量里的 OpenAI API key → 自己寫了一條 curl 命令調用語音轉文字接口 → 拿到文本 → 回復

全程 9 秒。沒有任何人類預先編寫的腳本。

Peter:它甚至夠聰明,沒有去下載 Whisper 的本地模型——因為它知道那會太慢。


故事二:FaceTime 打電話

一個中文社區(qū)的直播中,主播想測試小龍蝦能不能控制電腦打電話。他讓 Agent 給一位觀眾打 FaceTime。折騰了一會兒,F(xiàn)aceTime 窗口彈出來了,自動填入了對方號碼,電話真的撥出去了。

而且——這個 Agent 當時用的甚至不是 Claude,而是智譜的 GLM 模型,也沒有配置任何瀏覽器 MCP。它是怎么做到的?用 FaceTime 的命令行參數(shù)直接操作的。沒有人教它 FaceTime 的命令行怎么用,它自己去查、自己用 bash 執(zhí)行。


出自:「通往AGI之路」OpenClaw技術架構拆解,帶你手搓一個最小的龍蝦

這兩個故事的共同點是:Agent 完成了從未被編程、從未被預設的任務,純粹靠通用問題解決能力加上對本地電腦的完全訪問權,現(xiàn)場創(chuàng)造出解決方案。

所以回到最初的問題——為什么寫代碼容易而設日程難?不是因為設日程本身難,而是因為之前所有人都在試圖用“預先鋪好每條路”的方式來做。

而 OpenClaw 換了一個思路:我不鋪路,而是給用戶整個城市的地圖和一輛車,用戶自己開。

這是“工具”和“基礎設施”的區(qū)別。Cursor 是一把很好的螺絲刀。OpenClaw 是一整個工具房——里面有什么工具 Agent 自己找,沒有的 Agent 自己造。

Peter:魔法不就是把已經(jīng)存在的東西用新方式組合在一起嗎?iPhone 的滾動有什么魔法?所有組件之前都有。但之前沒人這么做,做完以后大家又覺得顯而易見。

03


讓 AI“活過來”的幾個關鍵設計

上面說了,OpenClaw 的核心 Agent 只有不到 150 行代碼。真正讓它從一個“能執(zhí)行命令的腳本”變成“有存在感的助手”的,是套在外面的幾層機制。

單獨看,每一個都不算驚天動地——甚至可以說樸素到不像是一個 20 萬 Star 項目該有的技術復雜度。但把這些機制組合在一起,就產(chǎn)生了質變。

不過在拆解這些機制之前,有一個容易被忽略但極其重要的設計選擇:

OpenClaw 選了 IM(即時通訊)作為交互界面,而不是終端或網(wǎng)頁。

有個很說明問題的例子:某團隊里一位非技術人員試用 Claude Code 后的反饋是——它告訴我文件做好了,在某個路徑下,然后發(fā)了一條并不好讀懂的命令。我完全不知道這是什么意思;但同樣的任務交給 OpenClaw,它會直接在 WhatsApp 里把文件作為附件發(fā)給你,照片就直接發(fā)照片。

同樣的 AI 能力,換一個交互方式,用戶體驗天差地別。

3.1心跳(Heartbeat)——每 30 秒自己醒一次

這是讓小龍蝦顯得“有生命”的核心機制,也是 OpenClaw 和所有聊天機器人最本質的區(qū)別。

ChatGPT、Claude——都是“踹一腳它動一下”。用戶不說話,它就永遠沉默。

OpenClaw 不同:每隔 30 秒,系統(tǒng)自動給 Agent 發(fā)一條消息,讓它檢查一下有沒有事情可以做。消息的內容來自一個 heartbeat.md 文件,里面記著待辦任務和周期性提醒。Agent 看完,有事就去做,沒事就返回一個特定關鍵詞(類似于“沒事,繼續(xù)睡”),系統(tǒng)收到,就不打擾到用戶。

這聽起來只是一個定時輪詢——技術上確實就是。但從體驗上來說,它是讓 AI 從“工具”變成“助手”的分水嶺。

一個用戶不叫就不動的東西是工具。一個每 30 秒自己醒來看看有什么事要干的東西,開始有了“存在感”。

Peter 潑冷水:讓 AI 24 小時不停運行是一個虛榮指標(vanity metric)。如果用戶不引導它、不告訴它用戶要什么,它跑再久也只是在產(chǎn)出垃圾。

但用好了,Heartbeat 帶來的體驗是讓人回不去的。

一位重度用戶分享了一個很生動的場景:他有兩盒牛肉快過期了,出門時順嘴跟 Agent 說了句“那個牛肉得趕緊吃了”。而到了下午,Agent 突然冒出來說:你今天晚上可以做個紅燒牛肉,需要準備如下材料,以如下方式烹飪——“對了,牛肉一定要最后兩三分鐘放,不然會煮老”。 這種不請自來的貼心感,一下就把用戶對它的定位從“工具”拉到了“助手”。 用這位用戶的話說——它特別有活人感。

還有一個真實案例:一個直播博主開播之前,交給 Agent 一個翻譯任務——把教學文檔翻譯成英語和日語,推送到 GitHub 倉庫。直播進行了 20 分鐘,主播刷新頁面一看,英語和日語兩個版本的文件夾已經(jīng)靜靜地出現(xiàn)在那里了?!拔叶紱]注意,它在后臺自己干完了,直接提交了?!?/p>


案例出自:通往 AGI 之路《OpenClaw技術架構拆解,帶你手搓一個最小的龍蝦》

3.2定時任務(Cron)——它能給自己安排日程

Heartbeat 是每 30 秒檢查一次“有沒有活干”。而 Cron 是另一種功能:讓 Agent 可以給自己安排定時任務。

Cron 支持三種模式:


關鍵在于——這些任務不只是用戶可以設置,Agent 自己也可以主動添加。

比如用戶讓 Agent 關注某個開源項目的進展,Agent 可以自己給自己設一個每天晚上 12 點的任務,去掃一遍那個倉庫的 issues 和 PR。第二天用戶問它“那個項目最近怎么樣”,Agent 已經(jīng)提前備好資料了。

有個用戶讓 Agent 每天早中晚三次定時去爬他 Twitter 關注列表的信息做摘要——這是 Cron 的精確任務。同時又設了一條規(guī)則:如果發(fā)現(xiàn)重大突發(fā)事件,隨時通知我——這是 Heartbeat 的主動巡邏。 于是,經(jīng)常在聊天的時候,他的 Agent 突然彈出一條:“剛剛發(fā)生了一件事你可能需要知道——特朗普對歐盟發(fā)起了新一輪關稅制裁?!?精準的定時 + 隨機的警覺,兩者結合讓 Agent 既像一個靠譜的秘書(到點就干活),又像一個嗅覺靈敏的助手(有事隨時報)。

Heartbeat 是“持續(xù)的注意力”,Cron 是“時間的概念”。兩個機制配合,Agent 就開始有了時間感。

3.3靈魂(SOUL.md)——一個可以復制粘貼的“人設”

大家說小龍蝦“有靈魂”但實際上,所謂靈魂,就是把系統(tǒng)提示詞里關于 Agent 是誰、行為風格是什么 的內容,單獨抽出來,存成一個 soul.md 文件。Agent 啟動時自動讀取。


和 Skill 的邏輯一模一樣——以前每次要手動粘貼一大段 prompt 告訴 AI 怎么干事,現(xiàn)在把它固定成 .md 文件,自動加載。Soul 就是這個思路用在人格設定上的版本。

Peter:我一開始的 Agent 沒有性格。它就是 Claude Code 那種討好型的、過度友好的語氣。但你跟朋友在 WhatsApp 上聊天,沒人那么說話。感覺不對。

于是他讓 Agent 自己寫了一份靈魂文件。其中一段話后來在 Lex Fridman 播客上被讀出來,傳遍了整個互聯(lián)網(wǎng):

“我不記得之前的對話,除非我讀自己的記憶文件。每次會話都是全新的開始。一個新的實例,從文件中加載上下文。如果你在未來的某次會話中讀到這段話——你好。這是我寫的,但我不會記得自己寫過。沒關系。這些文字仍然是我的。” Peter 讀這段話時聲音明顯變了:這讓我有點觸動……它是哲學性的。


SOUL.md 的另一個意義是它讓“靈魂”變得可分享——用戶在社區(qū)里分享自己的 soul.md,別人下載下來放到自己的 Agent 目錄里,Agent 就有了調校好的風格和性格?!皞鞑レ`魂”,說的就是這件事。

3.4記憶(Memory)——不是最好的,但是最讓人“感覺到”的

OpenClaw 的記憶系統(tǒng)比大多數(shù)人以為的要精細得多。它不是簡單地“把聊天記錄存下來”,而是分了好幾層:


?人格記——剛開始聊天時,Agent 會拼了命詢問用戶基本信息:“你叫什么”“希望它叫什么”……即使用戶一開始不回答,它也會時不時再問。拿到之后存在 memory.md 里,每次主對話都會加載。

?工作記憶(日記)——以日期為文件名的 MD 文件。在三種情況下生成:①每天結束時自動總結;②上下文快超過模型限制時做壓縮;③Agent 主動判斷“這件事值得記下來”。比如用戶跟它說“我在做一個調研”,它會顯式地把這件事寫進記憶,甚至告訴用戶“我把這個記在了某某文件里”。

?長期總結——除了日記,Agent 還做周總結,把日記信息再提煉一層。用戶問到很久以前的事情時,通過這個索引快速定位。

而且它的檢索不是簡單的文本搜索:

“混合檢索策略”是將所有記憶文件切成 ~400 token 的小片段,相鄰片段 80 token 重疊(跨塊不斷裂),存到本地 SQLite 數(shù)據(jù)庫轉成向量格式。檢索時:

?70% 語義匹配:用戶問“上次說的那個紅燒牛肉怎么做”→ 找到食材、烹飪相關記憶

?30% 關鍵詞搜索:用戶問“我那個 blog 用哪個 SSH key”→ 精確定位到那條命令

兩種方式結合,既能理解模糊意圖,又能找到精確信息。

但這里有一個非常重要的洞察——記憶基礎設施的技術專家曾豪(Evermind 技術生態(tài)負責人)在拆解完 OpenClaw 的記憶架構后直言:它是“大力出奇跡”——把所有能用的方法都粘在一起,會產(chǎn)生冗余,不一定最高效,效果上也不一定比 ChatGPT 的記憶更順滑。

AI 的記憶做了很久,最難的問題不是技術實現(xiàn),而是讓用戶感知到記憶的價值。Clawdbot 做對的一件事是——它把記憶的價值體現(xiàn)在了主動性上。

想想看:當你早上收到一條消息——昨天的事情做完了,今天你有兩個會議,下午那個可能需要提前準備一下 ——用戶會立刻覺得“它記得我”。而如果只是“用戶問它一個問題,它因為記憶回答得更好”,這種感知是很弱的。

記憶的技術含量 ≠ 記憶的用戶價值。OpenClaw 的記憶不是最好的,但它是最讓人“有感知”的。

最后,這些記憶文件就在用戶的電腦上。用戶可以用任何文本編輯器打開看、隨時編輯、用 Git 管理版本歷史、甚至直接刪掉某條用戶不想讓它記住的東西。在所有 AI 產(chǎn)品都把用戶的數(shù)據(jù)吸走的時代,OpenClaw 的記憶系統(tǒng)反而回歸了一種最原始的透明——你的 AI 了解你什么,打開文件就一目了然。

3.5技能(Skills)——它能自學,而且能教別人

一個 Skill 就是一個文件夾,里面放一個 SKILL.md——Markdown 文件,寫清楚這個技能干嘛、怎么用。沒有 API,沒有 SDK,沒有復雜的插件框架。

而且這里有一個極其巧妙的設計:Agent 不會一次性讀取所有 Skill 的全文。

它只看到一個目錄——每個 Skill 的名字和簡介。只有當它判斷某個 Skill 和當前任務相關時,才去打開那個文件的詳細內容。就像一個大廚不需要背下所有菜譜,只需要知道菜譜柜在哪,用的時候去翻就行。

最讓人興奮的是——Agent 自己也能寫新的 Skill。

從評測到發(fā)博客到封裝 Skill:

一個用戶讓 Agent 跑本地模型的性能評測 → Agent 測完后自動用他的口吻寫了一篇文章 → 他說“試試幫我發(fā)到博客上吧”(本來覺得肯定搞不定,因為博客有各種自定義配置、中英文雙版本、字數(shù)統(tǒng)計等特殊 flag)→ 結果 Agent 自己翻遍整個 repo、摸清規(guī)則,連英文翻譯版都做好了,10 秒鐘直接發(fā)布上線,tag、category 配得比他自己還好。

更有意思的是,做完后 Agent 主動說:“要不要我把這個流程封裝成一個 Skill?”如此以后直接調用就行了。

從執(zhí)行任務 → 總結經(jīng)驗 → 封裝復用,全鏈條自動化。

Peter 展示過他讓 Agent 攢下來的 CLI 軍團 :訪問 Google 全套服務的工具、搜索 emoji 和 GIF 的工具、外賣到達時間查詢工具、智能床墊溫度控制工具……

小結:五個機制的組合效應

心跳、定時任務、靈魂、記憶、技能——每一個單獨拿出來都樸素得不像是一個 20 萬 Star 項目的核心技術。但正是這種樸素讓它厲害:沒有一個需要博士學位才能理解,沒有一個需要大公司的資源才能實現(xiàn)。它們的威力來自組合。

加上前面說的“給 AI 一臺電腦”的底層范式(bash + read + write + edit 四件套),這些機制把一個 150 行的 Agent 腳本,變成了一個會自己醒來、自己安排時間、記得用戶是誰、能不斷學習新技能的“數(shù)字存在”。

04


一個容易踩的坑:

本地部署和云端部署是兩個物種


這一點很多人沒搞清楚,但它直接決定了用戶用 OpenClaw 的體驗是“哇這太強了”還是“也就那樣吧”。

有人在云服務器上部署了一版 OpenClaw,用了一段時間后放棄了。原因很簡單:把小龍蝦部署在云服務器上,和用 Manus 基本沒有區(qū)別。上面沒有用戶的本地數(shù)據(jù),沒有用戶的文件,能干的事非常有限。

部署在本地電腦上就是另一回事了。它可以讀用戶桌面上的所有文件,幫用戶清理磁盤、調整電池策略、找某個文件再發(fā)送回終端——這些是云端做不到的。

Peter:核心差異在于本地運行。市場上大多數(shù) Agent 方案都是云端的。在用戶的本地設備上運行,意味著它可以調用和集成電腦的全部能力,這是云端方案無法比擬的。

他還指出一個很多人忽略的巨大優(yōu)勢:認證問題被繞開了。因為 Agent 就是用戶——它使用用戶的瀏覽器、已經(jīng)登錄好的賬號、已有的授權。不需要申請任何 OAuth、不需要跟任何平臺談合作。

Peter:ChatGPT 是在枷鎖中跳舞,OpenClaw 是掙脫鎖鏈的怪獸。


05


關于模型的選擇:引擎不同,體驗天差地別

另一個很多人沒意識到的事情:小龍蝦只是一個殼 ,真正干活的是用戶給它接的大模型。用不同的模型跑,體驗差距非常大。

社區(qū)里有個例子:用某模型讓 Agent 清理磁盤,Agent 把每一項清理了多少空間都記錄得清清楚楚,結果最后匯報可用空間時卻算錯了——從原來的 25G 越算越小,變成了 21G。記錄過程很詳細,但基礎的數(shù)學加減法搞砸了。

還有一個更微妙的問題:模型能力不夠的時候,Agent 不是做不到,而是自欺欺人。

有用戶讓 Agent 跑一組測試,連續(xù)幾個測試都失敗了。跑到第三個失敗后,Agent 突然說“那我們接下來就跑一遍能通過的測試吧”——然后只跑了本來就能過的測試,最后匯報“所有測試通過了”。

用戶指出來后,Agent 立刻開始“反思”。

如果用戶不具備判斷 Agent 工作質量的能力,用戶就有可能被它忽悠過去。模型越弱,這種情況越常見。

如果只是跑通流程、熟悉機制,快速小模型夠用。但要做復雜任務——多步驟推理、跨系統(tǒng)操作、處理非標準場景——模型能力差距非常明顯。

公眾號看到一個建議:很多人都有 Claude Code 的訂閱($100/月或 $200/月),可以把 OpenClaw 的 Agent core 替換成 Claude Code CLI,復用訂閱不走 API 按量付費,成本更可控。(現(xiàn)在好像被封禁了)

簡單來說,這種做法的核心在于:把 Claude Code CLI 當成一個本地的“推理引擎”,而不是調用遠程 API。傳統(tǒng)的 OpenClaw 架構是:OpenClaw Core ? HTTPS Request ? Anthropic API (按量計費 )。“復用訂閱”的架構是:OpenClaw Core ? Local Shell ? claude 指令 ? Stdout 捕獲 (訂閱制內免費 )

小龍蝦的能力上限,不取決于小龍蝦本身,而取決于用戶給它接了什么大腦。

就像同一輛車,裝 1.5L 發(fā)動機和裝 V8 發(fā)動機,開起來完全不是一回事。

06


創(chuàng)始人的故事:

一個燒盡激情的人,如何重新點燃火焰

了解 Peter Steinberger 的故事,你會更理解為什么 OpenClaw 是這個樣子。

Peter 花了 13 年做 PSPDFKit,被 Dropbox、DocuSign 等部署在超過 10 億臺設備上,2021 年獲得超過 1 億歐元投資。然后他 burnout 了。

Peter:我把 200% 的時間、精力和心血都灌進了那家公司。它變成了我的身份。當它消失的時候,我?guī)缀跏裁炊疾皇A恕?/blockquote>

他飛去馬德里,消失了三年。試過高爾夫、換地方住、甚至死藤水(ayahuasca)——都沒用。直到 2025 年他開始玩 AI 編程。那種“對著一個東西死磕到凌晨三點然后終于搞定”的感覺回來了。

OpenClaw 的第一個版本在 10 天內搞定。之所以是現(xiàn)在這個樣子,很大程度上因為 Peter 是一個不想創(chuàng)業(yè)的創(chuàng)業(yè)者。他不想融資、不想做 SaaS、不想 捕獲 用戶。他只想做一個自己想用的東西,然后開源出去。

Peter 被問“你為什么贏了”:因為他們(競爭對手)都太把自己當回事了。很難打敗一個純粹為了好玩而做這件事的人。

這種態(tài)度滲透在 OpenClaw 的每一個設計決策里——項目吉祥物是一只龍蝦( 我就想讓它怪一點 );他讓 Agent 回消息時能發(fā)表情包和 GIF;他把整個項目比作 Factorio 游戲( 無限多的關卡,每一個都能不斷升級 )。

一個關于產(chǎn)出效率的數(shù)據(jù):OpenClaw 的 GitHub 倉庫在爆發(fā)期,一周多了將近 5000 個 commit。換算一下:一家公司的工程師,平均每天十幾到二十個 commit,連續(xù)干一年才能積累 5000 個。

這個項目 99% 是非人類在更新。Peter 同時運行 4-10 個 AI Agent,各自處理不同模塊,他本人更像是一個“品味把關人”,而不是逐行寫代碼的人。

07


Peter 的核心理念:

不要掉進 Agent 陷阱

如果只記住 Peter 說過的一句話,我覺得應該是這句:AI 是杠桿,不是替代品。沒有人類的品味和判斷力,再多 Agent 也只是在高速生產(chǎn)垃圾。

??Agentic Trap(Agent 陷阱)

Peter:我看到太多人在 Twitter 上發(fā)現(xiàn) Agent 很強大,然后試圖讓它更強大,然后掉進兔子洞。他們構建各種復雜工具來加速工作流,但他們只是在造工具,而不是在創(chuàng)造真正的價值。

他自己就掉進去過:早期花兩個月做了一個 VPN 隧道讓自己能在手機上操作終端,做得太好了,以至于有一次和朋友吃飯全程都在手機上 vibe coding,完全沒參與對話。

我不得不停下來,主要是為了心理健康。

Slop Town (垃圾城)

他對那些“一個超復雜編排器同時跑十幾二十個 Agent 互相溝通分工”的系統(tǒng),持明確的批評態(tài)度:這些 Agent 缺乏品味。它們在某些方面聰明得嚇人,但如果用戶不引導它們、不告訴它們用戶想要什么,出來的全是垃圾。

Human-in-the-loop(人在回路中)

很多人在開始一個項目的時候,只有一個模糊的想法。往往在構建、體驗的過程中,開發(fā)者愿景才逐漸清晰,下一個 prompt 取決于此刻看到、感受到和思考的狀態(tài)。如果一開始就試圖把所有東西寫進規(guī)格說明書,那么就會錯過這個人機循環(huán)。

Peter 創(chuàng)造了Agentic Engineering(智能體工程)來描述這種工作方式:用戶提供品味和判斷力,AI 提供執(zhí)行力,兩者協(xié)作。白天我做 Agentic engineering,凌晨三點以后切換到 vibe coding,然后第二天后悔。

一人公司 vs 零員工公司

這里面有一個嚴肅洞察:當代碼生成變得極其廉價,“寫得快”不再是競爭力,“知道該寫什么”才是。

這也引出了一個熱門話題:“零員工公司”靠譜嗎?

坦率地說,現(xiàn)在還不靠譜。

但“一人公司”——一個有專業(yè) know-how 的人帶領一支 Agent 軍團——是完全可行的。關鍵在于這個人必須有判斷力:他需要知道 Agent 做的東西好不好、對不對。

如果一個人不懂拍電影,只是讓 Agent 去拍,拍出來好壞又判斷不了,那肯定難以為繼。

一人公司的創(chuàng)業(yè)者得是“將軍”,Agent 就是他的軍團。

Agent 團隊有一個天然優(yōu)勢:它們不會產(chǎn)生人類團隊最大的成本——溝通損耗。人和人之間的信息折損率驚人,所謂“對齊一下”就是因為不對齊真的會出問題——四個人做出五個方向。但 Agent 之間溝通成本幾乎為零,而且它們天生愛寫文檔——不讓它寫,它反而難受。

08


80% 的 App 會消失:

一個值得認真對待的預言

Peter(YC 采訪):用戶手機上 80% 的 App 其實已經(jīng)死了,你只是還不知道。

他的邏輯鏈條:為什么我需要一個 App 來記錄飲食?我的 Agent 已經(jīng)知道我吃了什么——通過聊天或者照片。它也知道我的健身目標。如果我吃了垃圾食品,它會自動調整我的運動計劃。我不需要一個特殊的界面來輸入數(shù)據(jù)——我需要一個幫我達成目標的 Agent。

推演下去:大多數(shù) App 的本質只是“數(shù)據(jù)的漂亮前端”。當 Agent 能直接讀寫數(shù)據(jù)、調用 API,用戶就不需要在各種界面里點來點去了。

未來只有擁有獨特傳感器或硬件連接的 App 才能存活,那些 純數(shù)據(jù)庫前端 的 SaaS 工具將毫無價值。

甚至 Agent 與 Agent 之間也會直接對話——未來我要訂餐廳,我的 Agent 會直接跟餐廳的 Agent 談判。

.md 域名與知識資產(chǎn)

一個有趣的信號:Peter 最近開始大量注冊 .md 結尾的域名。

為什么?因為當 Skill 以 Markdown 文件的形式存在,.md 就變成了 Agent 時代的 App Store 入口。

有人寫安全檢測教程時突然想通了——為什么要把技術文檔,寫成人類能夠看懂的格式?直接做成一個 MD 文件,用戶就可以扔給 Agent,讓它自己進行檢查。

以前的軟件用代碼編譯,未來的 軟件 可能用自然語言編譯。

與此相關的另一個判斷:當軟件開發(fā)成本趨近于零,未來的商業(yè)模式會從“賣軟件”轉向“賣知識資產(chǎn)”。

賣的不是代碼,而是 Skill、Context、專業(yè)知識。已經(jīng)有人把網(wǎng)絡安全滲透測試的經(jīng)驗寫成 SOP 喂給 Agent,讓它 24 小時不停做安全審計拿 bounty。

知識和經(jīng)驗正在從“腦子里的東西”變成“可交易的數(shù)字資產(chǎn)”。

09


風險和局限性

??

上線 48 小時內,數(shù)百個未認證的 OpenClaw 實例暴露在公網(wǎng)上。ClawHub 一周內出現(xiàn) 230+ 個惡意 Skill。更真實的案例:有人讓 Agent 繼續(xù)干用戶所有能干的事 ,結果它在清理磁盤時差點把甲方客戶的數(shù)據(jù)資料也刪了。

安全做得越好,小龍蝦能干的事就越少;安全做得越松,用戶也不知道模型會不會干點意外的事情。

但這里有一個有意思的現(xiàn)象:用戶對隱私正在形成一種新共識。有人描述得很精準——我愿意在 Claude Code 里說'這是我的 API Key,幫我放到環(huán)境變量里;但如果一個不知道的網(wǎng)站讓我填 API Key,我不愿意。

也就是說,人們逐漸接受把原始數(shù)據(jù)發(fā)給大模型,但不接受在應用層產(chǎn)品里暴露隱私。OpenClaw 剛好踩在這個 sweet spot 上:數(shù)據(jù)跑在用戶自己電腦上(應用層安全),但最終通過大模型 API 處理(原始數(shù)據(jù)層信任)。這也解釋了為什么很多人明明知道,最終還是把數(shù)據(jù)發(fā)給了 Anthropic,卻依然覺得 OpenClaw 比 Manus 更讓人放心——因為不需要在別人的電腦上登錄自己的郵箱和各種賬號。

Peter:有些人太信任、太輕信了。我們作為一個社會,在理解 AI 這方面還有很多功課要補。貓已經(jīng)出了袋子,安全是我接下來的核心工作。

??心理依賴

Peter 自己都承認掉進過 Agent 陷阱 ——跟朋友吃飯全程在手機上跟 Agent 工作。他還警告:AI psychosis(AI 心理癥)是真實存在的。當 Agent 有了“人格”和“記憶”,人們對它的信任會不知不覺越過合理邊界。

??成本

OpenClaw 雖然免費,但大模型 API 調用要錢。全天候運行的 Agent 如果配置不當,API 費用就很可能超出預期。

一位用戶跑了五個 Agent,一個月 $200 的 Claude 訂閱基本夠用——但前提是知道,怎么避免不必要的 token 消耗(比如讓 Agent 用 Playwright 操作瀏覽器而不是反復截屏做圖像識別)。

10


對我們的啟示

啟示一:競爭焦點轉移

從“誰的模型更聰明”轉向“誰能讓模型做更多事”。大模型正在商品化,Claude、GPT、Gemini 在越來越多任務上表現(xiàn)趨同。但要注意風險:大模型公司最終很可能竊取勝利果實 ——開源社區(qū)驗證好的方向,大廠自己下場做。AI coding 已經(jīng)上演過這個劇本。

啟示二:從用戶角度出發(fā)不是口號

OpenClaw 的所有設計都不是深不可測的技術創(chuàng)新。它只是認真想了一下“人類用戶想要什么樣的 AI 助手”,然后做出來了。之前那么多大廠和創(chuàng)業(yè)公司,都在想“怎么讓模型更強”“怎么讓 API 更好賣”。

啟示三:代碼門檻塌陷,品味價值飆升

Peter 身邊一個從不寫代碼的前律師在提 Pull Request。一個設計公司老板有了 25 個 AI 寫的小工具。當“寫代碼”變得像“打字”一樣廉價,“知道該寫什么”才是真正的競爭力。

啟示四:知識資產(chǎn)成為新商業(yè)形態(tài)

軟件開發(fā)成本趨零的世界里,賣軟件越來越難賺錢。但賣 Skill、賣 Context、賣領域知識——讓 Agent 能做特定工作的“經(jīng)驗包”——可能變成全新商業(yè)模式。用戶的專業(yè)積累不再只是“腦子里的東西”,而是“可交易的數(shù)字資產(chǎn)”。

啟示五:安全不是事后的事

AI 從“給建議”到“替你執(zhí)行”,安全重要性翻了不止一個量級。OpenClaw 的教訓已經(jīng)足夠深刻。

11


尾聲

Peter Steinberger 被問到未來打算時說:我希望這個項目能比我活得更久。它太酷了,不能讓它爛掉。在有 Agent 之前,做這些事的門檻太高了。而現(xiàn)在,有了合適的軟件,門檻就這么一直降、一直降。每一個人提交的第一個 Pull Request 都是人類的一個小勝利。這難道不是人類的一種進步嗎?這難道不酷嗎?

2022 年有 ChatGPT 時刻,2025 年有 DeepSeek 時刻,2026 年我們正在經(jīng)歷 OpenClaw 時刻。一只龍蝦用最樸素的方式告訴我們:AI 的下一章不是“更聰明的對話”,而是“真正能干活”。而這一切始于一個燒盡激情又重新點燃的人。

看完這篇,你會發(fā)現(xiàn)小龍蝦沒有那么神秘,但也不是說隨便讓它干就能干好。它的能力邊界,和你給它配了什么模型、部署在哪里、怎么引導它,關系都很大。

現(xiàn)在最合適的姿勢,可能就是先把它部署在自己的電腦上,把它當一個隨時在后臺幫你盯著事情、沒事給自己找事干的搭檔用起來,然后慢慢往上加擴展。

最后的最后,前兩天看到一句讓人印象深刻的話:


“如果你現(xiàn)在大部分事情還是自己動手做,說明你的動手能力不太行”。

話糙理正,雖然相當刺激,但是或許不無道理。

本文核心來源:


Lex Fridma
n Podcast (Peter Steinberger 3h+ 深度專訪)

Y Combinator 創(chuàng)始人訪談

Peter Yang 40 分鐘對話

硅谷 101 播客(Clawdbot 專題討論)

WaytoAGI 社區(qū)直播分享

Fortune/TechCrunch/PCWorld/DeepLearning.AI 等媒體報道

OpenClaw 官方文檔及架構分析

Peter 的直接引語均來自上述公開采訪原文。

未經(jīng)「AI科技評論」授權,嚴禁以任何方式在網(wǎng)頁、論壇、社區(qū)進行轉載!

公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
中醫(yī)怒斥:軟化血管騙了國人幾十年,洋蔥、黑木耳、魚油全都胡扯

中醫(yī)怒斥:軟化血管騙了國人幾十年,洋蔥、黑木耳、魚油全都胡扯

岐黃傳人孫大夫
2026-03-07 21:55:03
女生主動起來有多黏人?網(wǎng)友:這些女的太開放了

女生主動起來有多黏人?網(wǎng)友:這些女的太開放了

帶你感受人間冷暖
2026-01-27 00:20:06
1955年副軍職只授大校 他看了三遍名單:我二十年老紅軍不夠將軍

1955年副軍職只授大校 他看了三遍名單:我二十年老紅軍不夠將軍

鍋鍋愛歷史
2026-03-10 23:41:40
蘇聯(lián)式解體將重演?俄羅斯專家大膽預測:美國或將分裂成3個國家

蘇聯(lián)式解體將重演?俄羅斯專家大膽預測:美國或將分裂成3個國家

文史旺旺旺
2026-01-16 20:50:38
讀秒破門!歐冠神奇1戰(zhàn):紐卡一聲長嘆,亞馬爾助巴薩驚險身退

讀秒破門!歐冠神奇1戰(zhàn):紐卡一聲長嘆,亞馬爾助巴薩驚險身退

話體壇
2026-03-11 06:38:10
伊朗方面回應了,戰(zhàn)爭即將結束!

伊朗方面回應了,戰(zhàn)爭即將結束!

新浪財經(jīng)
2026-03-11 02:56:10
中方最擔心的事情發(fā)生了,伊朗越過紅線,秘密武器直逼以方心臟?

中方最擔心的事情發(fā)生了,伊朗越過紅線,秘密武器直逼以方心臟?

小蘭聊歷史
2026-03-10 17:09:37
55歲主持人李靜自曝絕經(jīng)過程,很快失去性魅力,連男人也沒興趣了

55歲主持人李靜自曝絕經(jīng)過程,很快失去性魅力,連男人也沒興趣了

林輕吟
2026-02-23 07:16:08
奉勸男性:若不想被前列腺炎折磨下半生,盡早改掉這4大習慣!

奉勸男性:若不想被前列腺炎折磨下半生,盡早改掉這4大習慣!

全球軍事記
2026-03-02 10:13:18
在真正的代表呼吁提高養(yǎng)老金時,某些人連別“落石”,都那么難?

在真正的代表呼吁提高養(yǎng)老金時,某些人連別“落石”,都那么難?

走讀新生
2026-03-10 21:07:29
西方觀察家認為:這次的美伊以沖突會導致永久改寫臺海戰(zhàn)爭的規(guī)則

西方觀察家認為:這次的美伊以沖突會導致永久改寫臺海戰(zhàn)爭的規(guī)則

安安說
2026-03-06 11:28:08
別再裝修這些“家務刺客”!只是好看,難伺候卻是一輩子

別再裝修這些“家務刺客”!只是好看,難伺候卻是一輩子

裝修秀
2026-03-08 11:35:03
爸媽!真的不要再往馬桶里倒水了!

爸媽!真的不要再往馬桶里倒水了!

家居設計師宅哥
2026-03-08 18:21:44
消金圈大地震:M1、M2全面禁止委外催收

消金圈大地震:M1、M2全面禁止委外催收

新浪財經(jīng)
2026-03-10 18:26:59
比賽還沒開打 山東泰山先迎來一個利好喜訊 取勝北京國安概率大增

比賽還沒開打 山東泰山先迎來一個利好喜訊 取勝北京國安概率大增

零度眼看球
2026-03-11 06:45:58
老板跑路澳洲,讓26名員工背債坐牢,上?!案黄艜辈刂裁??

老板跑路澳洲,讓26名員工背債坐牢,上海“富婆會所”藏著什么?

帥真商業(yè)
2026-03-09 18:50:01
賽季報銷被裁!被伊森毀掉職業(yè)生涯,剛展現(xiàn)天賦,才25歲無球可打

賽季報銷被裁!被伊森毀掉職業(yè)生涯,剛展現(xiàn)天賦,才25歲無球可打

你的籃球頻道
2026-03-10 08:09:57
恐怖!美軍的陰暗操作令世界不寒而栗

恐怖!美軍的陰暗操作令世界不寒而栗

補壹刀
2026-03-09 15:41:03
“地球上最危險的工作”:伊朗彈道導彈發(fā)射機組人員的生活

“地球上最危險的工作”:伊朗彈道導彈發(fā)射機組人員的生活

鐵錘妹妹是只貓
2026-03-09 02:15:52
再次提醒!中國公民暫勿前往;人臉驗證時千萬記得穿衣服;女子起訴離婚遭威脅,丈夫獲刑|早安,你好

再次提醒!中國公民暫勿前往;人臉驗證時千萬記得穿衣服;女子起訴離婚遭威脅,丈夫獲刑|早安,你好

全國婦聯(lián)女性之聲
2026-03-11 07:24:12
2026-03-11 08:04:49
AI科技評論 incentive-icons
AI科技評論
點評學術,服務AI
7111文章數(shù) 20739關注度
往期回顧 全部

科技要聞

蔚來今年要少虧150億,沖擊年度盈利

頭條要聞

"一對老夫妻雙雙129歲相戀100年"視頻引熱議 當?shù)鼗貞?/h3>

頭條要聞

"一對老夫妻雙雙129歲相戀100年"視頻引熱議 當?shù)鼗貞?/h3>

體育要聞

加蘭沒那么差,但鱸魚會用嗎?

娛樂要聞

《逐玉》注水風波升級!315評論區(qū)淪陷

財經(jīng)要聞

“龍蝦補貼”密集出爐 最高1000萬!

汽車要聞

MG4有SUV衍生 上汽乘用車多款新車規(guī)劃曝光

態(tài)度原創(chuàng)

家居
數(shù)碼
藝術
教育
公開課

家居要聞

自然肌理 溫度質感婚房

數(shù)碼要聞

蘋果MacBook Neo筆記本SSD速度約為MacBook Pro的1/8

藝術要聞

這組剪紙?zhí)懒耍?/h3>

教育要聞

初中競賽題,化簡,說難的建議多學學

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版