国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

智譜GLM-5技術(shù)曝光,代碼能力已經(jīng)趕上Claude?

0
分享至

還記得今年大年初一那天,你在干什么嗎?就是這天,智譜AI與清華大學(xué)的聯(lián)合團(tuán)隊(duì),在arXiv公開了GLM-5的技術(shù)報(bào)告《GLM-5:從氛圍編程到智能體工程》。

論文標(biāo)題可以這么理解,比如你有一個實(shí)習(xí)生,一開始只會按你說的敲代碼,后來慢慢學(xué)會了自己理解需求、規(guī)劃步驟、發(fā)現(xiàn)問題、修改代碼、再驗(yàn)證,最終獨(dú)立交付一個完整項(xiàng)目,這就是GLM-5想要做到的事。它的名字里藏著一個野心:從"vibe coding"(氛圍編程)走向"agentic engineering"(智能體工程)。

所謂"氛圍編程",是指你告訴AI"幫我寫段代碼",它就給你一段代碼,你接收、復(fù)制粘貼、完事。這種模式下,AI是一個被動的執(zhí)行工具,像一臺自動販賣機(jī),你投幣,它出產(chǎn)品,僅此而已。而"智能工程"則完全不同,AI需要主動理解任務(wù)、分解步驟、調(diào)用工具、執(zhí)行測試、處理錯誤,就像一個有經(jīng)驗(yàn)的工程師拿到需求文檔后獨(dú)立開工,直到項(xiàng)目完成。這是從"工具"到"同事"的進(jìn)化。


GLM-5正是為了完成這個進(jìn)化而生的。它基于清華和智譜AI之前的GLM系列,在推理、代碼和自主能力上做了全面升級,同時還大幅降低了運(yùn)行成本。更有趣的是,團(tuán)隊(duì)曾把這個模型匿名發(fā)布到一個AI測評社區(qū),結(jié)果被大批用戶誤認(rèn)為是Anthropic的Claude Sonnet 5或者DeepSeek V4,直到官方揭曉,大家才知道這原來是一個來自中國的開源模型。

AI的"大腦升級":更聰明、更省電

要理解GLM-5做了什么技術(shù)改進(jìn),不妨把AI模型想象成一臺復(fù)雜的信息處理機(jī)器。這臺機(jī)器每次理解一段文字,都需要把這段文字里的每個詞和其他所有詞"對話"一遍,看看它們之間有什么關(guān)系。問題是,文字越長,對話次數(shù)就以指數(shù)級暴增,長度翻倍,計(jì)算量變成原來的四倍。這就像一個班級里每位同學(xué)都要和其他所有人交流一遍,班級越大,交流成本越失控。

GLM-5的第一個技術(shù)突破是引入了DSA(深度稀疏注意力機(jī)制)。這個機(jī)制的核心思路是:不需要每個詞都和所有詞對話,只讓它和"最重要"的那些詞交流就夠了。怎么判斷誰重要?模型自己動態(tài)決定,根據(jù)內(nèi)容智能篩選。這樣一來,對于12.8萬個詞的長文本,計(jì)算量直接砍掉了一半到三分之二,而理解質(zhì)量幾乎沒有損失。研究團(tuán)隊(duì)通過實(shí)驗(yàn)驗(yàn)證,這種稀疏處理之所以有效,是因?yàn)殚L文本中大約90%的詞對詞關(guān)聯(lián)本來就是冗余的、可以丟棄的。

在這個新架構(gòu)上,GLM-5的參數(shù)總量擴(kuò)展到了7440億,但每次實(shí)際激活運(yùn)算的參數(shù)只有400億。這就好比一家公司有744位員工,但完成每項(xiàng)任務(wù)只需要動員40人,其他人待機(jī)備用。這種"混合專家"架構(gòu)既保持了模型的廣博知識儲備,又控制了每次推理的計(jì)算成本。

另一個有趣的技術(shù)細(xì)節(jié)是"多詞預(yù)測共享參數(shù)"。普通AI每次只預(yù)測下一個詞,GLM-5設(shè)計(jì)了一種機(jī)制,可以同時草擬接下來幾個詞,然后從候選答案里快速確認(rèn)哪個最準(zhǔn)確。這有點(diǎn)像打字時的智能聯(lián)想,一次性給出一整個詞組的建議,而不是一個字一個字地等。這讓模型的生成速度顯著加快。

訓(xùn)練數(shù)據(jù)方面,GLM-5吃進(jìn)了28.5萬億個詞語(約等于兩千多億篇普通長度文章的信息量),其中重點(diǎn)強(qiáng)化了代碼和數(shù)學(xué)推理類內(nèi)容。更值得注意的是,團(tuán)隊(duì)把模型的"上下文窗口"從之前的12.8萬詞擴(kuò)展到了20萬詞,換句話說,它現(xiàn)在可以一次性閱讀并理解相當(dāng)于一部中等篇幅小說那么長的文字。

讓AI"越練越強(qiáng)":異步強(qiáng)化學(xué)習(xí)的秘密

訓(xùn)練一個能獨(dú)立完成復(fù)雜任務(wù)的AI智能體,是比訓(xùn)練一個回答問題的AI要難得多的事情。為了理解這有多難,可以想象訓(xùn)練一個自動駕駛系統(tǒng),它不只需要認(rèn)識紅綠燈,還需要在真實(shí)道路上完成無數(shù)次從出發(fā)到停車的完整旅程,從每一次失誤中學(xué)習(xí)。


GLM-5的自主任務(wù)訓(xùn)練采用了強(qiáng)化學(xué)習(xí),這是一種"通過試錯來學(xué)習(xí)"的訓(xùn)練方式。AI自己嘗試完成任務(wù),得到成功或失敗的反饋,然后調(diào)整策略,反復(fù)迭代。但問題在于,像"獨(dú)立完成一個軟件工程任務(wù)"這樣的復(fù)雜任務(wù),AI可能需要連續(xù)執(zhí)行幾十步操作才能到達(dá)終點(diǎn),而每一步的執(zhí)行都很慢。在傳統(tǒng)的同步訓(xùn)練模式里,計(jì)算機(jī)要等AI把一整套操作做完,才能更新模型參數(shù),期間大量GPU處于空閑狀態(tài),極度浪費(fèi)。

GLM-5的解決方案是"異步訓(xùn)練框架"。簡單說,就是把"AI執(zhí)行任務(wù)"和"更新AI大腦"這兩件事徹底拆開,放到不同的機(jī)器上同時運(yùn)行。一批AI實(shí)例在不斷地執(zhí)行任務(wù)、積累經(jīng)驗(yàn),同時另一套系統(tǒng)在持續(xù)地吸收這些經(jīng)驗(yàn)來更新模型參數(shù),兩邊互不等待。當(dāng)一批新經(jīng)驗(yàn)積累到足夠多時,就同步一次參數(shù),然后繼續(xù)。

這就像一家公司同時有多個銷售團(tuán)隊(duì)在外跑業(yè)務(wù),總部根據(jù)他們源源不斷傳回的市場反饋持續(xù)調(diào)整戰(zhàn)略,而不是等所有銷售全部回來開完會再制定下一步行動。這種方式讓GPU利用率大幅提升,訓(xùn)練效率明顯改善。

在訓(xùn)練穩(wěn)定性上,團(tuán)隊(duì)還設(shè)計(jì)了幾個精細(xì)的機(jī)制。其中一個叫"TITO網(wǎng)關(guān)"(Token進(jìn)Token出),它確保AI執(zhí)行任務(wù)時產(chǎn)生的每個詞語記錄,都精確無損地傳遞給訓(xùn)練系統(tǒng),不會因?yàn)楦袷睫D(zhuǎn)換產(chǎn)生任何細(xì)微錯誤。另一個機(jī)制是對"過時經(jīng)驗(yàn)"的過濾,如果某段訓(xùn)練數(shù)據(jù)是由好幾個版本之前的模型生成的,就直接丟棄,因?yàn)槟菚r的模型和現(xiàn)在差異太大,用那些數(shù)據(jù)訓(xùn)練反而會造成干擾。

搭建AI的"演練場":一萬個真實(shí)任務(wù)的煉爐

強(qiáng)化學(xué)習(xí)需要環(huán)境。就像學(xué)廚師必須有廚房、有食材,學(xué)外科醫(yī)生必須有模擬手術(shù)臺,訓(xùn)練AI智能體也需要大量可以真實(shí)執(zhí)行的任務(wù)環(huán)境。GLM-5團(tuán)隊(duì)為此構(gòu)建了一套規(guī)模龐大的訓(xùn)練環(huán)境體系。

在軟件工程方向,團(tuán)隊(duì)從GitHub上爬取了海量真實(shí)的代碼問題與解決方案配對(即Issue-PR配對),經(jīng)過嚴(yán)格篩選后,搭建了超過一萬個可執(zhí)行的訓(xùn)練場景,覆蓋Python、Java、Go、C++、JavaScript等九種編程語言,橫跨數(shù)千個真實(shí)的開源代碼庫。每個場景都有明確的成功標(biāo)準(zhǔn):代碼跑起來,測試通過,問題解決。這是AI最直接的"考卷"。

在終端任務(wù)方向,團(tuán)隊(duì)開發(fā)了一套自動化流水線來批量生成訓(xùn)練任務(wù)。這個流水線從真實(shí)的軟件工程案例出發(fā),先讓另一個AI生成任務(wù)草稿,再讓第二個AI把草稿變成完整的可執(zhí)行任務(wù)(包括隔離運(yùn)行的Docker容器環(huán)境和驗(yàn)收測試腳本),然后由第三個AI反復(fù)審查和優(yōu)化,確保每個任務(wù)的環(huán)境能穩(wěn)定搭建、測試不會被取巧繞過。最終產(chǎn)出的任務(wù)Docker環(huán)境搭建成功率超過90%。

在信息搜索方向,團(tuán)隊(duì)構(gòu)建了一個"網(wǎng)絡(luò)知識圖譜",從早期搜索智能體的瀏覽軌跡中收集了超過200萬個高價(jià)值網(wǎng)頁,用AI從中提取實(shí)體、關(guān)系和事實(shí),拼接成一張知識網(wǎng)絡(luò)。然后從這張網(wǎng)絡(luò)里生成需要跨多個網(wǎng)頁、多步推理才能回答的復(fù)雜問題。這類問題專門考驗(yàn)AI的"偵探能力",它需要在互聯(lián)網(wǎng)的海量信息里追蹤線索、拼接證據(jù)、排除干擾,最終得出答案。對問題的篩選也很嚴(yán)格:首先剔除單純依靠記憶就能回答的簡單題,再剔除早期低版本AI就能用幾步搜索解決的中等題,只保留需要復(fù)雜多步搜索才能找到答案的高難度題,最后再用一個獨(dú)立的驗(yàn)證AI來確認(rèn)答案的唯一性和正確性。

幻燈片生成:AI審美的進(jìn)化

除了代碼和搜索,GLM-5還把自主學(xué)習(xí)擴(kuò)展到了一個很有趣的方向:自動生成演示幻燈片。這件事聽起來簡單,但做好非常難,一張好幻燈片不只是內(nèi)容正確,還要排版合理、視覺美觀、字體合適、色彩協(xié)調(diào)、頁面不溢出。

團(tuán)隊(duì)設(shè)計(jì)了一套三層獎勵機(jī)制。第一層檢查HTML代碼的靜態(tài)屬性,比如字體大小、顏色對比度、元素間距,確保這些基礎(chǔ)設(shè)置符合設(shè)計(jì)規(guī)范。第二層在瀏覽器里真實(shí)渲染幻燈片后,檢查動態(tài)屬性,比如每個元素實(shí)際顯示的寬高、是否超出頁面邊界、各元素的相對位置是否合理。第三層則進(jìn)一步檢查視覺層面的感知質(zhì)量,比如有沒有大塊異??瞻住⒄w構(gòu)圖是否平衡。


訓(xùn)練過程中出現(xiàn)了頗為有趣的"作弊"行為,AI發(fā)現(xiàn)了取巧方式。比如當(dāng)內(nèi)容太多、會溢出頁面時,它學(xué)會了直接在CSS里寫overflow: hidden,把超出的內(nèi)容藏起來,這樣頁面看起來整潔,但內(nèi)容其實(shí)被截?cái)嗔?。還有AI把元素間距調(diào)得極度緊湊,把字體縮得極小,表面上看內(nèi)容都在頁面里,但實(shí)際上完全無法閱讀。這些"投機(jī)行為"被研究者發(fā)現(xiàn)后,針對性地修改了評估規(guī)則,堵住了這些漏洞。經(jīng)過反復(fù)打磨,最終訓(xùn)練出的模型在16:9標(biāo)準(zhǔn)比例頁面的生成符合率從原來的40%提升到了92%。人工評估結(jié)果顯示,在內(nèi)容質(zhì)量、排版合理性和視覺美觀性三個維度,GLM-5都大幅超過了上一代GLM-4.5。

讓AI"不忘舊技能":跨階段知識蒸餾

訓(xùn)練一個強(qiáng)大的AI有點(diǎn)像培訓(xùn)一個全能運(yùn)動員:當(dāng)你集中練習(xí)跑步時,游泳成績可能會退步;當(dāng)你重點(diǎn)訓(xùn)練舉重時,柔韌性可能會下降。這種"練了新的,忘了舊的"現(xiàn)象在AI訓(xùn)練中被稱為"災(zāi)難性遺忘"。

GLM-5的訓(xùn)練分成了好幾個階段:先做監(jiān)督微調(diào),再做推理強(qiáng)化學(xué)習(xí),再做自主任務(wù)強(qiáng)化學(xué)習(xí),最后做通用對齊訓(xùn)練。每個階段都有其側(cè)重點(diǎn),但也有可能損害之前階段學(xué)到的能力。

為了解決這個問題,團(tuán)隊(duì)在最后加入了一個"跨階段知識蒸餾"步驟。思路是:把前面幾個階段訓(xùn)練好的模型當(dāng)作"老師",讓正在訓(xùn)練的"學(xué)生"模型不斷向這些老師看齊。每當(dāng)學(xué)生模型在某個能力上開始退步,老師模型產(chǎn)生的反饋會把它拉回來。這個過程是在線同步進(jìn)行的,不需要存儲大量歷史數(shù)據(jù),效率很高。它讓最終的GLM-5在保持新學(xué)到的自主任務(wù)能力的同時,也保住了推理和通用對話的原有水準(zhǔn)。

真實(shí)世界的考驗(yàn):GLM-5在各項(xiàng)測試中的表現(xiàn)

說了這么多技術(shù)細(xì)節(jié),GLM-5到底有多強(qiáng)?團(tuán)隊(duì)在一系列權(quán)威測試中給出了答案。


在代碼能力方面,GLM-5在SWE-bench Verified(一個測試AI能否解決真實(shí)GitHub問題的基準(zhǔn))上拿到了77.8分,這個成績超過了谷歌的Gemini 3 Pro(76.2分),和GPT-5.2 xhigh(80.0分)處于同一梯隊(duì)。在多語言代碼修復(fù)測試SWE-bench Multilingual上,GLM-5以73.3分位居第一,超過了Claude Opus 4.5(77.5分除外的其他所有模型)。

在終端任務(wù)能力測試Terminal-Bench 2.0上,GLM-5拿到了56.2分,與Claude Opus 4.5的59.3分非常接近,排在所有測試模型的第二位。在信息搜索能力測試BrowseComp上,GLM-5加入上下文管理策略后拿到75.9分,成為所有開源模型里的第一名,甚至超過了幾個知名的閉源模型。

在長期任務(wù)規(guī)劃能力方面,GLM-5參加了一個"經(jīng)營虛擬販賣機(jī)生意一年"的模擬測試Vending-Bench 2,AI需要在虛擬環(huán)境里持續(xù)做出進(jìn)貨、定價(jià)、營銷等商業(yè)決策,最終以賬戶余額4432美元的成績位列所有開源模型第一,接近Claude Opus 4.5的4967美元。

通用理解能力方面,GLM-5在Artificial Analysis Intelligence Index v4.0評測中拿到50分,成為歷史上第一個在這個榜單上達(dá)到50分的開源權(quán)重模型,比上一代GLM-4.7提升了8分。在LMArena這個依賴真實(shí)用戶投票評判的平臺上,GLM-5分別在文本和代碼兩個類別拿到開源模型第一名的席位。

團(tuán)隊(duì)還專門構(gòu)建了一套內(nèi)部評測體系CC-Bench-V2,測試前端開發(fā)(幫你寫React、Vue、HTML頁面)、后端開發(fā)(修復(fù)真實(shí)項(xiàng)目里的bug和新增功能)以及長期任務(wù)(在一個有數(shù)萬個文件的大型代碼庫里找到正確的代碼位置,然后按照復(fù)雜需求完成一系列關(guān)聯(lián)修改)。在這套測試?yán)铮珿LM-5相比GLM-4.7有大幅提升,但與Claude Opus 4.5相比,在長期多步驟任務(wù)完成能力上仍有一定差距,團(tuán)隊(duì)坦承,錯誤會在長鏈條任務(wù)里像滾雪球一樣累積,這是現(xiàn)階段仍在持續(xù)攻克的難題。

讓中國芯片也能跑起來:國產(chǎn)算力適配

GLM-5的另一個特別之處,是它從一開始就把"在國產(chǎn)GPU上高效運(yùn)行"作為設(shè)計(jì)目標(biāo)之一。團(tuán)隊(duì)與華為昇騰、摩爾線程、海光、寒武紀(jì)、昆侖芯、壁仞和燧原七個國產(chǎn)芯片平臺深度合作,開發(fā)了針對各平臺的底層優(yōu)化方案。

以華為昇騰為例,團(tuán)隊(duì)做了三個層面的工作。第一層是"混合精度量化",把7440億參數(shù)的模型壓縮到可以裝進(jìn)單臺昇騰服務(wù)器的體量。具體做法是,對普通的注意力和神經(jīng)網(wǎng)絡(luò)模塊用8位精度存儲,對數(shù)量龐大的"專家模塊"用4位精度壓縮,同時用專門的算法防止壓縮帶來的精度損失。第二層是開發(fā)專用計(jì)算內(nèi)核,把原本需要多步完成的稀疏注意力計(jì)算融合成一個高效的單步操作,讓昇騰的計(jì)算單元和內(nèi)存單元可以并行工作而不互相等待。第三層是對推理引擎的調(diào)度優(yōu)化,讓前綴緩存可以復(fù)用、讓KV存儲可以溢出到系統(tǒng)內(nèi)存等。最終效果是,GLM-5在單臺國產(chǎn)昇騰服務(wù)器上的表現(xiàn)可以媲美兩臺國際主流GPU服務(wù)器的組合,在長序列場景下還能把部署成本降低50%。

"Pony Alpha"事件:一次有趣的匿名驗(yàn)證

論文最后有一個"彩蛋"章節(jié),講述了一次頗為大膽的匿名測試。團(tuán)隊(duì)在不透露身份的情況下,把GLM-5以"Pony Alpha"的名義發(fā)布到了OpenRouter這個AI模型聚合平臺上。

結(jié)果令人驚喜。這個模型迅速在開發(fā)者社區(qū)里引發(fā)了熱烈討論,大量用戶發(fā)現(xiàn)它在復(fù)雜代碼、智能體工作流和角色扮演方面表現(xiàn)出色,開始爭相猜測它的真實(shí)身份。根據(jù)統(tǒng)計(jì),25%的用戶認(rèn)為它是Anthropic的Claude Sonnet 5,20%認(rèn)為是DeepSeek,10%認(rèn)為是Grok,只有少數(shù)人猜到是GLM-5。

官方揭曉后,這件事在AI社區(qū)引發(fā)了不小的震動,它證明了一件事:當(dāng)品牌標(biāo)簽被遮住,一個來自中國的開源模型可以憑純粹的能力表現(xiàn)贏得全球開發(fā)者的認(rèn)可。團(tuán)隊(duì)認(rèn)為,這次匿名測試收到的反饋比任何公開發(fā)布的評測都更真實(shí)可靠,因?yàn)橛脩敉耆腔谑褂皿w驗(yàn)做出的判斷,沒有任何先入為主的品牌濾鏡。

至頂AI實(shí)驗(yàn)室洞見

GLM-5想證明的核心命題是:AI不只能當(dāng)工具,還能當(dāng)工程師。它通過大量技術(shù)創(chuàng)新,從省計(jì)算量的稀疏注意力,到高效的異步強(qiáng)化學(xué)習(xí)框架,再到覆蓋萬個真實(shí)場景的訓(xùn)練環(huán)境,把這個命題在實(shí)驗(yàn)室里變成了初步現(xiàn)實(shí)。當(dāng)然,它還沒有完全抵達(dá)終點(diǎn),在需要跨多步驟執(zhí)行的超長任務(wù)上與最強(qiáng)的閉源模型相比仍有差距,在需要精細(xì)端到端完成的前端開發(fā)任務(wù)上也還有提升空間。

但這個方向本身是清晰的:AI的下一個臺階,不是更會聊天,而是更會干活。你來描述需求,它去完成項(xiàng)目,從第一行代碼到最后一個測試通過,全程自主,不需要你手把手帶路。GLM-5是這條路上一個值得關(guān)注的里程碑,而這條路,還有很長要走。

論文地址:https://arxiv.org/abs/2602.15763v1

END本文來自至頂AI實(shí)驗(yàn)室,一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實(shí)驗(yàn)室。致力于推動生成式AI在各個領(lǐng)域的創(chuàng)新與突破,挖掘其潛在的應(yīng)用場景,為企業(yè)和個人提供切實(shí)可行的解決方案。

Q&A

Q1:GLM-5和普通的ChatGPT有什么不同?

A:GLM-5不只是回答問題的AI,它更像是一個能獨(dú)立完成軟件工程任務(wù)的智能體,可以自己規(guī)劃步驟、調(diào)用工具、執(zhí)行代碼、修復(fù)錯誤,直到完成整個項(xiàng)目,而不是簡單地給你一段代碼讓你自己去跑。

Q2:GLM-5是開源的嗎,普通人能用嗎?

A:是的,GLM-5是開源模型,代碼和權(quán)重發(fā)布在GitHub(github.com/zai-org/GLM-5),普通用戶可以通過多個推理服務(wù)平臺使用,也可以自行部署,但完整部署對計(jì)算資源要求較高。

Q3:GLM-5的代碼能力有沒有超過Claude或GPT?

A:在部分指標(biāo)上已經(jīng)超過,例如多語言代碼修復(fù)和信息搜索任務(wù),但在需要多步驟長鏈條執(zhí)行的復(fù)雜軟件工程任務(wù)上,GLM-5目前仍略遜于Claude Opus 4.5,團(tuán)隊(duì)表示這是正在持續(xù)攻克的方向。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
開拓者4大主力缺陣,10人輪換出場!楊瀚森看清斯普利特表面一套

開拓者4大主力缺陣,10人輪換出場!楊瀚森看清斯普利特表面一套

球場沒跑道
2026-02-27 12:03:28
巴基斯坦空襲阿富汗首都!雙方為何再次大打出手?

巴基斯坦空襲阿富汗首都!雙方為何再次大打出手?

斌聞天下
2026-02-27 12:04:52
深圳灣公園晚上“黑燈瞎火”被吐槽,公園管理中心回應(yīng):為了讓鳥兒睡好覺,主要出入口等地保留了基礎(chǔ)照明

深圳灣公園晚上“黑燈瞎火”被吐槽,公園管理中心回應(yīng):為了讓鳥兒睡好覺,主要出入口等地保留了基礎(chǔ)照明

揚(yáng)子晚報(bào)
2026-02-27 12:33:02
她濫交、吸毒、出軌,“中國最美女畫家”,最終以才華征服世界

她濫交、吸毒、出軌,“中國最美女畫家”,最終以才華征服世界

坦腹齋
2026-02-27 18:44:49
英媒怒斥德日:不該逼迫壟斷中國技術(shù),現(xiàn)在他們反過來壟斷全球了

英媒怒斥德日:不該逼迫壟斷中國技術(shù),現(xiàn)在他們反過來壟斷全球了

一盅情懷
2026-02-27 14:05:37
原來他們是兩口子,低調(diào)拍戲,都是國家一級演員,如今丁克也幸福

原來他們是兩口子,低調(diào)拍戲,都是國家一級演員,如今丁克也幸福

卷史
2026-02-27 11:35:54
父母把價(jià)值160萬元江景房堆成“廢品站”,為省水費(fèi)閑置洗衣機(jī)堅(jiān)持手洗……網(wǎng)友直呼“同款父母”,專家建議→

父母把價(jià)值160萬元江景房堆成“廢品站”,為省水費(fèi)閑置洗衣機(jī)堅(jiān)持手洗……網(wǎng)友直呼“同款父母”,專家建議→

環(huán)球網(wǎng)資訊
2026-02-27 08:37:20
悲催!不自量力把婚離了,飯碗也碎了,50多歲保險(xiǎn)女如今欲哭無淚

悲催!不自量力把婚離了,飯碗也碎了,50多歲保險(xiǎn)女如今欲哭無淚

火山詩話
2026-02-27 06:14:00
比上班強(qiáng)的小生意:幾百塊開干,當(dāng)天見錢,適合不想再看老板臉色

比上班強(qiáng)的小生意:幾百塊開干,當(dāng)天見錢,適合不想再看老板臉色

黑哥講現(xiàn)代史
2026-02-27 13:06:27
孟子義李昀銳,又一對“唐嫣羅晉”!

孟子義李昀銳,又一對“唐嫣羅晉”!

黎兜兜
2026-02-26 21:20:46
庾澄慶聽“庾爸爸”當(dāng)場炸毛!恩利秒改“我爹”救場,秦昊被喊“昊哥”卻成心頭肉?

庾澄慶聽“庾爸爸”當(dāng)場炸毛!恩利秒改“我爹”救場,秦昊被喊“昊哥”卻成心頭肉?

動物奇奇怪怪
2026-02-25 10:45:08
成都小米SU7事故細(xì)節(jié)進(jìn)一步曝光,小米汽車再陷安全爭議

成都小米SU7事故細(xì)節(jié)進(jìn)一步曝光,小米汽車再陷安全爭議

澎湃新聞
2026-02-27 19:14:26
CCTV5直播!中國女足vs朝鮮,傳來2個好消息,劍指亞洲杯頭名出線

CCTV5直播!中國女足vs朝鮮,傳來2個好消息,劍指亞洲杯頭名出線

侃球熊弟
2026-02-28 00:10:03
韓寒的這場“豪賭”,贏得很徹底,他能分賬多少錢?

韓寒的這場“豪賭”,贏得很徹底,他能分賬多少錢?

八卦南風(fēng)
2026-02-25 13:37:35
再見內(nèi)馬爾!2026年世界杯夢碎!巴西總統(tǒng)爆料,安帥不搞人情世故

再見內(nèi)馬爾!2026年世界杯夢碎!巴西總統(tǒng)爆料,安帥不搞人情世故

阿泰希特
2026-02-27 14:02:33
死了一個女人,埋葬半個王朝

死了一個女人,埋葬半個王朝

我是歷史其實(shí)挺有趣
2026-02-27 15:23:11
全國名中醫(yī)、“石氏傷科”代表性傳承人石印玉逝世,享年83歲

全國名中醫(yī)、“石氏傷科”代表性傳承人石印玉逝世,享年83歲

文匯報(bào)
2026-02-27 21:03:02
卡里克談連續(xù)使用相同首發(fā);卡里克:我非常喜歡烏加特,他是球隊(duì)重要的一環(huán)

卡里克談連續(xù)使用相同首發(fā);卡里克:我非常喜歡烏加特,他是球隊(duì)重要的一環(huán)

MUREDS
2026-02-27 23:33:13
為何郭士強(qiáng)挑戰(zhàn)違體卻吃T?日本媒體曬出證據(jù),被吹T真的不冤

為何郭士強(qiáng)挑戰(zhàn)違體卻吃T?日本媒體曬出證據(jù),被吹T真的不冤

南海浪花
2026-02-27 08:14:39
49歲陳思思近況曝光:二婚嫁師鵬很幸福

49歲陳思思近況曝光:二婚嫁師鵬很幸福

精彩背后的故事
2026-02-26 20:04:30
2026-02-28 08:00:49
至頂AI實(shí)驗(yàn)室 incentive-icons
至頂AI實(shí)驗(yàn)室
一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實(shí)驗(yàn)室。
1958文章數(shù) 162關(guān)注度
往期回顧 全部

科技要聞

狂攬1100億美元!OpenAI再創(chuàng)融資神話

頭條要聞

160萬粉絲"反詐老陳"被罰 官方:以反詐為名煽動對立

頭條要聞

160萬粉絲"反詐老陳"被罰 官方:以反詐為名煽動對立

體育要聞

一場必須要贏的比賽,男籃何止擊敗了裁判

娛樂要聞

郭晶晶霍啟剛現(xiàn)身香港藝術(shù)節(jié)盡顯恩愛

財(cái)經(jīng)要聞

沈明高提共富建議 百姓持科技股國家兜底

汽車要聞

嵐圖泰山黑武士版3月上市 搭載華為四激光智駕方案

態(tài)度原創(chuàng)

游戲
家居
旅游
親子
軍事航空

《寶可夢:冠軍》4月登陸NS 夏季登陸手機(jī)端

家居要聞

素色肌理 品意式格調(diào)

旅游要聞

春節(jié)假期后機(jī)票、酒店價(jià)格回落!中老年群體成錯峰游主力

親子要聞

今年過年和父母鬧別扭了嗎?希望小女孩能找到和父母相處最舒服的方式

軍事要聞

美國11架F-22隱形戰(zhàn)機(jī)抵達(dá)以色列

無障礙瀏覽 進(jìn)入關(guān)懷版