国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

中科大發(fā)布Live Avatar:AI數(shù)字人無限聊天不翻車

0
分享至

你愿意和一個數(shù)字人視頻通話嗎?如果它的嘴型、表情跟說話的聲音完美配合,宛如真人。而且這場對話可以持續(xù)幾個小時甚至更久,這個數(shù)字人始終保持著同一張臉、同樣的膚色,不會突然變臉或者出現(xiàn)詭異的色彩偏差。


2025年12月,中科大和阿里巴巴的研究團隊,發(fā)布了一項名為Live Avatar的突破性技術(shù)。這項研究的核心成果是:他們成功讓一個擁有140億參數(shù)的大規(guī)模AI模型,實現(xiàn)了實時、無限時長的高清數(shù)字人視頻生成。簡單來說,就是讓超級大腦也能實時說話,而且可以一直說下去,不會越說越糟糕。

為什么讓數(shù)字人無限聊天這么難?

讓AI生成的數(shù)字人持續(xù)說話,究竟難在哪里?

你可以把AI生成視頻想象成一個特別挑剔的廚師在做飯。這位廚師(AI模型)需要一道菜一道菜地做(一幀一幀地生成畫面),而且每道菜都要和前面的菜完美搭配(保持視覺連貫性)。問題來了:如果這位廚師要連續(xù)做幾百道菜,甚至上千道菜呢?

第一個大麻煩是速度。目前最厲害的AI視頻生成技術(shù)叫擴散模型,它的工作原理有點像用橡皮擦慢慢擦掉一幅畫上的涂鴉。想象一下,一幅被完全涂花的畫,AI需要一點一點地把雜亂的涂鴉擦掉,最終還原出清晰的圖像。這個擦除過程需要反復進行很多次(通常幾十次甚至上百次),每次都要讓整個超大模型運算一遍。對于140億參數(shù)的模型來說,這簡直就像讓一頭大象跳芭蕾舞,雖然理論上可能,但實際操作起來慢得讓人抓狂。結(jié)果就是,生成一秒鐘的視頻可能需要好幾秒甚至更長時間,完全無法實時使用。

第二個大麻煩是記憶衰退。當數(shù)字人持續(xù)生成視頻時,就像一個人在不斷地復印復印件。你可能玩過這個游戲:把一張紙復印一份,再把復印件復印一份,如此反復。最后你會發(fā)現(xiàn),字跡變得越來越模糊,甚至面目全非。AI生成長視頻時也會出現(xiàn)類似的問題,數(shù)字人可能慢慢變臉,膚色可能漸漸偏移,整體畫面質(zhì)量也會逐漸下降。這種現(xiàn)象被研究者們稱為身份漂移和色彩偏差。


在Live Avatar之前,市面上的技術(shù)要么只能做到實時但質(zhì)量一般(因為用的是小模型),要么質(zhì)量很好但速度太慢(因為用的是大模型)。就好比你只能選擇騎自行車快速到達目的地,或者坐豪華轎車舒適地慢慢抵達,但沒法既快又舒適。研究團隊在論文中專門做了一個對比表格,展示了目前主流方法的局限:大多數(shù)方法無法同時實現(xiàn)"流式生成"、"實時速度"和"無限時長"三個目標,而Live Avatar是第一個全部做到的。

流水線式的聰明解法

那么,Live Avatar是怎么破解這個難題的呢?研究團隊想出了一個特別巧妙的辦法,叫做"時間步流水線并行"(Timestep-forcing Pipeline Parallelism,簡稱TPP)。


還記得我們說過,擴散模型生成圖像就像擦除涂鴉嗎?通常情況下,這個擦除過程是串行的,必須先擦第一遍,等擦完了才能開始擦第二遍,以此類推。這就像一個人在流水線上獨自完成所有工序,效率自然很低。

Live Avatar的做法是:請來一群幫手,讓每個人只負責一道工序。具體來說,他們用了5塊高性能顯卡(H800 GPU),每塊顯卡只負責擦除過程中的一個特定步驟。比如說,如果整個擦除過程需要4步,那么第一塊顯卡只做第一步(把涂鴉從最亂擦到稍微清晰一點),第二塊顯卡只做第二步(繼續(xù)擦得更清晰),以此類推。最后一塊顯卡負責把完成的畫面解碼成真正的視頻畫面。

這樣一來,當?shù)谝粔K顯卡處理完一幀畫面的第一步,它就可以把半成品傳遞給第二塊顯卡,然后立刻開始處理下一幀畫面的第一步。與此同時,第二塊顯卡在處理第一幀的第二步,第三塊顯卡可能在處理更早一幀的第三步……就像真正的工廠流水線一樣,每塊顯卡都在不停地忙碌,沒有人需要等待。

這個方法有一個特別關(guān)鍵的細節(jié):每塊顯卡都有自己的"記憶本"(KV緩存),記錄著它處理過的歷史信息。而且,每塊顯卡的記憶本只記錄同樣"擦除程度"的信息。這聽起來有點奇怪,為什么要這樣設(shè)計呢?

研究團隊專門做了實驗來回答這個問題。他們發(fā)現(xiàn),讓AI看著"同樣模糊程度"的歷史信息來處理當前畫面,效果比看著"完全清晰"的歷史信息要好。這可能是因為AI在訓練時就是這樣學習的,它習慣了在特定的"模糊度"下工作,突然給它太清晰的參考反而會讓它困惑。就好比一個習慣戴眼鏡看譜的鋼琴家,你突然給他換成高清大屏幕顯示,他反而可能彈錯音。

通過這套流水線系統(tǒng),Live Avatar在5塊顯卡上實現(xiàn)了每秒20幀的生成速度,這意味著它可以實時生成流暢的視頻,你說話的同時,數(shù)字人就在同步"說話"。更重要的是,這種并行方式幾乎不需要顯卡之間傳輸太多數(shù)據(jù)(只傳遞半成品畫面,不傳遞記憶本),通信開銷非常小,效率極高。

讓數(shù)字人記住自己長什么樣

解決了速度問題,還有一個更棘手的挑戰(zhàn):如何讓數(shù)字人在長時間對話中保持一致的外貌?

想象你正在畫一幅連環(huán)畫,每一格都要畫同一個人物。如果你畫了幾百格甚至幾千格,很可能畫著畫著就跑偏了,臉型變了一點,發(fā)色深了一點,背景色調(diào)也不太對了。AI生成長視頻時也會遇到同樣的問題,研究者稱之為"推理模式漂移"和"分布漂移"。

Live Avatar提出了一套叫做"滾動錨點幀機制"(Rolling Sink Frame Mechanism,簡稱RSFM)的解決方案。這個名字同樣很學術(shù),但背后的思想非常直觀。

核心想法是:給AI一張"標準照",讓它在整個生成過程中不斷參考這張照片,確保畫出來的人物始終像照片上的樣子。但這里有兩個精妙的設(shè)計。


第一個設(shè)計叫"自適應(yīng)注意力錨點"(Adaptive Attention Sink,簡稱AAS)。一開始,AI會參考用戶提供的原始參考圖片。但是,當AI生成了第一幀視頻畫面后,系統(tǒng)會用這第一幀畫面來替換原始參考圖片。為什么要這樣做呢?因為AI生成的畫面和原始照片在風格上可能有微妙的差異。如果一直參考原始照片,這種差異會持續(xù)存在并慢慢累積。但如果參考的是AI自己生成的第一幀,后續(xù)所有畫面都會和第一幀保持一致,整體風格也就統(tǒng)一了。這就像一個樂隊在演奏時,指揮不是按照樂譜的節(jié)拍走,而是跟著樂隊實際演奏的節(jié)奏來調(diào)整,這樣雖然可能和原譜有一點點出入,但整個演奏會非常和諧統(tǒng)一。


第二個設(shè)計叫"滾動位置編碼"(Rolling RoPE)。這涉及到AI如何理解"時間"的問題。AI在處理視頻時,需要知道每一幀畫面在時間軸上的位置,這一幀是第1幀還是第1000幀?位置編碼就是告訴AI這個信息的方式。問題是,AI在訓練時只見過幾分鐘長度的視頻,它的"時間尺度"是有限的。如果你讓它處理一個幾小時長的視頻,那些時間位置數(shù)字會變得巨大,超出AI的認知范圍。

滾動位置編碼的解決方案很聰明:它不讓錨點幀的位置數(shù)字固定不變,而是讓它隨著視頻進度滾動。具體來說,錨點幀的位置總是被設(shè)定為當前幀位置加上一個固定偏移。這樣一來,無論視頻生成到第100幀還是第10000幀,錨點幀和當前幀之間的"相對距離"始終保持在一個合理的范圍內(nèi),就像一個永遠走在你前面固定距離的向?qū)?,無論你走多遠,他都在那個位置等你。

研究團隊還在訓練階段引入了一個叫歷史污染(History Corrupt)的技術(shù)。這聽起來有點反直覺,為什么要污染歷史信息呢?原因是這樣的:在實際使用時,AI參考的歷史幀都是它自己生成的,難免有一些小瑕疵;但在訓練時,如果給AI參考的都是完美的真實視頻幀,AI就會變得嬌氣,一遇到有瑕疵的歷史幀就不知道該怎么辦了。通過在訓練時故意給歷史幀加一些噪聲,AI學會了在"不完美"的條件下依然能做出好的判斷,就像一個在嘈雜環(huán)境中練習過的歌手,到了正式演出時反而更穩(wěn)定。

兩階段訓練:先打基礎(chǔ),再精雕細琢

Live Avatar的訓練過程分為兩個階段,就像培養(yǎng)一個技能一樣,先學基礎(chǔ)動作,再學高級技巧。


第一階段叫擴散強迫預訓練(Diffusion Forcing Pretraining)。在這個階段,研究團隊教AI學會一個關(guān)鍵能力:逐塊生成視頻。他們把視頻分成一小塊一小塊的(每塊包含3幀畫面),讓AI學會一次只關(guān)注一塊,同時參考前面已經(jīng)生成的塊。這就像教一個人寫連載小說,先學會寫好每一章,同時記住前面的劇情,保持故事連貫。

在這個階段,研究團隊使用了一種特殊的"因果遮罩"策略。簡單來說,就是告訴AI:"你只能看到過去發(fā)生的事情,不能偷看未來。"每一塊畫面在生成時,只能參考它前面的塊,不能參考后面的塊。這確保了AI能夠真正做到"邊走邊生成",而不是必須等整個視頻都規(guī)劃好才能開始。

第二階段叫自強迫分布匹配蒸餾(Self-Forcing Distribution Matching Distillation)。核心思想是:讓AI學會偷懶,用更少的步驟完成同樣質(zhì)量的工作。

還記得我們說過,擴散模型生成圖像需要反復"擦除涂鴉"很多次嗎?在第一階段訓練完后,AI還是需要很多步驟才能生成高質(zhì)量的畫面。第二階段的目標就是把這個步驟數(shù)大幅壓縮,從幾十步壓縮到只要4步。

這種壓縮不是簡單的加速,而是一種知識轉(zhuǎn)移,學術(shù)上叫蒸餾。想象一下,有一個經(jīng)驗豐富的老師傅(原始的多步模型),做一道菜需要慢工出細活,走很多步驟?,F(xiàn)在要訓練一個學徒(蒸餾后的少步模型),讓他用更少的步驟做出同樣好吃的菜。方法是:讓學徒先嘗試做菜,然后讓老師傅品嘗評價,告訴學徒哪里做得不夠好。學徒根據(jù)反饋調(diào)整,反復練習,最終學會了用更簡潔的方法達到同樣的效果。

研究團隊發(fā)現(xiàn),這種蒸餾過程不僅加快了速度,還意外地提升了畫面質(zhì)量。這個發(fā)現(xiàn)和之前一些研究的結(jié)論一致,蒸餾過程中使用的"分布匹配"損失函數(shù),某種程度上起到了類似"強化學習"的作用,能夠優(yōu)化模型的美學表現(xiàn)和整體質(zhì)量。就好比學徒在學習老師傅技藝的過程中,居然發(fā)展出了一些老師傅都沒有的新技巧。

真實效果如何?

說了這么多技術(shù)細節(jié),Live Avatar的實際表現(xiàn)到底怎么樣呢?研究團隊做了大量的實驗來驗證他們的系統(tǒng)。

首先是速度測試。在5塊H800顯卡上,Live Avatar實現(xiàn)了每秒20幀的端到端生成速度,這意味著它可以流暢地實時生成視頻。作為對比,其他使用類似規(guī)模模型的方法,速度通常只有每秒0.16到0.26幀,比Live Avatar慢了將近100倍。有一些方法確實能達到實時速度(比如Ditto方法能達到每秒21.8幀),但它們使用的模型規(guī)模只有Live Avatar的七十分之一(2億參數(shù)對比140億參數(shù)),畫面質(zhì)量自然也有差距。


關(guān)于畫面質(zhì)量,研究團隊使用了多個標準指標來評估,包括美學得分(ASE)、圖像質(zhì)量(IQA)、唇形同步度(Sync-C和Sync-D)以及身份一致性(Dino-S)。在短視頻測試中,Live Avatar的各項指標都達到了競爭力水平,與使用相同基礎(chǔ)模型但速度慢100倍的方法相當甚至更好。

更令人印象深刻的是長視頻測試。研究團隊測試了7分鐘長度的視頻生成,發(fā)現(xiàn)Live Avatar在所有指標上都大幅領(lǐng)先競爭對手。其他方法在長時間生成時普遍出現(xiàn)明顯的畫質(zhì)下降,而Live Avatar的畫面質(zhì)量始終保持穩(wěn)定。論文中的對比圖清楚地展示了這一點:在生成400秒視頻后,其他方法的數(shù)字人或者臉型變了,或者色調(diào)偏了,或者細節(jié)模糊了;而Live Avatar生成的數(shù)字人依然保持著和開始時一樣的清晰面貌。

研究團隊甚至做了一個極限測試:讓系統(tǒng)連續(xù)生成10000秒(將近3小時)的視頻。要知道,他們的模型在訓練時只見過5秒鐘長度的視頻片段。按照常理,讓模型處理比訓練時長幾千倍的內(nèi)容,肯定會"崩潰"。但實驗結(jié)果顯示,無論是在10秒、100秒、1000秒還是10000秒的時間點上采樣,視頻的畫質(zhì)指標幾乎沒有變化。這證明了滾動錨點幀機制的強大有效性。


除了客觀指標,研究團隊還進行了主觀評測。他們邀請了20位參與者,對各種方法生成的視頻進行盲評,從"自然度"、"同步性"和"一致性"三個維度打分。結(jié)果顯示,雖然有些方法在某些客觀指標上表現(xiàn)更好(比如OmniAvatar在唇形同步度指標上得分很高),但人類評審反而給它的打分較低。原因是這些方法為了優(yōu)化客觀指標,讓數(shù)字人的嘴巴動作變得過于夸張,反而顯得不自然。而Live Avatar在三個維度上的人類評分都名列前茅,這說明它確實做到了讓數(shù)字人看起來自然、同步、一致。

每個技術(shù)組件的價值

為了證明每個技術(shù)組件都是必要的,研究團隊還做了詳細的消融實驗,也就是把各個組件一個一個去掉,看看效果會變差多少。

關(guān)于流水線并行(TPP),如果去掉這個設(shè)計,速度會從每秒20幀降到每秒4幀,減慢了5倍。嘗試用傳統(tǒng)的多GPU并行方式(序列并行)來代替,也只能達到每秒5幀,遠不如TPP高效。這證明了TPP不只是一個簡單的工程優(yōu)化,而是一個真正突破性的系統(tǒng)設(shè)計。


關(guān)于長視頻生成的各個組件,去掉自適應(yīng)注意力錨點后,美學得分從3.38降到3.13,圖像質(zhì)量從4.73降到4.44;去掉滾動位置編碼后,身份一致性分數(shù)從0.93降到0.86;去掉歷史污染機制后,美學得分更是暴跌到2.90,圖像質(zhì)量降到3.88。這些數(shù)據(jù)清楚地表明,每個組件都在發(fā)揮重要作用,缺一不可。

研究團隊還專門對比了"同步驟記憶"和"清晰記憶"兩種策略。所謂同步驟記憶,就是讓AI在處理第N步去噪時,參考歷史幀的第N步中間結(jié)果;清晰記憶則是讓AI始終參考歷史幀的最終清晰版本。實驗結(jié)果令人意外,同步驟記憶在所有指標上都優(yōu)于清晰記憶,而且還能支持流水線并行(因為不需要等待歷史幀完全處理完)。這個發(fā)現(xiàn)對于理解擴散模型的工作原理很有價值。

這項技術(shù)能用來做什么?

Live Avatar的應(yīng)用場景非常廣泛。最直接的應(yīng)用是虛擬主播和數(shù)字人直播。想象一下,一個24小時不間斷的新聞播報數(shù)字人,它可以持續(xù)工作幾個小時,始終保持一致的形象和高質(zhì)量的畫面。又或者是在線教育場景中的虛擬教師,能夠?qū)崟r回答學生的問題,用自然的表情和口型進行講解。

另一個重要應(yīng)用是實時視頻通話中的虛擬形象。你可以用自己的聲音說話,但屏幕上顯示的是一個定制的數(shù)字人形象,這在隱私保護、匿名交流等場景中很有價值。Live Avatar的實時性能意味著這種應(yīng)用可以流暢地進行,不會有明顯的延遲。

研究團隊特意展示了Live Avatar的泛化能力,它不僅能處理真實人臉,還能驅(qū)動卡通角色、動畫人物,甚至是擬人化的非人類對象。論文中展示的一個有趣例子是讓一團火焰說話,火焰的形態(tài)隨著音頻節(jié)奏變化,仿佛真的在開口說話一樣。這種創(chuàng)造性的應(yīng)用展示了技術(shù)的靈活性和想象空間。

當然,研究團隊也坦誠地指出了當前技術(shù)的局限性。雖然TPP大幅提升了幀率(每秒能生成多少幀),但"首幀延遲"(從收到音頻到輸出第一幀畫面的時間)并沒有明顯改善,這在需要極低延遲的交互場景中可能是個問題。另外,系統(tǒng)對錨點幀機制的依賴很強,在一些復雜場景中可能影響長時間的時序一致性。團隊表示,未來會繼續(xù)研究如何降低延遲和進一步提升時序連貫性。

至頂AI實驗室洞見

Live Avatar研究團隊通過巧妙的流水線并行系統(tǒng)設(shè)計和滾動錨點幀機制算法創(chuàng)新,同時解決了速度和質(zhì)量兩個看似矛盾的問題。而且他們的方法具有很強的通用性,同樣的思路可以應(yīng)用到其他需要實時生成的AI任務(wù)中。

我們離真假難辨的數(shù)字人又近了一步。未來,你在視頻通話中看到的人,可能是一個AI驅(qū)動的數(shù)字形象,而你完全無法分辨。這帶來了便利,也帶來了新的思考:我們應(yīng)該如何應(yīng)對這種技術(shù)帶來的信任問題?如何防止技術(shù)被濫用于欺騙?研究團隊在論文中也特別提到了倫理考量,表示他們的技術(shù)僅用于合法的遠程呈現(xiàn)和交互應(yīng)用,并建議在實際部署時采取訪問控制和數(shù)字水印等措施。

科技的發(fā)展總是比我們想象的更快。而Live Avatar,正是這個加速進程中的一個重要節(jié)點。

論文地址:https://arxiv.org/abs/2512.04677v3

本文來自至頂AI實驗室,一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實驗室。致力于推動生成式AI在各個領(lǐng)域的創(chuàng)新與突破,挖掘其潛在的應(yīng)用場景,為企業(yè)和個人提供切實可行的解決方案。

Q&A

Q1:Live Avatar是什么?

A:Live Avatar是由阿里巴巴集團聯(lián)合中國科學技術(shù)大學等高校研發(fā)的AI數(shù)字人視頻生成技術(shù),它能夠根據(jù)音頻實時生成高清數(shù)字人說話視頻,而且可以無限時長地持續(xù)生成而不出現(xiàn)畫質(zhì)下降或"變臉"問題。

Q2:Live Avatar需要什么硬件才能運行?

A:論文中的實驗使用了5塊NVIDIA H800顯卡才能達到每秒20幀的實時生成速度。這意味著目前它還是一個需要高端硬件支持的專業(yè)級技術(shù),短期內(nèi)可能主要用于企業(yè)級應(yīng)用而非普通消費者設(shè)備。

Q3:這項技術(shù)會不會被用來制作"深度偽造"假視頻?

A:這確實是一個值得關(guān)注的問題。研究團隊在論文中專門討論了倫理考量,強調(diào)技術(shù)僅用于合法用途,并建議采用訪問控制和數(shù)字水印等措施來防止濫用。不過,任何強大技術(shù)都存在被誤用的風險,社會需要在技術(shù)普及的同時建立相應(yīng)的監(jiān)管和檢測機制。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
央視跨年晚會比拼酒量,茅臺冠名主角搶天時,汾酒地利人和被摩擦

央視跨年晚會比拼酒量,茅臺冠名主角搶天時,汾酒地利人和被摩擦

動物奇奇怪怪
2026-01-01 03:52:34
剛剛,甘肅定西發(fā)生地震

剛剛,甘肅定西發(fā)生地震

甘肅交通廣播
2025-12-31 18:02:30
深圳一名幼兒園家長帶幼兒在馬路上值護學崗,怕孩子亂跑緊拽其衣領(lǐng),教育局工作人員:正核實,按要求是自愿報名

深圳一名幼兒園家長帶幼兒在馬路上值護學崗,怕孩子亂跑緊拽其衣領(lǐng),教育局工作人員:正核實,按要求是自愿報名

極目新聞
2025-12-31 13:18:58
煙草新規(guī)出擊!平價煙管夠、假煙無處藏,3億煙民的好日子來了?

煙草新規(guī)出擊!平價煙管夠、假煙無處藏,3億煙民的好日子來了?

復轉(zhuǎn)這些年
2025-12-30 23:37:15
中國政府呼吁謹慎前往日本,復旦大學馮瑋卻推薦中國學生去日本

中國政府呼吁謹慎前往日本,復旦大學馮瑋卻推薦中國學生去日本

百態(tài)人間
2025-12-30 05:00:03
更炸裂的來了,南博的水太深

更炸裂的來了,南博的水太深

亮見
2025-12-22 14:34:33
徹底脫胎換骨!目前喜迎5連勝的快船,或有望挑戰(zhàn)一波10連勝!

徹底脫胎換骨!目前喜迎5連勝的快船,或有望挑戰(zhàn)一波10連勝!

田先生籃球
2025-12-31 21:09:26
“央視當家花旦”朱迅:生命終將結(jié)束,為何不勇敢面對生命的終點

“央視當家花旦”朱迅:生命終將結(jié)束,為何不勇敢面對生命的終點

豐譚筆錄
2025-12-25 11:25:18
切爾西換帥!多方信號直指馬雷斯卡離隊 老板秘密接觸新帥候選人

切爾西換帥!多方信號直指馬雷斯卡離隊 老板秘密接觸新帥候選人

瀾歸序
2026-01-01 01:32:33
英超2-2,28歲AC米蘭舊將一球一助,35歲曼聯(lián)舊將破門+罰丟點球

英超2-2,28歲AC米蘭舊將一球一助,35歲曼聯(lián)舊將破門+罰丟點球

凌空倒鉤
2025-12-31 07:52:57
全款買下360萬的房子,房產(chǎn)證上卻沒有我的名字,弟弟說讓我刷卡

全款買下360萬的房子,房產(chǎn)證上卻沒有我的名字,弟弟說讓我刷卡

小秋情感說
2025-12-30 13:46:49
定價來了!2019年-2024年次新飛天“i茅臺”價格2649元/瓶-1909元/瓶

定價來了!2019年-2024年次新飛天“i茅臺”價格2649元/瓶-1909元/瓶

每日經(jīng)濟新聞
2026-01-01 00:38:05
新婚夜,新郎被咯得生痛,掀開被子一看,先勃然大怒后喜不自勝

新婚夜,新郎被咯得生痛,掀開被子一看,先勃然大怒后喜不自勝

書寫傳奇
2025-12-28 09:19:49
全身而退!北京一家5口完美套現(xiàn)24億,臨走前又坑了甘肅國資一把

全身而退!北京一家5口完美套現(xiàn)24億,臨走前又坑了甘肅國資一把

文史旺旺旺
2025-12-27 18:22:03
喜馬拉雅山的神秘部落:喜歡吃素,無婚姻制度,其繁衍方式特殊

喜馬拉雅山的神秘部落:喜歡吃素,無婚姻制度,其繁衍方式特殊

老謝談史
2025-12-30 17:23:53
二百多名軍官被槍斃、撤職、處分,長津湖戰(zhàn)役中失職的志愿軍88師

二百多名軍官被槍斃、撤職、處分,長津湖戰(zhàn)役中失職的志愿軍88師

丞丞故事匯
2025-12-28 00:13:54
為什么成功人士的精力都非常旺盛?網(wǎng)友:幾乎不管任何瑣碎的事情

為什么成功人士的精力都非常旺盛?網(wǎng)友:幾乎不管任何瑣碎的事情

另子維愛讀史
2025-12-29 17:29:04
女主持車禍去世,年僅38歲!好友透露其被“老頭樂”撞倒

女主持車禍去世,年僅38歲!好友透露其被“老頭樂”撞倒

深圳晚報
2025-12-31 08:14:08
改寫乾坤!捷克“獨角鯨”導彈可能成為烏克蘭2026年的秘密武器

改寫乾坤!捷克“獨角鯨”導彈可能成為烏克蘭2026年的秘密武器

軍迷戰(zhàn)情室
2025-12-29 22:10:06
“饅頭臉”混進央視劇,真實顏值嚇人,張鐸演技再好,也帶不動!

“饅頭臉”混進央視劇,真實顏值嚇人,張鐸演技再好,也帶不動!

付老師種植技術(shù)團隊
2025-12-31 22:27:12
2026-01-01 05:15:00
至頂AI實驗室 incentive-icons
至頂AI實驗室
一個專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實驗室。
895文章數(shù) 151關(guān)注度
往期回顧 全部

科技要聞

老羅,演砸了,也封神了?

頭條要聞

日企代表團推遲原定訪華行程 外交部回應(yīng)

頭條要聞

日企代表團推遲原定訪華行程 外交部回應(yīng)

體育要聞

羅馬諾:國米和巴薩再次就轉(zhuǎn)會聯(lián)系了坎塞洛的團隊

娛樂要聞

官宣才兩天就翻車?七七被連環(huán)爆料

財經(jīng)要聞

高培勇:分配制度改革是提振消費的抓手

汽車要聞

凱迪拉克純電中型SUV 售價不足24萬/33寸曲面屏

態(tài)度原創(chuàng)

親子
游戲
數(shù)碼
健康
房產(chǎn)

親子要聞

從羅永浩到你的孩子:關(guān)于ADHD,這個真相越早知越好!

Epic下周免費游戲曝光!經(jīng)典塔防Steam特別好評

數(shù)碼要聞

三星將在CES 2026發(fā)布廚房家電陣容,首次將谷歌Gemini塞進冰箱

元旦舉家出行,注意防流感

房產(chǎn)要聞

終于等來了!2026年首個買房大利好

無障礙瀏覽 進入關(guān)懷版