国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

東京大學(xué)等機(jī)構(gòu)聯(lián)手打造Mio:全球首個(gè)具備"交互智能"的數(shù)字人類

0
分享至


這項(xiàng)由東京山田AI研究院的蔡藝怡博士領(lǐng)導(dǎo)、聯(lián)合東京大學(xué)、東京科學(xué)院以及日本國(guó)家信息學(xué)研究所等多家機(jī)構(gòu)的研究團(tuán)隊(duì)開(kāi)展的突破性研究,于2025年12月16日發(fā)表在arXiv預(yù)印本平臺(tái)(論文編號(hào):arXiv:2512.13674v1)。感興趣的讀者可以通過(guò)該編號(hào)查詢完整論文原文。

回想一下那些科幻電影中栩栩如生的數(shù)字角色——它們不僅外表逼真,還能與人類進(jìn)行真正的對(duì)話和互動(dòng)。長(zhǎng)期以來(lái),現(xiàn)實(shí)中的數(shù)字人類雖然在外觀上已經(jīng)達(dá)到了近乎真實(shí)的水平,但在智能互動(dòng)方面卻始終停留在"照本宣科"的階段。它們更像是會(huì)動(dòng)的木偶,只能重復(fù)預(yù)設(shè)的動(dòng)作和臺(tái)詞,缺乏真正的理解力和適應(yīng)性。

為了徹底改變這一現(xiàn)狀,研究團(tuán)隊(duì)提出了全新的"交互智能"概念,并開(kāi)發(fā)出了名為Mio(多模態(tài)交互全能化身)的革命性系統(tǒng)。Mio不再是簡(jiǎn)單的模仿者,而是一個(gè)真正的智能體,它能夠理解用戶的意圖、表達(dá)自己的個(gè)性、并在長(zhǎng)期交互中不斷學(xué)習(xí)和成長(zhǎng)。

這項(xiàng)研究的創(chuàng)新之處在于將認(rèn)知推理與實(shí)時(shí)多模態(tài)表達(dá)完美結(jié)合。Mio就像一個(gè)擁有五感的數(shù)字生命體:它有大腦(思考模塊)負(fù)責(zé)理解和決策,有嘴巴(語(yǔ)音模塊)進(jìn)行表達(dá),有表情(面部動(dòng)畫模塊)傳達(dá)情感,有身體(肢體動(dòng)畫模塊)展現(xiàn)動(dòng)作,還有外表(渲染模塊)呈現(xiàn)視覺(jué)效果。這五個(gè)模塊協(xié)同工作,讓Mio能夠像真人一樣與用戶進(jìn)行自然、流暢的互動(dòng)。

一、突破傳統(tǒng)桎梏:從模仿到思考的質(zhì)的飛躍

傳統(tǒng)的數(shù)字人類制作方式可以分為兩種路徑:第一種是傳統(tǒng)的計(jì)算機(jī)圖形學(xué)方法,雖然能夠精確控制每一個(gè)細(xì)節(jié),但制作過(guò)程極其耗時(shí)耗力,就像手工雕刻一件藝術(shù)品一樣;第二種是基于生成模型的方法,雖然速度更快,但往往只能進(jìn)行離線生成,無(wú)法實(shí)現(xiàn)實(shí)時(shí)互動(dòng)。

更關(guān)鍵的問(wèn)題是,這兩種方法都只能創(chuàng)造出"表面功夫"——數(shù)字人類可以說(shuō)話、做動(dòng)作,但缺乏真正的理解能力。它們就像是錄音機(jī)和投影儀的組合體,只能播放預(yù)先錄制的內(nèi)容,無(wú)法根據(jù)實(shí)際情況做出智能反應(yīng)。

Mio系統(tǒng)的革命性在于引入了真正的"大腦"——一個(gè)具備推理能力的思考模塊。這個(gè)模塊就像人類的大腦皮層一樣,能夠理解用戶的話語(yǔ)背后的真實(shí)意圖,結(jié)合自己的性格特點(diǎn)和知識(shí)背景,做出恰當(dāng)?shù)幕貞?yīng)。比如,當(dāng)用戶說(shuō)"我今天心情不好"時(shí),Mio不會(huì)機(jī)械地回應(yīng)"為什么心情不好?",而是會(huì)根據(jù)與用戶的關(guān)系、當(dāng)前的情境以及自己的性格特征,可能選擇溫柔安慰、開(kāi)玩笑緩解氣氛,或者默默陪伴等不同的反應(yīng)方式。

研究團(tuán)隊(duì)在構(gòu)建這套系統(tǒng)時(shí)面臨了諸多技術(shù)挑戰(zhàn)。在語(yǔ)音合成方面,現(xiàn)有的文本轉(zhuǎn)語(yǔ)音模型缺乏高效的離散語(yǔ)音表示,難以滿足流暢對(duì)話所需的低延遲要求。在面部動(dòng)畫方面,存在著"僵尸臉"現(xiàn)象——數(shù)字人類在不說(shuō)話時(shí)往往表情僵硬,缺乏自然的聆聽(tīng)行為,這嚴(yán)重破壞了用戶的沉浸感。在身體動(dòng)作方面,自回歸模型容易出現(xiàn)錯(cuò)誤累積,而標(biāo)準(zhǔn)的擴(kuò)散模型在實(shí)時(shí)流媒體應(yīng)用中計(jì)算成本過(guò)高。

二、五臟俱全的數(shù)字生命體:Mio的模塊化設(shè)計(jì)

Mio系統(tǒng)采用了模塊化的設(shè)計(jì)理念,就像人體的不同器官各司其職又相互配合。每個(gè)模塊都專注于解決特定的問(wèn)題,同時(shí)通過(guò)精心設(shè)計(jì)的接口實(shí)現(xiàn)無(wú)縫協(xié)作。

思考模塊是整個(gè)系統(tǒng)的指揮中心,它采用了層次化記憶架構(gòu)和故事時(shí)間感知的知識(shí)圖譜。這就像給數(shù)字人類配備了一套完整的記憶系統(tǒng):短期記憶負(fù)責(zé)處理當(dāng)前對(duì)話的上下文,而長(zhǎng)期記憶則存儲(chǔ)著角色的性格特征、背景故事和與用戶的歷史互動(dòng)。更重要的是,這套記憶系統(tǒng)具備嚴(yán)格的時(shí)間邏輯約束,確保角色不會(huì)"劇透"未來(lái)的劇情發(fā)展,始終保持?jǐn)⑹碌倪B貫性。

語(yǔ)音模塊包含了研究團(tuán)隊(duì)自主研發(fā)的Kodama音頻分詞器和Kodama文本轉(zhuǎn)語(yǔ)音模型。這套系統(tǒng)的巧妙之處在于將語(yǔ)義信息和聲學(xué)信息進(jìn)行分離處理——就像分別處理"說(shuō)什么"和"怎么說(shuō)"兩個(gè)問(wèn)題。通過(guò)帶分頻技術(shù)和語(yǔ)義教師模型的設(shè)計(jì),系統(tǒng)能夠在極低的比特率下(僅1千比特每秒)實(shí)現(xiàn)高質(zhì)量的語(yǔ)音合成,同時(shí)支持多語(yǔ)言能力。

面部動(dòng)畫模塊解決了數(shù)字人類面部表情的兩大核心問(wèn)題:說(shuō)話時(shí)的唇形同步和不說(shuō)話時(shí)的自然聆聽(tīng)行為。研究團(tuán)隊(duì)采用了創(chuàng)新的兩階段訓(xùn)練策略:第一階段訓(xùn)練一個(gè)不依賴音頻的動(dòng)作生成器,學(xué)習(xí)自然的面部動(dòng)態(tài)模式;第二階段在此基礎(chǔ)上加入音頻條件,實(shí)現(xiàn)音頻驅(qū)動(dòng)的表情生成。這種設(shè)計(jì)讓Mio在聆聽(tīng)時(shí)不會(huì)呆若木雞,而是會(huì)展現(xiàn)出眨眼、微表情、細(xì)微頭部運(yùn)動(dòng)等自然的聆聽(tīng)行為。

身體動(dòng)畫模塊采用了名為FloodDiffusion的創(chuàng)新技術(shù),這是一種基于擴(kuò)散強(qiáng)制的流式動(dòng)作生成框架。與傳統(tǒng)方法不同,F(xiàn)loodDiffusion允許不同幀攜帶不同的噪聲水平,通過(guò)下三角噪聲調(diào)度策略實(shí)現(xiàn)低延遲的實(shí)時(shí)動(dòng)作生成。這就像在繪畫時(shí)可以同時(shí)處理畫面的不同部分——有些地方已經(jīng)完成,有些地方還在繪制中,有些地方還是空白,但整體效果是連貫流暢的。

渲染模塊基于擴(kuò)散變換器技術(shù),能夠?qū)?shù)化的3D控制信號(hào)轉(zhuǎn)換為高保真度、身份一致的人體視頻。與依賴參考圖像或驅(qū)動(dòng)視頻的傳統(tǒng)方法不同,這個(gè)模塊完全基于參數(shù)化控制,能夠在動(dòng)態(tài)姿態(tài)和攝像機(jī)條件下保持嚴(yán)格的多視角一致性。

三、語(yǔ)音系統(tǒng)的技術(shù)革新:讓數(shù)字人類開(kāi)口說(shuō)話

Mio的語(yǔ)音系統(tǒng)建立在兩個(gè)核心技術(shù)之上:Kodama音頻分詞器和Kodama文本轉(zhuǎn)語(yǔ)音模型。這套系統(tǒng)解決了數(shù)字人類語(yǔ)音合成中的幾個(gè)關(guān)鍵難題。

Kodama音頻分詞器的設(shè)計(jì)理念是將語(yǔ)音信號(hào)分解為語(yǔ)義和聲學(xué)兩個(gè)獨(dú)立的信息流。想象一下,當(dāng)我們說(shuō)話時(shí),實(shí)際上傳達(dá)了兩類信息:內(nèi)容信息(我們想說(shuō)什么)和表達(dá)信息(我們?nèi)绾握f(shuō))。傳統(tǒng)的音頻編解碼器往往將這兩類信息混合在一起處理,導(dǎo)致壓縮效率不高且難以精確控制。

Kodama分詞器采用了創(chuàng)新的頻帶分離技術(shù),將來(lái)自預(yù)訓(xùn)練W2v-BERT模型的語(yǔ)義嵌入進(jìn)行可學(xué)習(xí)的傅里葉變換頻帶分割。低頻段信息被量化到兩個(gè)殘差向量量化碼本中,而高頻段信息則與聲學(xué)流合并。這種設(shè)計(jì)實(shí)現(xiàn)了極高的壓縮比(1920倍壓縮)和超低的比特率(1千比特每秒),同時(shí)保持了高質(zhì)量的語(yǔ)音重建能力。

在多語(yǔ)言支持方面,研究團(tuán)隊(duì)收集了約50萬(wàn)小時(shí)的開(kāi)源語(yǔ)料和網(wǎng)絡(luò)數(shù)據(jù),覆蓋英語(yǔ)、中文、日語(yǔ)、西班牙語(yǔ)、德語(yǔ)、俄語(yǔ)、韓語(yǔ)、葡萄牙語(yǔ)、法語(yǔ)等多種語(yǔ)言。這個(gè)龐大的數(shù)據(jù)集使得Mio能夠在不同語(yǔ)言環(huán)境中都表現(xiàn)出色,特別是在日語(yǔ)環(huán)境中,其性能顯著超越了現(xiàn)有的競(jìng)爭(zhēng)對(duì)手。

Kodama文本轉(zhuǎn)語(yǔ)音模型基于Qwen3-1.7B語(yǔ)言模型,采用混合模態(tài)離散序列處理架構(gòu)。文本標(biāo)記和Kodama音頻標(biāo)記共享統(tǒng)一的嵌入空間,這種設(shè)計(jì)使得模型能夠直接推理跨模態(tài)依賴關(guān)系,并根據(jù)語(yǔ)言內(nèi)容、聲學(xué)上下文和對(duì)話歷史自回歸生成音頻延續(xù)。

特別值得一提的是,這套系統(tǒng)支持上下文學(xué)習(xí)的聲音克隆能力。只需要提供少量的目標(biāo)聲音樣本作為聲學(xué)示例,Mio就能夠?qū)W會(huì)模仿該聲音的特征,實(shí)現(xiàn)個(gè)性化的語(yǔ)音合成。這為創(chuàng)建具有獨(dú)特聲音特征的數(shù)字角色提供了強(qiáng)大的技術(shù)支持。

四、面部表情的藝術(shù):從僵硬到生動(dòng)的蛻變

數(shù)字人類的面部表情一直是一個(gè)技術(shù)難點(diǎn),特別是如何讓數(shù)字人類在不說(shuō)話時(shí)依然保持自然生動(dòng)的表情。研究團(tuán)隊(duì)開(kāi)發(fā)的UniLS(統(tǒng)一聆聽(tīng)-說(shuō)話)框架,巧妙地解決了這個(gè)被稱為"僵尸臉"的問(wèn)題。

傳統(tǒng)的面部動(dòng)畫方法往往將說(shuō)話和聆聽(tīng)視為兩個(gè)獨(dú)立的任務(wù)分別處理,這導(dǎo)致生成的動(dòng)畫在兩種狀態(tài)之間缺乏自然的過(guò)渡。UniLS的創(chuàng)新在于將這兩種行為統(tǒng)一在一個(gè)框架中處理,就像人類的面部表情系統(tǒng)一樣,說(shuō)話和聆聽(tīng)是連續(xù)的、相互關(guān)聯(lián)的行為狀態(tài)。

研究團(tuán)隊(duì)采用了兩階段訓(xùn)練策略來(lái)實(shí)現(xiàn)這一目標(biāo)。第一階段訓(xùn)練一個(gè)不依賴音頻的生成器,專門學(xué)習(xí)內(nèi)在的運(yùn)動(dòng)先驗(yàn)知識(shí)。這個(gè)生成器使用來(lái)自新聞廣播、訪談、流媒體內(nèi)容等多樣化視頻源的未配對(duì)數(shù)據(jù)進(jìn)行訓(xùn)練,學(xué)會(huì)生成自然的面部動(dòng)態(tài),包括眨眼、點(diǎn)頭、微表情等自發(fā)性行為。

第二階段在第一階段的基礎(chǔ)上,通過(guò)雙音軌音頻調(diào)節(jié)對(duì)生成器進(jìn)行微調(diào)。在這個(gè)階段,模型學(xué)會(huì)如何根據(jù)雙方的對(duì)話音頻來(lái)調(diào)整面部表情:當(dāng)角色說(shuō)話時(shí),表情應(yīng)與語(yǔ)音內(nèi)容和韻律特征保持同步;當(dāng)角色聆聽(tīng)時(shí),表情應(yīng)反映對(duì)對(duì)話者言語(yǔ)的自然反應(yīng)。

這種設(shè)計(jì)的巧妙之處在于,它模擬了人類面部表情的雙重驅(qū)動(dòng)機(jī)制。我們的面部表情既受到內(nèi)在情緒狀態(tài)的影響(內(nèi)在運(yùn)動(dòng)先驗(yàn)),也會(huì)根據(jù)外部刺激(如他人的話語(yǔ))做出相應(yīng)調(diào)整(外部音頻線索)。UniLS將這兩種機(jī)制有機(jī)結(jié)合,讓數(shù)字人類的表情變得更加自然和富有表現(xiàn)力。

在技術(shù)實(shí)現(xiàn)上,面部動(dòng)畫器使用多尺度VQ-VAE碼本進(jìn)行動(dòng)作表示,時(shí)間窗口大小為100幀(4秒),多尺度級(jí)別包括1、5、25、50、100幀。訓(xùn)練過(guò)程采用AdamW優(yōu)化器,學(xué)習(xí)率為1.0e-4,批量大小為128,訓(xùn)練200,000次迭代。整個(gè)訓(xùn)練過(guò)程在四塊NVIDIA H200 GPU上進(jìn)行,總計(jì)需要約40個(gè)GPU小時(shí)。

為了確保生成的面部動(dòng)作具有高質(zhì)量,研究團(tuán)隊(duì)使用了精心設(shè)計(jì)的跟蹤流水線來(lái)提取逐幀F(xiàn)LAME參數(shù),包括詳細(xì)的眼部注視和頭部姿態(tài)標(biāo)注。最終,他們獲得了675.5小時(shí)的對(duì)話數(shù)據(jù)和546.5小時(shí)的多場(chǎng)景數(shù)據(jù),其中對(duì)話數(shù)據(jù)包含251.5小時(shí)的說(shuō)話動(dòng)作(2260萬(wàn)幀)和406.0小時(shí)的聆聽(tīng)動(dòng)作(3650萬(wàn)幀)。

五、身體動(dòng)畫的實(shí)時(shí)生成:FloodDiffusion的技術(shù)突破

讓數(shù)字人類擁有自然流暢的身體動(dòng)作,并且能夠?qū)崟r(shí)響應(yīng)用戶指令,這是Mio系統(tǒng)面臨的另一個(gè)重大技術(shù)挑戰(zhàn)。研究團(tuán)隊(duì)開(kāi)發(fā)的FloodDiffusion技術(shù),為這個(gè)問(wèn)題提供了創(chuàng)新性的解決方案。

傳統(tǒng)的身體動(dòng)畫生成方法主要面臨兩大困境:自回歸模型容易出現(xiàn)誤差累積,就像傳話游戲一樣,錯(cuò)誤會(huì)在傳遞過(guò)程中被放大;而基于分塊的擴(kuò)散模型雖然質(zhì)量較高,但存在"首幀延遲"問(wèn)題,需要等待整個(gè)動(dòng)作塊生成完成才能輸出,無(wú)法滿足實(shí)時(shí)交互的需求。

FloodDiffusion采用了基于擴(kuò)散強(qiáng)制的創(chuàng)新技術(shù)路徑。這種方法的核心思想是允許序列中的不同幀攜帶不同的噪聲水平,就像在一幅正在繪制的畫作中,有些部分已經(jīng)完成,有些部分還在創(chuàng)作中,有些部分還是空白畫布。通過(guò)這種方式,系統(tǒng)可以在保證質(zhì)量的同時(shí)實(shí)現(xiàn)低延遲的流式生成。

系統(tǒng)首先使用因果變分自編碼器(Causal VAE)將高維運(yùn)動(dòng)序列映射到緊湊的連續(xù)潛在空間。這個(gè)編碼器和解碼器嚴(yán)格遵循因果性約束,意味著潛在表示和重建結(jié)果只依賴于當(dāng)前及之前的幀,不會(huì)"窺視"未來(lái)的信息。通過(guò)4倍的時(shí)間下采樣和4維的潛在通道,系統(tǒng)將263維的運(yùn)動(dòng)數(shù)據(jù)壓縮為高度緊湊的4×T/4表示,顯著降低了下游擴(kuò)散模型的計(jì)算負(fù)擔(dān)。

FloodDiffusion的關(guān)鍵創(chuàng)新是下三角調(diào)度策略。研究團(tuán)隊(duì)發(fā)現(xiàn),傳統(tǒng)的隨機(jī)調(diào)度策略在運(yùn)動(dòng)數(shù)據(jù)上表現(xiàn)不佳,因此設(shè)計(jì)了一種特定的噪聲調(diào)度模式。在任何生成步驟t,系統(tǒng)可以識(shí)別出三個(gè)區(qū)域:已完成的過(guò)去幀(完全去噪),正在處理的活躍窗口(具有不同噪聲水平),以及未來(lái)的噪聲區(qū)域(純?cè)肼暎_@種結(jié)構(gòu)化的噪聲分布確保了生成過(guò)程的局部性和連續(xù)性。

在模型架構(gòu)方面,F(xiàn)loodDiffusion采用了擴(kuò)散變換器骨干網(wǎng)絡(luò),并在活躍窗口內(nèi)使用雙向注意力機(jī)制。雖然整個(gè)系統(tǒng)是流式的,但正在去噪的幀需要相互關(guān)注以解決一致性問(wèn)題。研究表明,如果將活躍窗口內(nèi)的注意力限制為因果性,性能會(huì)顯著下降(FID從0.057上升到3.37),這說(shuō)明幀間的相互關(guān)注對(duì)于保持動(dòng)作連貫性至關(guān)重要。

為了處理來(lái)自思考模塊的時(shí)變指令(如"行走"→"揮手"),系統(tǒng)實(shí)現(xiàn)了逐幀文本條件機(jī)制。使用T5編碼器處理文本提示,并采用偏置注意力掩碼,讓每個(gè)運(yùn)動(dòng)幀關(guān)注在相應(yīng)時(shí)間激活的文本提示。當(dāng)思考模塊更新提示時(shí),新的嵌入會(huì)無(wú)縫集成到未來(lái)幀中,活躍窗口的重疊確保新舊運(yùn)動(dòng)風(fēng)格之間的平滑過(guò)渡。

六、視覺(jué)呈現(xiàn)的巔峰:AvatarDiT渲染系統(tǒng)

Mio系統(tǒng)的視覺(jué)呈現(xiàn)由AvatarDiT渲染模塊負(fù)責(zé),這個(gè)模塊的任務(wù)是將參數(shù)化的面部和身體運(yùn)動(dòng)轉(zhuǎn)換為逼真的人類視頻,同時(shí)保持嚴(yán)格的身份一致性和多視角幾何一致性。

AvatarDiT的設(shè)計(jì)理念是實(shí)現(xiàn)完全參數(shù)化的控制,而非依賴參考圖像或驅(qū)動(dòng)視頻。系統(tǒng)接收FLAME面部參數(shù)(捕獲面部表情、下頜姿態(tài)、凝視和局部頭部姿態(tài))、SMPL身體參數(shù)(表示全局身體姿態(tài)、關(guān)節(jié)運(yùn)動(dòng)和形狀)以及相機(jī)配置作為輸入,生成相應(yīng)的RGB視頻幀。

這種參數(shù)化控制方式的優(yōu)勢(shì)在于能夠?qū)崿F(xiàn)精確的運(yùn)動(dòng)控制和穩(wěn)定的多視角渲染。與基于圖像驅(qū)動(dòng)的方法不同,參數(shù)化控制不會(huì)受到參考圖像質(zhì)量或視角限制的影響,能夠在各種攝像機(jī)配置下生成一致的高質(zhì)量輸出。

考慮到面部運(yùn)動(dòng)控制和多視角生成的不同特性,以及收集同時(shí)具備兩種模態(tài)的數(shù)據(jù)集的困難,研究團(tuán)隊(duì)采用了三階段訓(xùn)練策略。第一階段專注于面部控制,訓(xùn)練FLAME適配器和運(yùn)動(dòng)編碼器,實(shí)現(xiàn)基于參數(shù)的面部控制。第二階段引入多視角控制,通過(guò)跨視角訓(xùn)練策略強(qiáng)化幾何和外觀的一致性。第三階段進(jìn)行聯(lián)合微調(diào),整合所有模塊以實(shí)現(xiàn)統(tǒng)一的身份一致生成。

在面部控制方面,研究團(tuán)隊(duì)開(kāi)發(fā)了一個(gè)4層變換器適配器,將112維FLAME參數(shù)映射到512維面部運(yùn)動(dòng)嵌入空間。FLAME參數(shù)向量定義為φ = [e; r_jaw; r_gpose; r_leye; r_reye],其中e表示100維表情系數(shù),其余12維表示各種局部姿態(tài)的軸角表示。適配器通過(guò)元素級(jí)殘差加法將處理后的參數(shù)注入到圖像衍生的運(yùn)動(dòng)嵌入中。

為了實(shí)現(xiàn)更精確的多視角控制,系統(tǒng)采用了基于SMPL的RGB渲染作為控制信號(hào),而非稀疏的OpenPose關(guān)鍵點(diǎn)。這些渲染圖像由SMPL參數(shù)和相機(jī)姿態(tài)生成,使得框架能夠完全由3D可控參數(shù)驅(qū)動(dòng),無(wú)需依賴輸入視頻。

在多視角訓(xùn)練過(guò)程中,系統(tǒng)隨機(jī)選擇1-5個(gè)不同視角的參考幀,并將其編碼為潛在表示。此外,系統(tǒng)還對(duì)每個(gè)DiT塊的調(diào)制層進(jìn)行微調(diào),引入基于相機(jī)的偏移,類似于時(shí)間嵌入偏移。相機(jī)參數(shù)通過(guò)線性調(diào)制嵌入到三個(gè)通道標(biāo)量向量中,影響前饋網(wǎng)絡(luò)的輸出。

七、思考模塊:賦予數(shù)字人類真正的智慧

Mio系統(tǒng)的核心在于其思考模塊,這是一個(gè)專門為數(shù)字角色設(shè)計(jì)的大語(yǔ)言模型系統(tǒng)。與通用的聊天機(jī)器人不同,這個(gè)模塊被設(shè)計(jì)為能夠維持一致的角色人設(shè)、理解復(fù)雜的敘事情境,并在長(zhǎng)期交互中展現(xiàn)智能行為。

思考模塊采用了層次化記憶架構(gòu),就像人類大腦的記憶系統(tǒng)一樣分為短期記憶和長(zhǎng)期記憶兩個(gè)層次。短期記憶充當(dāng)高速、易失性的對(duì)話緩沖區(qū),存儲(chǔ)即時(shí)的對(duì)話上下文、最近的話語(yǔ)歷史和當(dāng)前活躍的目標(biāo),使Mio能夠跟蹤對(duì)話的瞬時(shí)流程。

長(zhǎng)期記憶則采用了創(chuàng)新的故事情節(jié)知識(shí)圖譜設(shè)計(jì)。與標(biāo)準(zhǔn)的向量數(shù)據(jù)庫(kù)不同,這個(gè)圖譜將基礎(chǔ)記憶、性格特征和世界設(shè)定結(jié)構(gòu)化為實(shí)體(節(jié)點(diǎn))和關(guān)系(邊)。關(guān)鍵的創(chuàng)新在于,圖譜中的每個(gè)元素都明確標(biāo)記了故事時(shí)間坐標(biāo),將事實(shí)錨定到敘事時(shí)間線中的特定時(shí)刻。

在推理時(shí),這兩個(gè)記憶層次通過(guò)故事時(shí)間感知檢索機(jī)制協(xié)同工作。系統(tǒng)執(zhí)行雙級(jí)檢索流水線:首先在圖譜節(jié)點(diǎn)上進(jìn)行語(yǔ)義搜索以捕獲特定實(shí)體,然后在邊上搜索以捕獲主題關(guān)系。關(guān)鍵的是,這種檢索受到敘事現(xiàn)在時(shí)門控的嚴(yán)格控制——如果Mio當(dāng)前處于時(shí)間點(diǎn)t_current,門控會(huì)嚴(yán)格過(guò)濾掉任何時(shí)間標(biāo)記t_node > t_current的記憶節(jié)點(diǎn),確保Mio無(wú)法訪問(wèn)或泄露她不應(yīng)該知道的事件信息。

為了實(shí)現(xiàn)數(shù)據(jù)無(wú)關(guān)的自我訓(xùn)練,思考模塊采用了競(jìng)爭(zhēng)性自我博弈的學(xué)習(xí)框架。模型在兩種對(duì)立策略下運(yùn)行:場(chǎng)景生成策略負(fù)責(zé)創(chuàng)造復(fù)雜且具有挑戰(zhàn)性的交互場(chǎng)景,其目標(biāo)是創(chuàng)造能夠探查代理推理、情感適當(dāng)性或性格一致性弱點(diǎn)的情況;交互角色策略則體現(xiàn)Mio本身,其動(dòng)作空間包括生成整體性的多部分計(jì)劃,涵蓋對(duì)話、情感狀態(tài)和身體手勢(shì)。

訓(xùn)練過(guò)程采用了合成偏好對(duì)的方法。對(duì)于每個(gè)場(chǎng)景,教師模型創(chuàng)建一個(gè)正面樣本(理想的角色內(nèi)反應(yīng))和一個(gè)負(fù)面樣本(表現(xiàn)出人設(shè)漂移或破壞框架行為的有缺陷反應(yīng))。訓(xùn)練過(guò)程遵循通過(guò)群體相對(duì)策略優(yōu)化優(yōu)化的極小極大目標(biāo),角色策略旨在最大化專門針對(duì)人設(shè)保真度的復(fù)合獎(jiǎng)勵(lì)函數(shù)。

多模態(tài)獎(jiǎng)勵(lì)模型是系統(tǒng)的核心組件,負(fù)責(zé)提供學(xué)習(xí)所需的真實(shí)反饋信號(hào)。它解決了對(duì)話中的基本時(shí)間信用分配問(wèn)題——如何將單一、稀疏的全局獎(jiǎng)勵(lì)歸因于導(dǎo)致該結(jié)果的特定、細(xì)粒度局部行動(dòng)。系統(tǒng)首先提取時(shí)間對(duì)齊的多模態(tài)特征向量,表示用戶在每個(gè)狀態(tài)下的反應(yīng),然后采用強(qiáng)大的凍結(jié)大語(yǔ)言模型作為零樣本獎(jiǎng)勵(lì)分解預(yù)言機(jī),將增強(qiáng)的軌跡和最終標(biāo)量全局獎(jiǎng)勵(lì)作為輸入,輸出每個(gè)Mio行動(dòng)的逐輪級(jí)獎(jiǎng)勵(lì)序列。

八、全面評(píng)估:Interactive Intelligence Score新標(biāo)準(zhǔn)

為了客觀評(píng)估Mio系統(tǒng)的綜合性能,研究團(tuán)隊(duì)提出了Interactive Intelligence Score(IIS,交互智能評(píng)分)這一全新的評(píng)估標(biāo)準(zhǔn)。這個(gè)評(píng)分系統(tǒng)將數(shù)字人類的能力分解為五個(gè)正交維度:認(rèn)知共鳴、聲學(xué)保真度、面部同步性、軀體流暢性和視覺(jué)完整性,每個(gè)維度的評(píng)分范圍為0-100分。

認(rèn)知共鳴維度評(píng)估代理維持人設(shè)保真度和遵循敘事因果關(guān)系的能力,作為思考模塊推理完整性的度量標(biāo)準(zhǔn)。該評(píng)分綜合了歸一化的CharacterBox評(píng)分、時(shí)間線連貫性準(zhǔn)確率和魯棒性拒絕率。在這個(gè)維度上,Mio的完整系統(tǒng)獲得了顯著優(yōu)于各個(gè)基準(zhǔn)系統(tǒng)的表現(xiàn),特別是在行為準(zhǔn)確性和個(gè)性特征維度上表現(xiàn)突出。

聲學(xué)保真度維度衡量語(yǔ)音合成的清晰度、身份保持和感知質(zhì)量,平衡了可懂度和聲學(xué)豐富性。該評(píng)分計(jì)算語(yǔ)音重建性能的平均值,包括短時(shí)客觀可懂度、說(shuō)話人相似度、感知語(yǔ)音質(zhì)量評(píng)估等指標(biāo),以及零樣本文本轉(zhuǎn)語(yǔ)音性能。Mio在這個(gè)維度上展現(xiàn)了均衡的多語(yǔ)言能力,特別是在日語(yǔ)合成方面表現(xiàn)卓越。

面部同步性維度評(píng)估面部運(yùn)動(dòng)的精確性和響應(yīng)性,采用客觀指標(biāo)來(lái)懲罰唇同步和聆聽(tīng)動(dòng)態(tài)的偏差。該評(píng)分使用唇頂點(diǎn)誤差評(píng)估說(shuō)話準(zhǔn)確性,使用特征動(dòng)態(tài)偏差的平均值評(píng)估聆聽(tīng)自然性。研究結(jié)果顯示,Mio在說(shuō)話準(zhǔn)確性和聆聽(tīng)自然性方面都顯著優(yōu)于現(xiàn)有方法。

軀體流暢性維度評(píng)估全身運(yùn)動(dòng)的物理合理性和時(shí)間平滑性,結(jié)合運(yùn)動(dòng)質(zhì)量和過(guò)渡平滑性指標(biāo)。該評(píng)分使用Fréchet Inception Distance表示運(yùn)動(dòng)質(zhì)量,使用峰值加速度表示過(guò)渡平滑性。在這個(gè)維度上,Mio實(shí)現(xiàn)了媲美最佳離線模型的運(yùn)動(dòng)質(zhì)量,同時(shí)在流式基準(zhǔn)測(cè)試中保持了最低的延遲和最高的平滑性。

視覺(jué)完整性維度捕獲渲染化身的照片級(jí)真實(shí)感和多視角身份一致性,確?;砑词乖跀z像機(jī)角度變化時(shí)也能保持身份特征。該評(píng)分聚合了CLIP相似度評(píng)分、結(jié)構(gòu)相似性指數(shù)和學(xué)習(xí)感知圖像塊相似性。Mio在這個(gè)維度上展現(xiàn)了優(yōu)于現(xiàn)有人類動(dòng)畫系統(tǒng)的多視角一致性和身份保持能力。

綜合各維度表現(xiàn),Mio獲得了76.0分的總體交互智能評(píng)分,相比之前最佳基準(zhǔn)系統(tǒng)的組合評(píng)分提升了8.4分。這一結(jié)果定量驗(yàn)證了將交互邏輯與生成外觀相結(jié)合顯著提升了代理的感知智能和沉浸感。

九、實(shí)驗(yàn)驗(yàn)證:理論到實(shí)踐的完美轉(zhuǎn)化

研究團(tuán)隊(duì)通過(guò)廣泛的定量和定性實(shí)驗(yàn)驗(yàn)證了Mio系統(tǒng)各個(gè)模塊的優(yōu)越性能。在語(yǔ)音模塊方面,Kodama分詞器在多個(gè)數(shù)據(jù)集上都表現(xiàn)出了顯著優(yōu)勢(shì)。在LibriTTS測(cè)試集上,該分詞器在感知質(zhì)量方面取得了PESQ-NB 3.26分的成績(jī),大幅超越了XY-Tokenizer的3.00分和XCodec2.0的3.03分。更重要的是,系統(tǒng)在可懂度方面表現(xiàn)優(yōu)異,在所有測(cè)試集上都保持了0.91以上的STOI評(píng)分,在JSUT數(shù)據(jù)集上甚至達(dá)到了0.95的峰值。

在零樣本文本轉(zhuǎn)語(yǔ)音任務(wù)中,Kodama-TTS展現(xiàn)了卓越的性能,特別是在多語(yǔ)言支持方面。在英語(yǔ)場(chǎng)景下,系統(tǒng)達(dá)到了3.13的DNSMOS評(píng)分,超越了基于百萬(wàn)小時(shí)數(shù)據(jù)訓(xùn)練的MOSS-TTSD(3.01分)和基于千萬(wàn)小時(shí)數(shù)據(jù)訓(xùn)練的Higgs模型(3.09分)。在日語(yǔ)合成方面,Mio的優(yōu)勢(shì)更加明顯,實(shí)現(xiàn)了32.82%的字符錯(cuò)誤率,而基準(zhǔn)模型的錯(cuò)誤率高達(dá)317.53%和92.44%,證明了其在多語(yǔ)言場(chǎng)景下的卓越泛化能力。

面部動(dòng)畫模塊的評(píng)估結(jié)果同樣令人印象深刻。在定量指標(biāo)上,UniLS在唇同步準(zhǔn)確性(LVE、MHD)和語(yǔ)音風(fēng)格對(duì)齊(FDD、PDD、JDD)方面都取得了顯著改善。在用戶研究中,超過(guò)90%的參與者更偏愛(ài)Mio生成的聆聽(tīng)反應(yīng),這一壓倒性的偏好凸顯了兩階段設(shè)計(jì)的優(yōu)勢(shì):模型產(chǎn)生的聆聽(tīng)動(dòng)作顯著更具表現(xiàn)力、響應(yīng)性和人性化。

身體動(dòng)畫模塊在HumanML3D數(shù)據(jù)集上實(shí)現(xiàn)了0.057的FID評(píng)分和0.810的R-Precision@3指標(biāo),達(dá)到了最先進(jìn)的離線模型水平。在流式性能評(píng)估中,F(xiàn)loodDiffusion記錄了0.713的峰值加速度和14.05的加速度曲線下面積,顯著優(yōu)于現(xiàn)有的流式基準(zhǔn)模型。這些結(jié)果證明了流式約束并不會(huì)損害生成質(zhì)量,同時(shí)確保了思考-渲染流水線所需的穩(wěn)定低延遲運(yùn)動(dòng)。

渲染模塊的評(píng)估聚焦于三個(gè)互補(bǔ)方面:身份保持、多視角幾何一致性和感知視頻質(zhì)量。AvatarDiT實(shí)現(xiàn)了最高的CLIP相似度(0.8693)和最低的LPIPS(0.2231),展現(xiàn)了優(yōu)越的感知對(duì)齊和跨視點(diǎn)的身份穩(wěn)定性。在用戶偏好研究中,AvatarDiT在每個(gè)標(biāo)準(zhǔn)上都獲得了最高的平均評(píng)分,接近真實(shí)參考水平,相比WAN-Animate在面部表情準(zhǔn)確性上提升了0.6分,在多視角一致性上提升了0.5分。

十、技術(shù)創(chuàng)新與未來(lái)影響:開(kāi)啟數(shù)字人類新紀(jì)元

Mio系統(tǒng)的技術(shù)創(chuàng)新不僅僅體現(xiàn)在單個(gè)模塊的性能提升上,更重要的是實(shí)現(xiàn)了認(rèn)知推理與實(shí)時(shí)多模態(tài)體現(xiàn)的統(tǒng)一。這種端到端的集成方法代表了數(shù)字人類技術(shù)發(fā)展的根本性轉(zhuǎn)變——從被動(dòng)的播放設(shè)備轉(zhuǎn)向主動(dòng)的智能代理。

在語(yǔ)音技術(shù)方面,Kodama系統(tǒng)通過(guò)語(yǔ)義-聲學(xué)分離和極低比特率壓縮,為實(shí)時(shí)對(duì)話應(yīng)用奠定了堅(jiān)實(shí)基礎(chǔ)。這種技術(shù)路徑不僅提升了語(yǔ)音質(zhì)量,更重要的是實(shí)現(xiàn)了多語(yǔ)言的平衡支持,為全球化的數(shù)字人類應(yīng)用鋪平了道路。

面部動(dòng)畫領(lǐng)域的突破在于解決了長(zhǎng)期困擾業(yè)界的"僵尸臉"問(wèn)題。通過(guò)統(tǒng)一的聆聽(tīng)-說(shuō)話框架和兩階段訓(xùn)練策略,Mio實(shí)現(xiàn)了自然、連貫的面部表情動(dòng)畫,讓數(shù)字人類的非語(yǔ)言交流變得更加真實(shí)可信。

身體動(dòng)畫技術(shù)的創(chuàng)新體現(xiàn)在FloodDiffusion對(duì)實(shí)時(shí)性和質(zhì)量的平衡處理。這種技術(shù)不僅解決了傳統(tǒng)方法在延遲和質(zhì)量之間的矛盾,更為可編輯、流式的人體運(yùn)動(dòng)生成開(kāi)辟了新的可能性。

在視覺(jué)渲染方面,參數(shù)化控制的實(shí)現(xiàn)使得數(shù)字人類能夠在各種視角和環(huán)境下保持一致的身份特征,這對(duì)于沉浸式應(yīng)用(如虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí))具有重要意義。

最具革命性的創(chuàng)新可能是思考模塊引入的"交互智能"概念。通過(guò)層次化記憶、故事時(shí)間感知和自我進(jìn)化學(xué)習(xí),Mio展現(xiàn)了超越簡(jiǎn)單問(wèn)答的深度理解和交互能力。這種能力使得數(shù)字人類能夠在復(fù)雜的敘事環(huán)境中保持角色一致性,為下一代虛擬伴侶、交互式故事講述和沉浸式游戲應(yīng)用奠定了技術(shù)基礎(chǔ)。

研究團(tuán)隊(duì)將完整的代碼庫(kù)、預(yù)訓(xùn)練模型和評(píng)估基準(zhǔn)公開(kāi)發(fā)布,這一舉措將推動(dòng)整個(gè)領(lǐng)域的發(fā)展。Interactive Intelligence Score的提出也為未來(lái)的研究提供了標(biāo)準(zhǔn)化的評(píng)估框架,有助于推動(dòng)數(shù)字人類技術(shù)的持續(xù)進(jìn)步。

展望未來(lái),交互智能技術(shù)有望在多個(gè)領(lǐng)域產(chǎn)生深遠(yuǎn)影響。在娛樂(lè)產(chǎn)業(yè),它將revolutionize虛擬角色的創(chuàng)作和表演,使得虛擬偶像、游戲角色和動(dòng)畫人物具備真正的智能交互能力。在教育領(lǐng)域,智能化的虛擬教師能夠根據(jù)學(xué)生的個(gè)性和學(xué)習(xí)進(jìn)度提供個(gè)性化指導(dǎo)。在醫(yī)療保健方面,虛擬治療師和陪伴機(jī)器人能夠?yàn)榛颊咛峁└尤诵曰年P(guān)懷和支持。

說(shuō)到底,Mio系統(tǒng)代表的不僅是技術(shù)的進(jìn)步,更是我們對(duì)于人機(jī)交互未來(lái)的重新想象。當(dāng)數(shù)字人類不再是簡(jiǎn)單的工具,而是真正能夠理解、學(xué)習(xí)和成長(zhǎng)的智能伙伴時(shí),我們與技術(shù)的關(guān)系也將發(fā)生根本性的改變。這項(xiàng)研究為我們描繪了一個(gè)充滿可能性的未來(lái)——在這個(gè)未來(lái)里,數(shù)字世界和現(xiàn)實(shí)世界的邊界將變得更加模糊,而人類的創(chuàng)造力和想象力將通過(guò)智能化的數(shù)字伙伴得到前所未有的擴(kuò)展和實(shí)現(xiàn)。

Q&A

Q1:Mio交互智能數(shù)字人類與傳統(tǒng)的虛擬角色有什么根本區(qū)別?

A:Mio最大的區(qū)別在于具備真正的"大腦"——思考模塊,能夠理解用戶意圖、保持角色人設(shè),并根據(jù)情境做出智能回應(yīng),而不是像傳統(tǒng)虛擬角色那樣只能播放預(yù)設(shè)內(nèi)容。Mio擁有記憶系統(tǒng),能學(xué)習(xí)用戶習(xí)慣,在長(zhǎng)期交互中不斷成長(zhǎng),實(shí)現(xiàn)了從"模仿者"到"智能體"的根本轉(zhuǎn)變。

Q2:Mio的五個(gè)核心模塊是如何協(xié)同工作的?

A:Mio由思考、語(yǔ)音、面部動(dòng)畫、身體動(dòng)畫和渲染五個(gè)模塊組成。思考模塊作為指揮中心分析用戶輸入并制定回應(yīng)策略,語(yǔ)音模塊將文字轉(zhuǎn)換為自然語(yǔ)音,面部動(dòng)畫模塊生成表情和唇形同步,身體動(dòng)畫模塊創(chuàng)造肢體動(dòng)作,渲染模塊最終將所有元素合成為逼真的視頻輸出。這五個(gè)模塊實(shí)時(shí)協(xié)作,讓Mio能像真人一樣進(jìn)行多模態(tài)交流。

Q3:普通用戶什么時(shí)候能使用到Mio這樣的交互智能數(shù)字人類?

A:研究團(tuán)隊(duì)已經(jīng)開(kāi)源了完整代碼和預(yù)訓(xùn)練模型,技術(shù)開(kāi)發(fā)者可以立即使用。對(duì)普通用戶來(lái)說(shuō),這項(xiàng)技術(shù)將首先應(yīng)用于虛擬助手、游戲角色和教育平臺(tái)等場(chǎng)景。預(yù)計(jì)在1-2年內(nèi),我們會(huì)看到基于類似技術(shù)的消費(fèi)級(jí)產(chǎn)品出現(xiàn),如智能虛擬陪伴、個(gè)性化教學(xué)助手等應(yīng)用。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
穆雷21+7+6英格拉姆30+8絕平超時(shí) 掘金客場(chǎng)險(xiǎn)勝猛龍

穆雷21+7+6英格拉姆30+8絕平超時(shí) 掘金客場(chǎng)險(xiǎn)勝猛龍

北青網(wǎng)-北京青年報(bào)
2026-01-01 12:42:04
毛主席去世是因?yàn)槭裁床??有人猜測(cè)是"帕金森",專家:我不能說(shuō)

毛主席去世是因?yàn)槭裁床。坑腥瞬聹y(cè)是"帕金森",專家:我不能說(shuō)

磊子講史
2025-12-31 16:30:23
東莞20年:親眼目睹工廠女工的性生活,她們的孤獨(dú)壓抑和肆意歡歌

東莞20年:親眼目睹工廠女工的性生活,她們的孤獨(dú)壓抑和肆意歡歌

農(nóng)村情感故事
2025-04-06 20:07:35
臺(tái)灣的幫手出現(xiàn),比特朗普還囂張!臺(tái)軍喊話大陸:小心遭全球制裁

臺(tái)灣的幫手出現(xiàn),比特朗普還囂張!臺(tái)軍喊話大陸:小心遭全球制裁

博覽歷史
2025-12-31 18:45:17
有人預(yù)測(cè):2026年,這5樣“東西”會(huì)嚴(yán)重貶值,普通人可不要碰!

有人預(yù)測(cè):2026年,這5樣“東西”會(huì)嚴(yán)重貶值,普通人可不要碰!

蜉蝣說(shuō)
2025-12-31 11:02:51
烏克蘭突遭空襲震驚白宮,特朗普現(xiàn)場(chǎng)怒斥:普京讓我不爽

烏克蘭突遭空襲震驚白宮,特朗普現(xiàn)場(chǎng)怒斥:普京讓我不爽

像風(fēng)走了八萬(wàn)里不問(wèn)歸期
2026-01-01 13:36:36
“吃一斤它勝過(guò)吃10只雞”,一降血脂、二降血糖、三降膽固醇

“吃一斤它勝過(guò)吃10只雞”,一降血脂、二降血糖、三降膽固醇

江江食研社
2025-12-31 14:30:05
四川黑寡婦何一:前首富丈夫坐牢,她卻擁2300億享生活

四川黑寡婦何一:前首富丈夫坐牢,她卻擁2300億享生活

二大爺觀世界
2025-12-28 23:27:38
大爆冷!字母哥轟31+15破紀(jì)錄卻遭CJ絕殺 里弗斯迷之操作坑慘雄鹿

大爆冷!字母哥轟31+15破紀(jì)錄卻遭CJ絕殺 里弗斯迷之操作坑慘雄鹿

鍋?zhàn)踊@球
2026-01-01 14:28:49
住建部已摸清國(guó)內(nèi)房子數(shù)量,過(guò)剩嚴(yán)重到什么情況?樓市或迎來(lái)變局

住建部已摸清國(guó)內(nèi)房子數(shù)量,過(guò)剩嚴(yán)重到什么情況?樓市或迎來(lái)變局

搬磚營(yíng)Z
2025-12-31 14:00:37
林強(qiáng)涉案989億被抓!生活奢華超過(guò)中東富豪,妻子、父母也有責(zé)任

林強(qiáng)涉案989億被抓!生活奢華超過(guò)中東富豪,妻子、父母也有責(zé)任

細(xì)品名人
2025-12-31 07:34:46
萬(wàn)達(dá)集團(tuán)前總裁被判刑

萬(wàn)達(dá)集團(tuán)前總裁被判刑

新浪財(cái)經(jīng)
2026-01-01 11:52:31
向太曝馬伊琍已再婚:當(dāng)年文章過(guò)不了心理那關(guān)

向太曝馬伊琍已再婚:當(dāng)年文章過(guò)不了心理那關(guān)

娛樂(lè)看阿敞
2025-12-12 15:50:00
接觸的人多了,會(huì)明白:如果一個(gè)人還穿5年前的衣服,說(shuō)明3個(gè)問(wèn)題

接觸的人多了,會(huì)明白:如果一個(gè)人還穿5年前的衣服,說(shuō)明3個(gè)問(wèn)題

詩(shī)詞中國(guó)
2025-12-31 21:01:55
方圓之間 蔚為大觀(文化中國(guó)行·華夏博物之旅·傳統(tǒng)建筑)

方圓之間 蔚為大觀(文化中國(guó)行·華夏博物之旅·傳統(tǒng)建筑)

金臺(tái)資訊
2026-01-01 06:21:20
北京出招回?fù)裘绹?guó)已生效,一切協(xié)作瞬間中斷,美方囂張三句無(wú)恥

北京出招回?fù)裘绹?guó)已生效,一切協(xié)作瞬間中斷,美方囂張三句無(wú)恥

Ck的蜜糖
2026-01-01 15:05:31
千萬(wàn)不要過(guò)度體檢?醫(yī)生再三提醒:55歲后,這5種體檢能不做就不做

千萬(wàn)不要過(guò)度體檢?醫(yī)生再三提醒:55歲后,這5種體檢能不做就不做

神奇故事
2025-12-30 23:09:45
主持人李靜自曝絕經(jīng)過(guò)程,很快失去性魅力,連男人也沒(méi)興趣了

主持人李靜自曝絕經(jīng)過(guò)程,很快失去性魅力,連男人也沒(méi)興趣了

阿器談史
2025-12-30 17:26:47
妹子網(wǎng)購(gòu)綠植開(kāi)箱,發(fā)現(xiàn)兩只偷渡小貓,商家天塌了:我的咪呢?

妹子網(wǎng)購(gòu)綠植開(kāi)箱,發(fā)現(xiàn)兩只偷渡小貓,商家天塌了:我的咪呢?

Magic寵物社
2025-12-16 20:10:03
李在明動(dòng)身訪華前,先給了中國(guó)一記下馬威,高市早苗卻笑不出來(lái)?

李在明動(dòng)身訪華前,先給了中國(guó)一記下馬威,高市早苗卻笑不出來(lái)?

策前論
2025-12-31 18:05:08
2026-01-01 15:48:49
至頂AI實(shí)驗(yàn)室 incentive-icons
至頂AI實(shí)驗(yàn)室
一個(gè)專注于探索生成式AI前沿技術(shù)及其應(yīng)用的實(shí)驗(yàn)室。
896文章數(shù) 151關(guān)注度
往期回顧 全部

科技要聞

2026,沖刺商業(yè)航天第一股!

頭條要聞

北京一金銀市場(chǎng)只剩300克以上金條 有人變現(xiàn)近9斤黃金

頭條要聞

北京一金銀市場(chǎng)只剩300克以上金條 有人變現(xiàn)近9斤黃金

體育要聞

楊瀚森為球迷送新年祝福:深知自身差距

娛樂(lè)要聞

跨年零點(diǎn)時(shí)刻好精彩!何炅飛奔擁抱

財(cái)經(jīng)要聞

巴菲特「身退,權(quán)還在」

汽車要聞

一汽-大眾2025年整車銷量超158萬(wàn)輛 燃油車市占率創(chuàng)新高

態(tài)度原創(chuàng)

數(shù)碼
藝術(shù)
本地
公開(kāi)課
軍事航空

數(shù)碼要聞

消息稱大疆1月6日發(fā)布Power 1000 Mini戶外電源

藝術(shù)要聞

Raimundo de Madrazo女性人物精選,19世紀(jì)西班牙著名畫家

本地新聞

即將過(guò)去的2025年,對(duì)重慶的影響竟然如此深遠(yuǎn)

公開(kāi)課

李玫瑾:為什么性格比能力更重要?

軍事要聞

澤連斯基新年致辭:不要"烏克蘭的終結(jié)"

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版