国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

《現(xiàn)代電影技術》|潘志庚等:元宇宙視域下XR影視技術應用研究

0
分享至

本文刊發(fā)于《現(xiàn)代電影技術》2025年第6期

專家點評

擴展現(xiàn)實(XR)是諸多軟硬件前沿科技的集大成者。不同于傳統(tǒng)影視,XR影視內(nèi)容形態(tài)豐富多樣,其策劃創(chuàng)作、制作開發(fā)、分發(fā)部署、終端呈現(xiàn)、版權保護等環(huán)節(jié)難以解耦,不同內(nèi)容形態(tài)在各個環(huán)節(jié)對技術和設備的需求存在顯著差異,技術、產(chǎn)品、市場之間的關聯(lián)極為緊密,行業(yè)各方一直積極尋求其規(guī)模化高質(zhì)量發(fā)展的科學路徑。2025年《國家電影局關于促進虛擬現(xiàn)實電影有序發(fā)展的通知》正式發(fā)布,在可預見的未來,虛擬現(xiàn)實電影將成為XR影視技術應用最為廣闊的行業(yè)領域,規(guī)模龐大、規(guī)范有序、體系成熟的電影產(chǎn)業(yè)將會為XR影視技術的持續(xù)發(fā)展提供強大的內(nèi)驅動力。《元宇宙視域下XR影視技術應用研究》系統(tǒng)、深入探討了XR技術體系與影視的融合機制,列舉了作者團隊在三維建模、AI虛擬人生成、多模態(tài)自然交互、非線性空間敘事等領域卓有成效的探索和實踐,提出了當前XR影視技術面臨的發(fā)展瓶頸和關鍵挑戰(zhàn),并對其發(fā)展演進方向進行了前瞻性、深層次的思考。虛擬現(xiàn)實電影的繁榮有序發(fā)展,將有力促進XR產(chǎn)業(yè)鏈各個環(huán)節(jié)的緊密協(xié)同和融合創(chuàng)新,并逐步推動內(nèi)容制作播映軟硬件系統(tǒng)之間的全面兼容、適配和標準化,促進XR關鍵核心技術實現(xiàn)自主安全可控、中國自主XR影視技術標準體系構建完善和國際推廣,進而形成XR內(nèi)容、技術、市場、產(chǎn)業(yè)等多元生態(tài)融合并進的良性可持續(xù)發(fā)展新局面。

—— 趙文濤

正高級政工師

西部電影集團有限公司黨委書記、董事長

作 者 簡 介

潘志庚

元宇宙文旅場景應用技術研究江蘇省文化和旅游重點實驗室主任,南京澳科大科技研究院通用人工智能實驗室首席專家,南京信息工程大學元宇宙研究院院長,主要研究方向:虛擬現(xiàn)實、多模態(tài)交互。

浙江工商大學統(tǒng)計與數(shù)學學院博士研究生在讀,主要研究方向:數(shù)字媒體、人機交互、人工智能。

郎 旭

夏先亮

南京信息工程大學元宇宙研究院博士研究生在讀,主要研究方向:人工智能、人機交互、虛擬現(xiàn)實。

南京信息工程大學元宇宙研究院碩士研究生在讀,主要研究方向:人工智能、人機交互、虛擬現(xiàn)實。

張宇軒

朱星蒙

南京信息工程大學元宇宙研究院碩士研究生在讀,主要研究方向:數(shù)字媒體。

在元宇宙技術加速發(fā)展的背景下,擴展現(xiàn)實(XR)技術正逐步重塑影視創(chuàng)作生產(chǎn)的技術路徑與敘事結構。本文從XR技術體系入手,梳理了其在空間感知、圖形渲染、多模態(tài)交互和數(shù)字人生成等關鍵環(huán)節(jié)的構成邏輯,探討其對影視從鏡頭邏輯向空間邏輯轉型過程中的推動作用。文章基于大量國內(nèi)外典型案例,分析了XR技術在虛擬攝制、互動敘事、觀眾參與機制中的應用路徑,并總結了作者團隊在XR領域技術成果和落地成效。研究表明,XR影視系統(tǒng)的深化發(fā)展將成為推動數(shù)字內(nèi)容產(chǎn)業(yè)空間化、智能化與協(xié)同化演進的重要力量;當前XR影視融合仍面臨渲染效率、空間定位、交互一致性與敘事邏輯控制等關鍵挑戰(zhàn),多模態(tài)智能融合、標準制定與平臺生態(tài)構建成為未來的發(fā)展要點。

關鍵詞

元宇宙;擴展現(xiàn)實(XR);虛擬攝制;多模態(tài)交互

1引言

在新一代信息技術的加速演進下,影視媒介正經(jīng)歷從傳統(tǒng)線性敘事向沉浸式、交互式敘事范式的轉型。以虛擬現(xiàn)實(VR)、增強現(xiàn)實(AR)和混合現(xiàn)實(MR)為代表的擴展現(xiàn)實(XR),在元宇宙技術的驅動下,正逐步成為影視內(nèi)容創(chuàng)作革新、視覺呈現(xiàn)與觀眾交互的重要支撐技術。XR系統(tǒng)通過三維空間感知、實時圖形渲染、多模態(tài)人機交互等技術手段,打破了傳統(tǒng)鏡頭語言主導的時空限制,引入了沉浸式敘事、實時交互與多模態(tài)反饋機制,正在重構影視內(nèi)容的生成邏輯與交互模式[1],為影視敘事注入空間沉浸感與行為參與性,推動觀眾由被動觀看向主動參與轉變[2]。在影視數(shù)字化轉型背景下,構建具備實時渲染、感知驅動與智能反饋能力的XR影視技術體系,并探索其與影視制作流程的深度融合,已成為提升內(nèi)容創(chuàng)作效率與交互質(zhì)量的關鍵路徑[3]。

與傳統(tǒng)依賴布景、攝影與剪輯的線性制作邏輯不同,XR技術的融合使影視創(chuàng)作流程朝著空間構建化、資產(chǎn)數(shù)字化與角色協(xié)同化發(fā)展。一方面,在虛擬攝制(Virtual Production)中,數(shù)字資產(chǎn)、LED墻實時渲染顯示與動作捕捉等技術手段,重構了拍攝場景的構建與調(diào)度邏輯;另一方面,人工智能生成內(nèi)容(AIGC)技術的發(fā)展,尤其是基于Transformer與Diffusion Model的文本、圖像、視頻生成算法,為腳本創(chuàng)作、角色驅動與鏡頭分鏡制作提供了新路徑。此外,語音識別、眼動追蹤與體感交互等人機交互方式的演進,進一步提升了XR影視內(nèi)容的沉浸感與交互性[4—6]。

在國內(nèi)外實踐層面,XR影視應用已從虛擬攝制走向沉浸式劇場、大空間體驗與游戲電影融合等多場景擴展。如《曼達洛人》《黑神話:悟空》《秦潮覺醒》等項目展示了從劇本生成、角色演繹到實時渲染的技術閉環(huán)能力,也折射出影視范式從導演主導型向系統(tǒng)協(xié)同型的躍遷[7]。在《哪吒之魔童降世》《封神三部曲》等國產(chǎn)電影中,XR技術與虛擬攝制的融合已成為產(chǎn)業(yè)升級的重要動力,引發(fā)了內(nèi)容結構、拍攝方式與敘事邏輯的全方位重塑[8]。

當前XR技術在影視系統(tǒng)中的集成應用仍面臨諸多挑戰(zhàn),包括:制作空間定位與多用戶環(huán)境顯示的同步精度尚待提升;高復雜度場景的實時渲染對計算資源消耗巨大,系統(tǒng)的普適部署受限;非線性交互路徑與劇情邏輯之間仍存在結構性張力。此外,缺乏標準化語義標注、通用平臺與創(chuàng)作范式等問題,也制約了XR影視工業(yè)的體系化發(fā)展。

基于上述背景,本文對元宇宙視域下XR影視技術的發(fā)展現(xiàn)狀與融合路徑進行研究討論,重點圍繞技術體系構成、內(nèi)容生成機制、代表性應用案例及作者團隊的系統(tǒng)研究展開分析,旨在為未來XR影視系統(tǒng)的技術標準建設、協(xié)同平臺搭建與沉浸敘事模型提供理論支撐與實踐參考。

2XR技術體系與影視融合機制研究

2.1 XR技術體系概述

(1)技術定義與構成

XR技術通過數(shù)字內(nèi)容與真實環(huán)境的融合,為用戶提供沉浸式多維感知體驗。VR借助專用頭戴式顯示設備和定位追蹤系統(tǒng)搭建全虛擬環(huán)境,從而實現(xiàn)了對用戶視覺、聽覺乃至觸覺的全面包圍;AR通過將計算機生成圖像或信息疊加到真實世界場景中,提升現(xiàn)實信息的表達與交互性能;MR在此基礎上進一步融合了虛擬與實際環(huán)境,以實現(xiàn)二者之間的實時交互和融合[1]。

(2)核心模塊

XR技術體系通常包括感知、渲染以及交互三個核心層面。其中,感知層利用傳感器、RGB+深度攝像頭等設備捕捉用戶在真實環(huán)境中的位置和動作數(shù)據(jù),為虛擬內(nèi)容提供實時映射[3];渲染層依托高性能圖形引擎對虛擬場景進行實時渲染,確保圖像、音頻和其他媒體流的高保真輸出[9];交互層負責將用戶輸入轉換為對虛擬世界的指令,實現(xiàn)虛擬與現(xiàn)實之間的無縫互動[10]。如此構成的技術體系確保了XR系統(tǒng)具有高度的沉浸性、互動性與實時性,為影視內(nèi)容融合提供堅實的技術基礎[11]。

2.2 XR技術體系與影視融合研究現(xiàn)狀

學界圍繞XR技術與影視領域的融合展開多維度研究,核心成果集中于技術應用路徑、敘事重構、制作流程革新及跨學科協(xié)作等方面,具體包括:

(1)XR 技術對影視敘事與體驗的重構

Dionysus[2]提出“XR空間紀錄片”概念,強調(diào)通過3D重建、體積視頻與AI語音交互實現(xiàn)文化場景的數(shù)字重構,指出互動腳本設計、360度拍攝技術對紀錄片敘事結構的革新作用,同時強調(diào)跨學科協(xié)作與新型劇本機制是推動XR空間體驗發(fā)展的關鍵。Hutson[10]聚焦XR技術在影院觀影中的應用,提出通過MR增強沉浸感與互動性,推動觀眾從“被動觀看”向“主動參與”轉型,并設想融合聲光系統(tǒng)構建沉浸式觀影場景。

(2)影視制作流程與技術融合機制

Chan[12]分析了傳統(tǒng)影院向沉浸式虛擬現(xiàn)實的轉變,深入探討了XR技術在影視制作中的融合邏輯與實施路徑。Pudlo等[13]通過實際案例揭示了XR技術對電影制作管理、技能需求(如虛擬攝制技術能力)及設備配置(如實時渲染設備)的影響。

(3)關鍵技術挑戰(zhàn)與跨領域整合

Gunkel等[9]聚焦XR系統(tǒng)中渲染引擎與多媒體流傳輸范式的結合,分析實時空間計算、遠程渲染技術在虛擬環(huán)境中的應用難點,特別是多用戶互動架構下的圖形處理與數(shù)據(jù)同步問題,提出面向分布式協(xié)作的技術設計思路。Zeng[1]系統(tǒng)梳理 XR技術在數(shù)字媒體藝術中的表達與交互拓展,重點討論其在影視制作、虛擬舞臺搭建、跨平臺敘事中的技術機制,指出XR技術具有重構觀眾參與方式與藝術邊界的潛力,未來可向多模態(tài)交互與跨媒介融合方向深化。

由此可見,現(xiàn)有研究凸顯XR技術在影視領域的沉浸式敘事、制作流程革新、跨學科協(xié)作三大核心方向的重要作用,強調(diào)技術工具與藝術創(chuàng)作的深度融合。未來研究或進一步關注實時交互技術優(yōu)化、多平臺協(xié)作、系統(tǒng)交互性及標準制定等議題,推動XR從“技術應用”向“影視生態(tài)重構”演進。

2.3 影視內(nèi)容與XR技術的融合機制

(1)融合理念與機制

影視內(nèi)容的傳統(tǒng)敘事形式在視覺、聽覺表達上具有單向傳遞的特點,而XR技術則引入了多向互動、沉浸體驗和實時內(nèi)容變換的特性,二者的融合開辟了全新的敘事模式[13]。這種跨界融合要求影視制作團隊不斷更新技術與創(chuàng)意思維,既要深度利用XR技術的沉浸渲染效果,又要保留影視敘事所需的情感弧線與敘事節(jié)奏[10]。

(2)內(nèi)容生成與交互設計

XR與影視融合中,內(nèi)容生成的主要技術路徑包括:實景拍攝與數(shù)字化特效結合;全景視頻與體積視頻拍攝制作;依托AI與AIGC技術的內(nèi)容生成。交互設計方面,XR影視不僅要求XR系統(tǒng)可實現(xiàn)虛擬環(huán)境中用戶與內(nèi)容的物理交互,還要求系統(tǒng)根據(jù)用戶實時行為和生理狀態(tài)調(diào)整敘事節(jié)奏和視覺效果,從而構建起高度個性化和互動性的觀影體驗[10]。

(3)系統(tǒng)集成與實時同步

實現(xiàn)XR影視融合的關鍵在于數(shù)據(jù)采集、實時渲染與遠程渲染三大系統(tǒng)模塊的有機配合。系統(tǒng)集成過程要求對各模塊間的數(shù)據(jù)接口和交互協(xié)議進行標準化設計,確保用戶設備與云端/邊緣節(jié)點間的低延遲通信。遠程云渲染技術在減少計算負荷的同時保障了XR體驗的實時性,為低功耗設備提供了高保真渲染輸出。攝影機跟蹤、動態(tài)光照同步等技術的運用,也為用戶真實環(huán)境與虛擬內(nèi)容的無縫連接提供了技術保障[12]。

2.4 融合實踐案例分析

(1)歷史文化遺址的數(shù)字復現(xiàn)

通過對一些歷史文化場所的XR數(shù)字重現(xiàn)案例分析發(fā)現(xiàn),XR技術不僅在審美呈現(xiàn)上提供了全新的視角,而且在交互體驗上實現(xiàn)了歷史重現(xiàn)與現(xiàn)實空間融合。例如,在墨爾本彭特里奇皇家監(jiān)獄(HM Prison Pentridge)數(shù)字重現(xiàn)項目中,研究者利用攝影測量(Photogrammetry)技術與Unity軟件構建了3D虛擬場景,用戶可在虛擬場景中自由漫步并聽取真實錄音,從而達到歷史場景復現(xiàn)與觀眾情感交互的雙重目的[2]。這種應用既強化了歷史教育的沉浸性,也為影視項目提供了跨界融合的具體樣本[1]。

(2)XR技術在影視虛擬攝制中的應用

在當代影視制作流程中,虛擬攝制技術已逐步演化為核心支撐環(huán)節(jié),成為推動XR技術與影視融合的重要實踐路徑。以劇集《曼達洛人》為例,其在制作過程中大規(guī)模應用了由曲面LED屏與實時渲染引擎構建的沉浸式虛擬攝制系統(tǒng)。該技術系統(tǒng)不僅可通過位置追蹤技術精準實現(xiàn)物理攝影機與虛擬鏡頭的同步,還能根據(jù)鏡頭動態(tài)調(diào)整背景內(nèi)容與光照效果,實現(xiàn)了物理拍攝現(xiàn)場與數(shù)字內(nèi)容空間的高度融合,使現(xiàn)場拍攝不僅保留了演員表演的真實性,也實現(xiàn)了與高保真數(shù)字環(huán)境的無縫融合,有效彌補了傳統(tǒng)綠幕技術在空間感、光影與交互反饋方面的不足,極大提升了影視作品的沉浸性與生產(chǎn)效率[13],被視為虛擬攝制與XR技術融合的先進范式之一。

(3)XR技術在數(shù)字媒體藝術創(chuàng)作中的應用

數(shù)字媒體藝術作品通過融合計算機生成圖像、三維建模與交互技術,突破了傳統(tǒng)二維視覺藝術的限制,將用戶從被動觀賞轉變?yōu)橹鲃訁⑴c。例如,利用VR沉浸式體驗和互動數(shù)字畫廊,藝術家能實時調(diào)整作品展現(xiàn)效果和內(nèi)容敘事,使觀眾的行為直接影響到作品內(nèi)容、色彩變化以及環(huán)境音效。這一全新表達方式有效地打破了傳統(tǒng)藝術創(chuàng)作在時空上的限制,為影視內(nèi)容創(chuàng)新提供了借鑒與技術支持。

(4)體積視頻技術

體積視頻技術依托多機位同步采集系統(tǒng),利用環(huán)繞布置的RGB或RGB+深度攝像機結合時間同步裝置,確保每幀數(shù)據(jù)空間一致性。采集數(shù)據(jù)經(jīng)過背景去除、圖像校正與深度重建等預處理后,采用體素網(wǎng)格重建或網(wǎng)格融合算法生成動態(tài)三維模型序列,整個流程需依賴GPU加速與并行計算實現(xiàn)實時壓縮與編碼。生成的視頻流可通過OpenXR、USDZ、Alembic等標準協(xié)議嵌入渲染引擎,支持影視創(chuàng)作者在XR環(huán)境中進行時空編輯、交互綁定與光照匹配,實現(xiàn)與虛擬角色和環(huán)境的自然融合。結合光場渲染與NeRF等技術,可進一步提升細節(jié)還原和視差響應精度。體積視頻技術廣泛應用于沉浸式角色再現(xiàn)和交互式敘事,增強個性化體驗,并可跨PC、VR、移動端等平臺傳輸,借助分層加載機制保障效率。隨著AI壓縮、點云重建、深度姿態(tài)估計等技術發(fā)展,體積視頻技術正成為XR影視系統(tǒng)中集數(shù)字替身與空間媒介于一體的關鍵支撐,實現(xiàn)“多源采集—快速重建—沉浸呈現(xiàn)”的生產(chǎn)閉環(huán)(圖1)。

圖1 體積視頻技術

2.5 融合機制中的關鍵技術挑戰(zhàn)

(1)技術穩(wěn)定性與系統(tǒng)互操作性

在XR技術與影視融合過程中,各模塊之間的互操作性以及整體系統(tǒng)的穩(wěn)定性始終是制約技術應用的重要因素。當前的硬件設備和軟件平臺在處理多模態(tài)數(shù)據(jù)的實時融合時仍存在一定的穩(wěn)定性問題,例如,體積視頻與XR應用整合過程中產(chǎn)生的異?,F(xiàn)象,這在一定程度上限制了系統(tǒng)規(guī)模化應用[2][9]。

(2)交互設計與用戶體驗優(yōu)化

影視級XR體驗不僅要求在視覺渲染上達到高保真效果,同時也要在交互設計上能夠精準捕捉用戶行為,實現(xiàn)實時反饋。在實際應用中,不同用戶對交互的敏感度、沉浸程度和反應速度存在顯著差異,如何設計出既具備普適性,同時又具有高度個性化特點的交互系統(tǒng),是當前亟待解決的技術與設計難題[1][10]。

(3)實時數(shù)據(jù)傳輸與延遲問題

XR影視內(nèi)容需在多終端之間高速、穩(wěn)定傳輸,這對網(wǎng)絡環(huán)境和數(shù)據(jù)傳輸機制提出了更高要求。自適應同步機制可根據(jù)網(wǎng)絡狀況動態(tài)調(diào)整數(shù)據(jù)傳輸方式,減少延遲與丟包;智能壓縮算法則能在盡量不影響畫質(zhì)的前提下大幅減少數(shù)據(jù)體積,提升傳輸效率。這兩項技術對保障XR觀影的流暢性和沉浸感具有關鍵作用。

(4)內(nèi)容生成及標準化問題

目前,雖然已有諸如神經(jīng)輻射場(NeRF)、生成式對抗網(wǎng)絡(GAN)與3D高斯濺射(3D Gaussian Splatting, 3DGS)等前沿技術支撐三維內(nèi)容生成,但如何實現(xiàn)跨平臺、跨工具的標準化數(shù)據(jù)格式與互操作性,仍是影響內(nèi)容規(guī)?;瘧玫闹匾萍s因素[3]。

2.6 XR與影視融合的未來研究方向

(1)跨領域合作與標準制定

未來XR與影視融合的發(fā)展離不開跨學科與跨行業(yè)的緊密合作。在傳統(tǒng)影視創(chuàng)作流程中,導演、攝影師與后期特效師利用創(chuàng)意產(chǎn)出高質(zhì)量素材與內(nèi)容,而XR系統(tǒng)開發(fā)則需計算機圖形學、硬件工程、通信網(wǎng)絡及人機交互領域的專家共同協(xié)作。由此,建立統(tǒng)一的接口標準和數(shù)據(jù)規(guī)范,推動模塊化組件的集成應用,將成為未來研究的重要方向[11][14]。同時,多方協(xié)同將有助于解決由于各自技術領域標準不統(tǒng)一所帶來的整合難題,進而推動XR影視融合從概念驗證走向產(chǎn)業(yè)化落地。

(2)XR影視中的AIGC內(nèi)容生成

AIGC技術的迅速發(fā)展,為XR影視內(nèi)容生成提供了嶄新的生產(chǎn)力。借助大規(guī)模數(shù)據(jù)訓練的多模態(tài)模型,系統(tǒng)可實現(xiàn)基于文本、圖像及視頻信息的自動化三維內(nèi)容創(chuàng)建,從而大幅度降低影視創(chuàng)作周期和成本[15]。未來,隨著NeRF、擴散模型以及Transformer等技術迭代,XR系統(tǒng)能更高效地生成動態(tài)、交互性強的影視場景,為用戶帶來個性化、實時響應的沉浸體驗。

(3)硬件與網(wǎng)絡技術的協(xié)同進步

硬件性能提升和新一代通信技術的普及將極大改善XR與影視融合的實時性和穩(wěn)定性。未來通過邊緣計算與云渲染平臺的協(xié)同優(yōu)化,輕量級終端設備亦可呈現(xiàn)高質(zhì)量、低延遲的虛擬場景。新型傳感器和數(shù)據(jù)壓縮算法的發(fā)展,將進一步提升用戶端多模態(tài)數(shù)據(jù)的捕捉精度與傳輸速度,為XR系統(tǒng)的實時交互提供更加有力的技術支持。

(4)用戶體驗與交互多樣化

未來的XR影視系統(tǒng)不僅需在技術層面實現(xiàn)高保真渲染和低延遲互動,更要求在用戶體驗設計上實現(xiàn)情感交互和自適應反饋。利用眼動控制、體感捕捉,甚至腦機接口(BCI)技術,用戶體驗將變得愈加自然、個性化和具有人性化。隨著相關交互設計標準和接口協(xié)議的不斷完善,未來的XR影視平臺預計能夠實現(xiàn)多維度和多層次的互動模式,有望進一步拓寬傳統(tǒng)影視表達邊界[10]。

3團隊在XR影視技術領域的研究實踐

隨著XR技術在影視創(chuàng)作場景中的逐步應用,其重要價值體現(xiàn)在多模態(tài)融合和實時渲染技術,提升用戶對虛擬世界與現(xiàn)實世界融合狀態(tài)的感知一致性。實現(xiàn)該目標需依托軟硬件系統(tǒng)的協(xié)同發(fā)展,并涵蓋多維度的技術支撐體系。本章在梳理團隊階段性研究工作的基礎上,歸納其在內(nèi)容生成、角色建模與交互機制方面的關鍵探索成果,提出面向影視敘事的XR系統(tǒng)構建模式。

3.1 技術研究積累與階段成果

(1)面向XR影視的低成本三維人體建模技術

團隊成員于2012年提出多Kinect 3D掃描系統(tǒng),即基于三臺Kinect深度攝像頭結合兩階段非剛性配準算法,實現(xiàn)了三維人體建模(圖2),有效解決了紅外干擾與遮擋問題,可在6分鐘內(nèi)完成高質(zhì)量的人體三維重建[16]。

圖2 三維人體建模重建流程

該系統(tǒng)成本低廉、操作高效,具備高精度建模和動作捕捉能力,可高效生成數(shù)字替身,應用于動作特效、危險鏡頭拍攝和實時預演,顯著降低了三維建模的技術門檻,可為XR影視中的虛擬角色生成、動態(tài)捕捉和實時交互等提供技術支撐,具備較強的應用價值與推廣潛力。通過與主流品牌實時渲染引擎集成,該系統(tǒng)已應用于LED虛擬攝制流程,實現(xiàn)角色與虛擬場景的實時融合,提升拍攝效率與視覺一致性。同時,其生成模型可用于動畫重定向與鏡頭設計優(yōu)化,便于資產(chǎn)管理與跨項目復用,助力影視生產(chǎn)向數(shù)字化、智能化方向轉型。

(2)虛擬人社會認知建模與行為驅動機制研究

在國家863計劃與國家自然科學基金項目支持下,團隊構建了融合情緒、個性與動機的可計算社會認知模型,并引入社會規(guī)范庫實現(xiàn)虛擬人的行為調(diào)控,有效增強其情感表達與社會互動的真實性。為克服傳統(tǒng)事件評估模型的局限,團隊提出綜合情感建模方法,優(yōu)化了情緒激活、衰減與飽和過程,提升XR場景沉浸感與用戶參與度。此外,研究還推進了基于視頻的人體行為捕捉與虛擬角色動作智能生成,建立了行為數(shù)據(jù)重用機制,提升系統(tǒng)的效率與可擴展性。

(3)多模態(tài)自然交互技術在XR影視中的應用探索

適用于影視場景的先進交互技術應具備無感化、擬真化與可反饋三大特性。團隊在與英特爾(intel)公司合作中提出了“點—線—面”手勢交互模型,并開發(fā)了基于手勢控制的飛機飛行虛擬仿真系統(tǒng)(圖3)。該系統(tǒng)在二維交互方面,通過“隔空觸摸”實現(xiàn)對圖像的選取、旋轉、縮放操作;在三維交互方面,構建“抓取—釋放”模型,利用指尖與手掌三維坐標實時獲取手部位姿,實現(xiàn)對虛擬積木的操控。團隊還研制了溫度模擬反饋手套(圖4),顯著提升了虛擬場景中的觸覺真實感。上述成果為XR影視交互體驗的自然性與沉浸性提供了關鍵技術支撐。

圖3 基于手勢交互的飛機飛行虛擬仿真操作

圖4 溫度模擬反饋手套

3.2 模型提煉與工程范式總結

基于相關研究與實踐經(jīng)驗,結合影視內(nèi)容的生產(chǎn)特性和播映模式的創(chuàng)新需求,團隊系統(tǒng)性地提出了基于XR技術的影視內(nèi)容生成邏輯和敘事系統(tǒng)的工程范式。該范式不僅優(yōu)化了內(nèi)容生產(chǎn)效率,還增強了觀眾的沉浸感和交互體驗,為未來影視創(chuàng)作提供了可落地的技術框架。

3.2.1 影視內(nèi)容生成

團隊構建了“內(nèi)容生成—角色驅動—行為反饋”的三段式XR影視生成邏輯。該邏輯從虛擬環(huán)境構建、角色智能驅動到觀眾反饋優(yōu)化,形成完整的動態(tài)創(chuàng)作閉環(huán)。

(1)內(nèi)容生成:虛擬環(huán)境的實時建模與動態(tài)構建。XR影視內(nèi)容生成的核心在于虛擬攝制環(huán)境的快速構建。傳統(tǒng)影視制作依賴物理場景搭建,而XR技術通過三維掃描、攝影測量和實時渲染技術,可在繪制引擎中高效生成高保真數(shù)字場景。例如,利用激光雷達(LiDAR)掃描現(xiàn)實場景并轉換為可交互的三維模型,結合程序化生成技術,大幅降低影視制作成本。此外,基于AI的場景風格遷移技術能夠快速適配不同影視風格需求[17],可用于科幻、歷史或奇幻題材的視覺轉換。

(2)角色驅動:基于情感計算的智能行為引擎。傳統(tǒng)影視角色的行為主要依賴人工動畫制作或演員表演,而XR影視中的角色可通過AI實現(xiàn)自主決策。團隊研發(fā)的基于情感計算和強化學習的角色驅動引擎[18],可通過分析劇本語義和觀眾實時情緒數(shù)據(jù),動態(tài)調(diào)整虛擬角色的行為模式。例如,在交互式電影中,非玩家角色(NPC)可根據(jù)觀眾的情緒反饋改變對話策略,甚至影響劇情走向。

(3)行為反饋:觀眾生物信號驅動的動態(tài)敘事優(yōu)化。影視內(nèi)容的核心目標是為觀眾提供優(yōu)質(zhì)體驗,因此引入生物信號捕捉技術形成反饋閉環(huán)。通過實時分析觀眾的注意力、情緒波動等數(shù)據(jù),系統(tǒng)可動態(tài)調(diào)整敘事節(jié)奏、鏡頭語言或場景切換。例如,當觀眾注意力下降時,系統(tǒng)可自動觸發(fā)高動態(tài)事件以重新吸引關注。這種“生成—驅動—反饋”的閉環(huán)邏輯,使得XR影視內(nèi)容具備自適應能力,大幅提升沉浸感。

3.2.2 敘事系統(tǒng)工程范式

團隊設計“空間腳本+多模態(tài)交互+AI角色協(xié)作”的原型架構,旨在解決傳統(tǒng)線性敘事與XR沉浸體驗的兼容性問題。

(1)空間腳本:即可擴展的劇本描述語言。傳統(tǒng)劇本以線性文本為主,而XR敘事需支持空間化、非線性結構。團隊設計了一種基于圖數(shù)據(jù)庫的空間腳本語言,將劇情節(jié)點、場景關系和角色行為以拓撲網(wǎng)絡形式存儲。例如,每個劇情節(jié)點包含空間坐標、時間屬性和交互邏輯,導演可通過可視化工具動態(tài)調(diào)整敘事分支。此外,結合語義理解技術[19],系統(tǒng)可自動檢測劇情邏輯漏洞或沖突,輔助編劇優(yōu)化故事結構。

(2)多模態(tài)交互:即融合感知技術的沉浸體驗層。XR影視的交互性依賴多模態(tài)輸入輸出技術。團隊構建了包含視覺、聽覺、觸覺的交互層。例如,觀眾通過注視點停留時長觸發(fā)隱藏劇情,或通過手勢與虛擬道具互動。更進一步,基于觸覺反饋,觀眾可“感受”虛擬物體的質(zhì)地或溫度,從而增強敘事真實感。

(3)AI角色協(xié)作:即人格化NPC的協(xié)同創(chuàng)作機制。傳統(tǒng)影視創(chuàng)作中配角行為需依賴人工設計,而在XR敘事體系中,AI角色可通過生成式模型自主生成對話和動作[20]。團隊提出“人格化特征嵌入”方法,為每個NPC賦予獨特的性格參數(shù),并通過多智能體協(xié)作模擬角色間的社會互動[21]。例如,在即興表演場景中,AI角色可根據(jù)預設人格自動生成符合角色設定的反應,減少人工干預需求。

當前范式仍存在三項待突破的技術瓶頸:跨模態(tài)情感一致性保持(需解決視聽觸覺的情感表達錯位)、大規(guī)模實時物理模擬(面對復雜服裝/流體交互時的算力挑戰(zhàn))以及敘事熵值控制(避免開放式敘事導致的主題渙散)。攻克這些難題需要計算機圖形學、人工智能(AI)和認知科學的跨學科協(xié)同突破。

4當前發(fā)展瓶頸與關鍵挑戰(zhàn)

4.1 渲染效率與算力匹配難題

在元宇宙影視場景中,多用戶在線與動態(tài)交互對實時渲染提出極高算力要求。傳統(tǒng)預烘焙渲染已難以應對XR環(huán)境中需依據(jù)用戶視角、行為軌跡與環(huán)境變化實時生成畫面的需求,導致GPU負載呈指數(shù)級上升[22]。在多用戶協(xié)作場景中,個性化視角渲染疊加物理模擬與全局光照計算,使得消費級GPU在高分辨率、高幀率條件下難以保障性能穩(wěn)定,易引發(fā)幀率下降與畫質(zhì)劣化問題[23]。

實時性與畫質(zhì)間的權衡構成技術瓶頸。動態(tài)分辨率縮放雖可降低延遲,卻可能降低畫質(zhì)從而削弱沉浸感;算力分布不均亦影響系統(tǒng)性能,邊緣計算受限于節(jié)點資源,云渲染雖可分擔負載,但超20 ms的網(wǎng)絡延遲易誘發(fā)眩暈感[24]。現(xiàn)有優(yōu)化方案仍存在技術缺陷:注視點渲染受限于眼動追蹤誤差及神經(jīng)前庭系統(tǒng)沖突[25];LOD精度切換技術因多用戶動態(tài)遮擋導致切換閃爍問題[26];分布式渲染雖然能進行區(qū)域分塊處理,但節(jié)點間高頻數(shù)據(jù)同步開銷過大,難以滿足實時互動需求[27]。上述問題構成算力瓶頸,限制了高復雜度光影表現(xiàn)與大規(guī)模動態(tài)對象在虛擬現(xiàn)實場景中的廣泛應用。

4.2 空間定位與環(huán)境魯棒性問題

同步定位與建圖(Simultaneous Localization and Mapping, SLAM)作為XR設備核心定位技術,于復雜環(huán)境下面臨顯著的精度與穩(wěn)定性挑戰(zhàn)。在弱紋理環(huán)境中,如純色墻面、水面等缺乏視覺特征場景,可能致使ORB?SLAM等算法跟蹤失效[28]。從技術瓶頸來看,傳統(tǒng)慣性測量單元(IMU)存在漂移問題,每分鐘角度誤差大于10°,視覺—慣性融合在快速運動或光照突變場景中容易失效[29]?,F(xiàn)有 SLAM算法對動態(tài)物體檢測剔除依賴語義分割,單幀計算耗時超100 ms,難以滿足實時性需求。以VR線下娛樂場景《秦潮覺醒》為例,在超過200 m2的大空間多人交互時,SLAM精度下降引發(fā)用戶碰撞虛擬物體或“穿墻”現(xiàn)象,不得不依賴外部光學動作捕捉設備輔助校準,進而增加部署成本與復雜度。

4.3 多模態(tài)輸入一致性與反饋延遲

在學術研究視角下,XR影視致力于融合視覺、聽覺、觸覺、語音等多模態(tài)交互,然而在實際應用中,各模態(tài)間的延遲差異與同步誤差將嚴重破壞沉浸體驗。其中,視覺—觸覺異步表現(xiàn)為用戶進行手勢操作時,力反饋手套等觸覺反饋延遲通常在50~100 ms。語音—口型不同步則因語音識別與自然語言處理耗時超150 ms,導致虛擬人響應延遲,出現(xiàn)口型動畫與語音內(nèi)容錯位現(xiàn)象[30]。多設備輸入沖突體現(xiàn)在同時使用手柄、眼動儀等設備時,輸入信號優(yōu)先級矛盾致使系統(tǒng)響應邏輯混亂。技術層面,跨模態(tài)時間校準缺乏統(tǒng)一時間戳同步機制,各設備時鐘偏差可達毫秒級[31]。這些問題不僅可能引發(fā)用戶眩暈,降低交互效率,還會導致錯誤認知,如《蝶夢空間》越劇VR系統(tǒng)中,手勢驅動唱詞切換時,視覺更新滯后于手勢識別,易使用戶產(chǎn)生“操作無效”的誤判。

4.4 用戶行為自由度與敘事控制沖突

元宇宙影視的非線性交互特性與傳統(tǒng)敘事的強控制邏輯存在根本性矛盾。具體表現(xiàn)首先為劇情分支“爆炸”問題顯著,用戶自由探索可能觸發(fā)海量行為路徑,傳統(tǒng)有限狀態(tài)機難以覆蓋所有分支,易導致劇情邏輯斷裂[32]。其次導演意圖在開放世界設計中被稀釋,用戶可能偏離核心敘事線,削弱內(nèi)容傳達效率[33]。最后多用戶同步交互存在協(xié)作沖突,個體行為可能相互干擾,導致全局敘事不一致。

同時,在技術層面也面臨多重挑戰(zhàn)。首先在動態(tài)敘事生成方面,現(xiàn)有AI敘事模型難以實時生成邏輯自洽的多分支故事,且缺乏情感連貫性[34]。而且用戶意圖預測領域,基于強化學習的行為預測模型在高自由度場景中泛化能力不足,預測誤差隨時間累積。其次敘事權重平衡問題上,如何動態(tài)調(diào)整用戶自由度與敘事引導強度,仍缺乏量化評估指標。

5未來發(fā)展趨勢與研究展望

5.1 基于AI的語義建構系統(tǒng)在XR影視中的結構重塑

在元宇宙語境驅動下,XR技術推動影視內(nèi)容構建方式從線性單向向智能化、自適應與多路徑結構演進,突破了傳統(tǒng)劇本在時空結構與用戶角色設定上的靜態(tài)限制。借助多模態(tài)感知、情感建模及AI驅動虛擬角色生成技術,XR影視系統(tǒng)構建出以“語義識別—行為反饋—結構演化”為核心的語義建構框架,顯著增強了系統(tǒng)對用戶輸入的動態(tài)響應能力。

該機制不再依賴預設的固定文本腳本,而是通過對用戶交互行為、生理信號及語義意圖的實時分析,生成可動態(tài)擴展的敘事路徑。技術上,由自然語言處理(NLP)模型、大語言模型(LLM)和行為預測網(wǎng)絡協(xié)同驅動的語義建構模塊,可實現(xiàn)語境理解、對話邏輯生成及劇情結構適配,從而實現(xiàn)內(nèi)容的實時重構與個性化定制。

隨著多智能體協(xié)同、知識圖譜推理與生理計算等人工智能技術的融合,XR影視的語義構建系統(tǒng)正朝著更強泛化能力與情境適應能力發(fā)展,標志著影視邏輯組織方式從人工編排向自組織演化的根本性轉變,為未來沉浸式智能內(nèi)容創(chuàng)作提供了理論支撐與可執(zhí)行路徑。

5.2 播映模式的空間遷移與體驗重塑

伴隨XR技術的深度應用,影視內(nèi)容的播映模式正經(jīng)歷從封閉式線性投放,向開放式沉浸互動體驗的結構性轉變。在元宇宙環(huán)境中,觀眾不再被動接受信息,而是成為敘事場域中的“交互主體”。播映空間從單一銀幕向多維感官空間擴展,播映機制從靜態(tài)播放向動態(tài)適配演化,促使影視媒介實現(xiàn)空間體驗與認知結構的雙重重構。

XR驅動下的影視播映模式正朝“空間沉浸化—交互實時化—用戶驅動化—社交場景化”方向演進。這一轉變不僅擴展了影視媒介的表現(xiàn)邊界,也促使播映機制從物理環(huán)境的固定結構走向以用戶感知為中心的動態(tài)體系,為未來影視內(nèi)容的傳播方式、組織形態(tài)與價值體系帶來深遠影響。

參考文獻

(向下滑動閱讀)

[1] ZENG B. Recent Advances and Future Directions in Extended Reality (XR): Exploring AI?Powered Spatial Intelligence[EB/OL]. (2025?04?22)[2025?06?01].http://arxiv.org/pdf/2504.15970.

[2] DIONYSUS A. Storytelling in a Frameless Screen: Producing Cinematic Virtual and Augmented Reality Experiences[D]. La Trobe University,2023.

[3] SONG J, WANG B, WANG Z, et al. From Expanded Cinema to Extended Reality: How AI Can Expand and Extend Cinematic Experiences[EB/OL]. (2023?07?20)[2025?06?01] .https://cislab.hkust-gz.edu.cn/media/documents/_VINCI_2023__

From_Expanded_Cinema_to_Extended_Reality.pdf.

[4] MILGRAM P, KISHINO F. A Taxonomy of Mixed Reality Visual Displays[J]. IEICE Transactions on Information and Systems, 1994, E77?D(12): 1321?1329.

[5] DIONISIO J D N, BURNS W G, GILBERT R. 3D virtual worlds and the metaverse: Current status and future possibilities[J]. ACM Computing Surveys, 2013, 45(3): 1?38.

[6] QIN T, LI P, SHEN S. VINS?Mono: A robust and versatile monocular visual?inertial state estimator[J]. IEEE Transactions on Robotics, 2018, 34(4): 1004?1020.

[7] KLIMEK C A G. Beyond the Screen: The Integration of XR Media in Canadian Cultural Institutions[EB/OL]. (2024?07?18)[2025?06?01].https://yorkspace.library.yorku.ca/items/239eaccd-6ca8-49e4-9936-e03f45fc3f4e/full.

[8] BOLTE B, STEINICKE F, BRUDER G. The jumper metaphor: an effective navigation technique for immersive display setups[C]//Proceedings of Virtual Reality International Conference (VRIC 2011), 2011, 1(2).

[9] GUNKEL S N, POTETSIANAKIS E, KLUNDER T E, et al, Immersive Experiences and XR: A Game Engine or Multimedia Streaming Problem?[J]. SMPTE Motion Imaging Journal, 2023, 132(5): 30?37.

[10] HUTSON J. Shared cinematic experience and emerging technologies: Integrating mixed?reality components for the future of cinema[EB/OL]. (2023?12?12)[2025?06?01].https://api-journal.accscience.com/journal/article/preview?doi=10.36922/ac.0683.

[11] MUR?ARTAL R, TARDóS J D. ORB?SLAM2: An open?source SLAM system for monocular, stereo, and RGB?D cameras[J]. IEEE Transactions on Robotics, 2017, 33(5): 1255?1262.

[12] CHAN F Y. Cinematic virtual reality film practice: expanded profilmic event and mode of production[EB/OL].[2025?06?01].https://dr.ntu.edu.sg/entities/publication/7c56b145-dfc5-4db9-8348-0dab100d6319.

[13] PUDLO F G, KOTLINSKA M, OLCHOWSKI W, et al. XR Workflows in Film Production: Demonstration for Educational Purposes[J]. Zarz?dzanie Mediami. 2022, 1(4): 245?264.

[14] GUO X, FENG X. A Comparative Study in University Curriculum Education on Cross?straits Based on AR/VR Technology[C]//2020 3rd International Conference on Humanities Education and Social Sciences, 2020: 555?562.

[15] 詹希旎, 李白楊, 孫建軍. 數(shù)智融合環(huán)境下AIGC 的場景化應用與發(fā)展機遇[J]. 圖書情報知識,2023, 40(1): 75?85.

[16] TONG J, ZHOU J, LIU L, et al. Scanning 3d full human bodies using kinects[J]. IEEE transactions on visualization and computer graphics, 2012, 18(4): 643?650.

[17] CAI Q, MA M, WANG C, et al. Image neural style transfer: A review[J]. Computers and Electrical Engineering, 2023, 108: 108723.

[18] LIU Y, WANG W, ZHENG H. et al. AffectiveRL: Integrating Affective Computing with Deep Reinforcement Learning for Emotional NPC Behavior Generation[J]. IEEE Transactions on Games, 2023, 15(4): 678?692

[19] NAVEED H, KHAN A U, QIU S, et al. A comprehensive overview of large language models[EB/OL].(2023?07?12)[2025?06?01].https://arxiv.org/abs/2307.06435.

[20] NING Z, XIE L. A survey on multi?agent reinforcement learning and its application[J]. Journal of Automation and Intelligence, 2024, 3(2): 73?91.

[21] WANG L, ZHOU Y, LIU Y, et al. Generative Agents: Interactive Simulacra of Human Behavior[C]//Proceedings of the 40th International Conference on Machine Learning (ICML). PMLR, 2023: 34521?34538.

[22] HATAMI M, QU Q, CHEN Y, et al. A Survey of the Real?Time Metaverse: Challenges and Opportunities[J]. Future Internet, 2024, 16(10): 379.

[23] PERFECTO C, ELBAMBY M S, DEL SER J, et al. Taming the latency in multi?user VR 360°: A QoE?aware deep learning?aided multicast framework[J]. IEEE Transactions on Communications, 2020, 68(4): 2491?2508.

[24] KIM H, KIM D J, CHUNG W H. et al. Clinical predictors of cybersickness in virtual reality (VR) among highly stressed people[J]. Scientific Reports, 2021,11(1):12139.

[25] KRAMIDA G. Resolving the vergence?accommodation conflict in head?mounted displays[J]. IEEE transactions on visualization and computer graphics, 2015, 22(7): 1912?1931.

[26] YANG X, CHEN Z, WANG L. Dynamic occlusion handling in multi?user VR: A critical review of LOD techniques[J]. IEEE Transactions on Visualization and Computer Graphics, 2023, 29(4): 123?145.

[27] HUANG Z, FRIDERIKOS V. Optimal mobility?aware wireless edge cloud support for the metaverse[J]. Future Internet, 2023, 15(2): 47.

[28] MUR?ARTAL R, TARDóS J D. ORB?SLAM2: an Open?Source SLAM System for Monocular, Stereo and RGB?D Cameras[J]. IEEE transactions on robotics, 2017, 33(5): 1255?1262.

[29] Forster C, Carlone L, Dellaert F, et al. IMU Preintegration on Manifold for Efficient Visual?Inertial Maximum?a?Posteriori Estimation[C]// Proceedings of Robotics: Science and Systems (RSS). Rome, Italy: RSS, 2015.

[30] ROSEMANN S, WEFEL I M, ELIS V, et al. Audio–visual interaction in visual motion detection: synchrony versus asynchrony[J]. Journal of optometry, 2017, 10(4): 242?251.

[31] PARK S, KIM H, LEE J. Unified clock synchronization for multimodal XR: A blockchain?inspired approach[C]//ACM SIGGRAPH Asia 2023 Conference Proceedings, 2023.

[32] MATEAS M, STERN A. Structuring content in the Fa?ade interactive drama architecture[C]//Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment, 2005.

[33] NELSON M J, MATEAS M. Towards automated game design[C]//Congress of the Italian Association for Artificial Intelligence. Berlin, Heidelberg: Springer Berlin Heidelberg, 2007: 626?637.

[34] RIEDL M O, YOUNG R M. Narrative planning: Balancing plot and character[J]. Journal of Artificial Intelligence Research, 2010, 39: 217?268.

【基金項目】國家自然科學基金項目“虛擬人智能交互與運行規(guī)劃研究”(62072150);中國美術學院文創(chuàng)設計智造實驗室開放基金項目資助-協(xié)同項目“越劇的元宇宙體驗式傳承研究”(CAADAI2022A003)。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
41萬ModelY新款上市,特斯拉嚇了車圈一跳!

41萬ModelY新款上市,特斯拉嚇了車圈一跳!

財經(jīng)三分鐘pro
2026-03-09 12:52:24
真相大白!王曼昱爆冷慘敗大藤沙月原因曝光,真不是打不過日本人

真相大白!王曼昱爆冷慘敗大藤沙月原因曝光,真不是打不過日本人

曹說體育
2026-03-10 15:24:12
近3萬元從源頭廠家網(wǎng)購老年代步車,買回發(fā)現(xiàn)“缺胳膊少腿”,跨省維權陷困境

近3萬元從源頭廠家網(wǎng)購老年代步車,買回發(fā)現(xiàn)“缺胳膊少腿”,跨省維權陷困境

大風新聞
2026-03-10 08:25:10
從法國走路到中國

從法國走路到中國

新民周刊
2026-03-10 16:44:38
于東來公布公司40億資產(chǎn)利潤分配方案:胖東來12名店長共分2.4億,每人2000萬元

于東來公布公司40億資產(chǎn)利潤分配方案:胖東來12名店長共分2.4億,每人2000萬元

大象新聞
2026-03-10 14:46:05
央視網(wǎng)都稱贊!《鏢人》登頂全球武俠片票房亞軍!回本就啟動續(xù)集

央視網(wǎng)都稱贊!《鏢人》登頂全球武俠片票房亞軍!回本就啟動續(xù)集

露珠聊影視
2026-03-09 22:10:58
有沒有人敢爆自己的瓜?網(wǎng)友:確定玩這么大嗎?

有沒有人敢爆自己的瓜?網(wǎng)友:確定玩這么大嗎?

夜深愛雜談
2026-02-18 20:55:58
特朗普沒想到,先等來的不是伊朗投降,是美國24個州的聯(lián)合起訴書

特朗普沒想到,先等來的不是伊朗投降,是美國24個州的聯(lián)合起訴書

說歷史的老牢
2026-03-09 19:23:55
潑湯女子全網(wǎng)社死!處罰結果曝光,疑在幼兒園上班,家人也遭連累

潑湯女子全網(wǎng)社死!處罰結果曝光,疑在幼兒園上班,家人也遭連累

奇思妙想草葉君
2026-03-09 23:58:44
美防長稱將對伊朗發(fā)起“最高強度”打擊

美防長稱將對伊朗發(fā)起“最高強度”打擊

新華社
2026-03-10 20:57:07
哎,十四億人口大國居然輸給中國臺北省隊,中國女足此前未輸過

哎,十四億人口大國居然輸給中國臺北省隊,中國女足此前未輸過

姜大叔侃球
2026-03-10 20:02:27
「俠客島」美國打伊朗,歐洲為啥“不跟”?

「俠客島」美國打伊朗,歐洲為啥“不跟”?

海外網(wǎng)
2026-03-10 19:32:05
美以伊都沒想到,他們在那打生打死,“沙土神盾”卻是中國造!

美以伊都沒想到,他們在那打生打死,“沙土神盾”卻是中國造!

芊芊子吟
2026-03-10 12:35:11
伊朗德黑蘭突降“黑雨”!有民眾呼吸困難 喉嚨刺痛

伊朗德黑蘭突降“黑雨”!有民眾呼吸困難 喉嚨刺痛

閃電新聞
2026-03-10 19:30:10
專家:收入高者養(yǎng)老金高,低收入者卻無養(yǎng)老金,公平嗎?

專家:收入高者養(yǎng)老金高,低收入者卻無養(yǎng)老金,公平嗎?

一絲不茍的法律人
2026-03-09 11:16:12
美伊戰(zhàn)場上勝負已分,德黑蘭權力游戲才剛開始

美伊戰(zhàn)場上勝負已分,德黑蘭權力游戲才剛開始

難得君
2026-03-10 12:35:27
不怕被報復?伊朗女足5人摘下頭巾!獲準留在澳洲 球員家人遭逮捕

不怕被報復?伊朗女足5人摘下頭巾!獲準留在澳洲 球員家人遭逮捕

念洲
2026-03-10 07:46:07
我在迪拜工作時,不小心摘下穆斯林女子頭紗,她給了我3個選擇

我在迪拜工作時,不小心摘下穆斯林女子頭紗,她給了我3個選擇

千秋文化
2026-01-06 21:28:59
法國巴黎銀行表示伊朗戰(zhàn)事如果升級,中國股市在亞洲市場的優(yōu)勢可能擴大,原因在于中國經(jīng)濟更倚重國內(nèi)市場

法國巴黎銀行表示伊朗戰(zhàn)事如果升級,中國股市在亞洲市場的優(yōu)勢可能擴大,原因在于中國經(jīng)濟更倚重國內(nèi)市場

瀟湘晨報
2026-03-10 18:22:25
閃充換電吵上熱搜!比亞迪蔚來接連回應,奇瑞老板也發(fā)言了

閃充換電吵上熱搜!比亞迪蔚來接連回應,奇瑞老板也發(fā)言了

車東西
2026-03-09 21:34:13
2026-03-10 22:55:00
電影技術微刊 incentive-icons
電影技術微刊
電影技術微刊
647文章數(shù) 209關注度
往期回顧 全部

娛樂要聞

《逐玉》注水風波升級!315評論區(qū)淪陷

頭條要聞

小伙輾轉8天回國:后悔賺錢賺到伊朗 赴死的心都有了

頭條要聞

小伙輾轉8天回國:后悔賺錢賺到伊朗 赴死的心都有了

體育要聞

加蘭沒那么差,但鱸魚會用嗎?

財經(jīng)要聞

“龍蝦補貼”密集出爐 最高1000萬!

科技要聞

全民"養(yǎng)蝦"背后:大廠集體下場瘋狂賣Token

汽車要聞

MG4有SUV衍生 上汽乘用車多款新車規(guī)劃曝光

態(tài)度原創(chuàng)

房產(chǎn)
親子
本地
數(shù)碼
公開課

房產(chǎn)要聞

信號!千億巨頭入局,三亞開啟新一輪大征拆!

親子要聞

程曉玥自曝喜歡懷孕:我愛我的工作,然后我愛懷孕懷著孕工作

本地新聞

云游中國|候鳥高顏值亮相!沉浸式打卡青海濕地

數(shù)碼要聞

羅德R?DE新推一體化音視頻方案,功能超強大!

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版