国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

萬幀實時!流式3D重建天花板,被國產(chǎn)開源模型打破了

0
分享至



編輯|楊文

螞蟻靈波,下了盤大棋。

今年 1 月,螞蟻靈波一口氣開源了 4 款大模型,包括高精度空間感知模型 LingBot-Depth、具身大模型 LingBot-VLA 與具身世界模型 LingBot-VA,以及世界模型 LingBot-World。

其中,LingBot-Depth 負責從圖像中估算深度、感知空間距離,LingBot-World 負責對環(huán)境進行模擬和理解,LingBot-VLA/VA 負責機器人的決策和動作控制。

這四款模型「各司其職」,分別覆蓋感知底層、環(huán)境理解和行動輸出,但中間一直缺少一個關鍵環(huán)節(jié),就是如何把連續(xù)的感知數(shù)據(jù)實時構建成穩(wěn)定的三維空間模型,讓后續(xù)模塊有據(jù)可依。

現(xiàn)在,這個空缺被填上了。

最近,螞蟻正式開源LingBot-Map,一個基于幾何上下文 Transformer(Geometric Context Transformer,GCT)的純自回歸的流式 3D 重建基礎模型

它能在幾近恒定內(nèi)存約束下,實現(xiàn)超萬幀長視頻的實時三維重建,處理速度約 20 FPS,并在多個基準測試中超越了現(xiàn)有流式方法。



LingBot-Map 與最先進的流式重建方法的比較

給定連續(xù)視頻流,LingBot-Map 可同步輸出精確的相機位姿估計與高質(zhì)量點云。比如真實世界航拍俯瞰,LingBot-Map 保持穩(wěn)定的定位能力與高精度 3D 重建效果:



即便在穿越多房間的長序列中,面對環(huán)境劇變與大幅視角變換,模型依然能表現(xiàn)出極強的魯棒性:



在生成視頻建模場景中,LingBot-Map 與主流生成視頻高度兼容,實現(xiàn)穩(wěn)定的位姿鎖定:



針對長序列戶外場景,模型在快速運動與頻繁視角切換下同樣維持了可靠的位姿精度:



建筑環(huán)繞場景中,LingBot-Map 則進一步強化了回環(huán)重建能力,確保全局一致性:



此次開源內(nèi)容包括技術報告、核心代碼和模型權重,已同步上線 Hugging Face 和 ModelScope 平臺。



  • 論文鏈接:https://arxiv.org/abs/2604.14141
  • Hugging Face 鏈接:https://huggingface.co/robbyant/lingbot-map
  • ModelScope 鏈接:https://www.modelscope.cn/models/Robbyant/lingbot-map
  • GitHub 鏈接:https://github.com/Robbyant/lingbot-map

至此,從單幀深度估計,到純自回歸的流式 3D 重建,再到場景理解和控制輸出,一條更為完整的技術鏈路就此貫通。

機器的空間記憶,為什么這么難?

如果我們在一棟陌生的大樓里轉悠二十分鐘,能大致描述出剛才走過的路線和空間結構嗎?大概率可以。這是因為人類大腦會在行走過程中持續(xù)建立空間記憶,把一幀一幀的感官信息整合成一張動態(tài)地圖。

不過,機器要做到同樣的事,難得多。

攝像頭可以拍下連續(xù)的畫面,但把這些二維圖像還原成準確的三維空間模型,同時保持實時更新、實時可用,是具身智能和自動駕駛領域長期懸而未決的難題。其難點在于,視頻流是沒有終點的,歷史幀的信息不能丟,當前幀又必須即時處理,而內(nèi)存還是有限的。

現(xiàn)有方案,大多只能顧一頭。

傳統(tǒng) 3D 重建方法,比如經(jīng)典的 SfM(運動恢復結構),通常需要收集完所有幀之后,再進行離線的全局優(yōu)化。這種離線處理方案精度高,但要等視頻錄完才能開始算,難以滿足實時運行需求。

于是就有了流式重建的思路,讓模型在接收每一幀畫面的同時,持續(xù)更新三維理解,不做事后處理,但現(xiàn)實中有兩道坎難以逾越。

一是「災難性遺忘」。神經(jīng)網(wǎng)絡在處理新輸入時,會傾向于覆蓋舊有信息。視頻越長,模型越容易忘記早期建立的幾何關系,導致重建結果在時間維度上前后矛盾、全局漂移。

一是「內(nèi)存膨脹」。如果想對抗遺忘,最直覺的做法是把歷史幀全部保存下來,隨時參考。但視頻幀數(shù)一旦過多,內(nèi)存就會爆炸。萬幀以上的長視頻,現(xiàn)有流式方法普遍難以穩(wěn)定應對。

在這個兩難困境里,LingBot-Map 給出了一條不同的路徑。



LingBot-Map 流程。該框架處理相對于初始化集 [T, T) 的當前視圖。DINO 骨干網(wǎng)絡提取圖像特征,然后通過交替的幀注意力層和 GCA 層進行細化。在 GCA 模塊中,輸入視圖聚合來自錨點上下文、局部姿態(tài)參考窗口 [T, T] 和軌跡記憶上下文的信息。最后,特定任務的頭部預測相機姿態(tài)和深度圖,從而實現(xiàn)對長序列的魯棒、內(nèi)存高效的流式 3D 重建。

它是怎么解決「記憶」問題的?

讓機器實時看懂三維世界,本質(zhì)上是個記憶問題,比如記什么、怎么壓縮、如何在需要時快速調(diào)取。

那么,LingBot-Map 是如何解決這一難題的?這就不得不提一個名為幾何上下文注意力(Geometric Context Attention,GCA)的核心機制。

核心機制:幾何上下文注意力(GCA)

GCA 的設計靈感,來自機器人領域的經(jīng)典算法 SLAM。

傳統(tǒng) SLAM 告訴工程師,要讓機器人在未知環(huán)境里邊走邊建圖,至少需要維護三類空間記憶:鎖定坐標系原點的參考幀、捕捉近鄰幀幾何細節(jié)的局部窗口,以及記錄全局行走軌跡的稀疏地圖。

不過,傳統(tǒng) SLAM 依賴工程師手動編寫復雜的幾何約束代碼,靈活性有限。LingBot-Map 研究團隊換了條路,將這些空間規(guī)律內(nèi)化到 Transformer 的注意力機制中,利用因果注意力(Causal Attention)確保模型只利用過去和當前的信息,完全符合機器人邊走邊看的實時邏輯。

幾何上下文注意力(GCA)在處理視頻流時,同時維護三類記憶。

第一類是錨點(Anchor),負責記住「我從哪里出發(fā)」。它為整個三維坐標系提供穩(wěn)定基準,空間重建最怕坐標漂移,有了錨點,模型在處理第一萬幀時,仍然清楚第一幀發(fā)生在什么位置。

第二類叫位姿參考窗口(Pose-reference window),負責捕捉當前位置附近的局部幾何細節(jié)。這相當于對「我身邊有什么」保持清醒的即時感知,保證了逐幀重建的精度。

第三類為軌跡記憶(Trajectory memory),這是整個架構中較為關鍵的設計。它把龐大的歷史信息壓縮成極其緊湊的逐幀 Token,以較低的存儲代價保留對過去路徑的「印象」。正是這一機制,讓 LingBot-Map 的內(nèi)存消耗幾乎不隨視頻長度增長,處理 100 幀和處理 10000 幀,總的計算量和內(nèi)存占用維持在幾近相同的水平。

三類記憶協(xié)同工作,讓模型在處理當前畫面時,能同時調(diào)取空間基準、局部細節(jié)和歷史軌跡。整套機制端到端可學習,模型在訓練中自動習得如何分配和壓縮信息,不依賴人工設計的規(guī)則。

這種設計帶來的效率提升相當可觀。以一段萬幀視頻為例,如果采用樸素的因果注意力緩存所有歷史,模型需要維護約 500 萬個 token,而 GCA 只需要約 7 萬個,足足壓縮了近 80 倍,且每處理一幀新畫面,計算量和內(nèi)存消耗幾乎不隨總幀數(shù)增長。



注意力掩碼比較。每個方框代表一幀的 Token,由一小段上下文 Token 和一段較大的圖像 Token 組成。(a) 全注意力(Full attention)會關注所有幀。(b) 因果注意力(Causal attention)支持流式處理,但計算開銷隨序列長度線性增長。(c) 滑動窗口注意力(Sliding-window attention)雖然限制了計算成本,但會丟失長程上下文。(d) GCA 將流式上下文劃分為錨框 (n=2)、局部窗口 (k=2) 和軌跡記憶,在保持計算成本隨序列長度增加而近乎恒定的同時,保留了豐富的長程上下文信息。

如何教會機器「有選擇地記憶」?

有了 GCA 機制,還需要配套的訓練與推理策略,才能讓模型學會在長序列中穩(wěn)定工作。

直接在長序列上進行訓練極具挑戰(zhàn)性。早期幀的位姿誤差會沿軌跡傳播,破壞損失函數(shù)的穩(wěn)定性,導致優(yōu)化速度緩慢甚至發(fā)散。為此,LingBot-Map 采用漸進式視圖訓練策略:模型從短子序列開始,并在訓練過程中逐步增加視角數(shù)量,訓練視圖數(shù)量從 24 幀線性遞增至 320 幀,讓模型先在短序列中獲得可靠的局部幾何估計,再學習如何在逐漸延長的軌跡上保持全局一致性。

隨著訓練序列長度的增加,跨幀注意力的計算復雜度呈平方級增長,GPU 內(nèi)存成為主要瓶頸。對此,LingBot-Map 引入了上下文并行策略,將不同視圖分布至多張 GPU,通過高效的全局通信實現(xiàn)并行注意力計算,從而在不犧牲序列長度的前提下完成大規(guī)模訓練。

損失函數(shù)同樣經(jīng)過精心設計,LingBot-Map 采用一個復合損失函數(shù)來訓練,該函數(shù)由深度損失、絕對位姿損失與相對位姿損失組成。模型采用相機到世界坐標系的變換進行監(jiān)督,規(guī)避了世界到相機參數(shù)化中旋轉與平移耦合帶來的誤差放大問題。此外,視頻時序位置編碼將幀序信息注入軌跡記憶 Token,使模型能夠感知歷史幀之間的時間距離,更有效地抑制長程漂移。

推理層面,LingBot-Map 借鑒自回歸大語言模型的KV 緩存機制,并通過分頁 KV 緩存布局避免頻繁內(nèi)存重分配的開銷,配合FlashInfer 框架的稀疏注意力優(yōu)化,最終在 518×378 分辨率下實現(xiàn)約 20 FPS 的實時推理,相比 PyTorch 基線提速近一倍。

在基準測試上,它表現(xiàn)如何?

LingBot-Map 團隊建立了一個全面的評估基準測試,涵蓋相機位姿估計與 3D 重建兩大任務,橫跨室內(nèi)、室外及大規(guī)模場景,結果均顯著優(yōu)于現(xiàn)有流式方法。

相機位姿估計方面,Oxford Spires 是一個涵蓋復雜室內(nèi)外環(huán)境、場景變化顯著的大規(guī)模數(shù)據(jù)集,是檢驗流式方法長序列魯棒性的嚴苛標準。



軌跡對比。(a) 在 Oxford-Spires 場景中,LingBot-Map 甚至優(yōu)于雙向 (DA3-Giant) 和基于優(yōu)化的方法 (ViPE),能夠在復雜的室內(nèi)外過渡和昏暗樓梯中準確地保持軌跡。(b) 在 Tanks and Temples 以及其他 Oxford-Spires 場景中,LingBot-Map 方法始終能夠生成準確的軌跡,而其他流式方法則存在嚴重的軌跡漂移。藍色為真實軌跡,橙色為預測軌跡;起點為圓點 (●),終點為叉號 (×)。

在稀疏設置(每隔 12 幀采樣,共 320 幀)下,LingBot-Map 在幾乎所有指標上取得最優(yōu)成績,AUC@15 達到 61.64,AUC@30 達到 75.16,絕對軌跡誤差(ATE)僅為 6.42,這一數(shù)字不僅大幅領先所有在線方法,甚至超越了需要訪問全部幀的離線方法,以及依賴迭代優(yōu)化的方法。這一結果充分說明,GCA 機制在長序列中的全局一致性保持能力已不輸于后處理優(yōu)化。



Oxford Spires 數(shù)據(jù)集上的位姿與軌跡精度對比。在與先前的離線方法、基于優(yōu)化的方法以及在線方法的對比中,LingBot-Map 的方法在絕大多數(shù)指標上均實現(xiàn)了最優(yōu)性能。

在密集設置(完整 3840 幀序列)下,大多數(shù)流式方法因軌跡漂移而性能大幅劣化,比如 CUT3R 的 ATE 從 18.16 升至 32.47,Wint3R 從 21.10 升至 32.90。相比之下,LingBot-Map 始終保持較低的誤差,ATE 僅從 6.42 小幅升至 7.11,在序列長度增加 12 倍的情況下,誤差僅略微增加了 0.69,表現(xiàn)出極強的長程穩(wěn)定性。LingBot-Map 還實現(xiàn)了 20.29 FPS 的極具競爭力的推理速度,同時在所有流式方法中保持了最佳的軌跡精度。



在 Oxford Spires 數(shù)據(jù)集上關于稀疏(Sparse)軌跡與稠密(Dense)軌跡的精度對比。研究者對比了在稀疏設置(320 幀)和稠密設置(3840 幀)下的絕對軌跡誤差(ATE),衡量了從稀疏到稠密設置下的精度退化程度。LingBot-Map 保持了近乎恒定的精度,而其他方法則出現(xiàn)了明顯的退化。

在 ETH3D、7-Scenes 和 Tanks and Temples 三個數(shù)據(jù)集上,LingBot-Map 同樣全面領先。以 ETH3D 為例,其 AUC@3 達到 27.79,AUC@30 達到 86.20,ATE 低至 0.22;在 Tanks and Temples 上,AUC@30 高達 92.80,ATE 僅為 0.20,均為各方法中最優(yōu)。



ETH3D、7-Scenes 和 Tanks & Temples 上的位姿與軌跡精度對比。在 ETH3D、7-Scenes 和 Tanks & Temples 數(shù)據(jù)集上的結果表明,LingBot-Map 方法在所有數(shù)據(jù)集上均取得了最佳性能。

除了數(shù)值指標之外,該團隊還提供了重建質(zhì)量的定性比較。在長時間間隔后重新訪問場景時,LingBot-Map 的方法表現(xiàn)出最小的漂移,能夠生成清晰一致的建筑結構重建結果。相比之下,其他方法由于記憶遺忘而出現(xiàn)嚴重的軌跡漂移和點云碎片化。這證明了 LingBot-Map 幾何上下文注意力機制在保持長序列一致性方面的有效性。



點云重建的定性比較。

三維重建方面,在 ETH3D 上,LingBot-Map 的 F1 得分為 98.98,比次優(yōu)方法 Wint3R 高出 22.7 個百分點;在 NRGBD 數(shù)據(jù)集上,F(xiàn)1 得分達到 64.26,同樣大幅超過 StreamVGGT 和 TTT3R 等方法。精度與完整度的雙重提升,表明模型在保持重建準確性的同時,對場景覆蓋率也有更充分的保障。



ETH3D、7-Scenes 和 NRGBD 上的點云重建對比。LingBot-Map 方法在準確率、完整性和 F1 分數(shù)方面均取得了最佳結果。

消融實驗進一步驗證了各組件的貢獻。

單獨加入錨點初始化可將 AUC@3 從 9.80 提升至 13.63,ATE 從 8.59 降至 7.88;引入相對位姿損失對幀間旋轉誤差的約束尤為關鍵,去掉后 RPE-rot 從 2.26 惡化至 5.35;而上下文 Token 與視頻 RoPE 的聯(lián)合引入則進一步將 AUC@3 提升至 16.39,ATE 降至 5.98,說明對全局軌跡信息的精確編碼是長程一致性的重要保障。



長序列姿態(tài)估計和軌跡精度的消融研究。所有組成部分均對最終性能有顯著貢獻。

效率分析方面,將位姿參考窗口限定為 64 幀而非保留全部歷史,不僅將推理速度從 11.87 FPS 提升至 20.29 FPS,顯存占用從 36.06 GB 降至 13.28 GB,ATE 也從 6.60 進一步下降至 5.98,這表明 GCA 所保留的精選幾何上下文,其信息密度實際上高于不加篩選的完整歷史緩存,在效率與精度上實現(xiàn)了雙贏。



姿態(tài)參考窗口與全窗口的效率比較。姿態(tài)參考窗口(大小為 64)在顯著提高速度和降低內(nèi)存占用的同時,實現(xiàn)了更高的精度。

結語

純自回歸流式 3D 重建,是具身智能領域公認的技術難點之一。此前,業(yè)內(nèi)方案普遍面臨實時性與內(nèi)存占用難以兼顧的困境,制約了具身系統(tǒng)在復雜、長時任務中的實際表現(xiàn)。

LingBot-Map 的開源,為這一問題提供了一個可復現(xiàn)、可驗證的解法,也將相關技術門檻向下拉了一檔。

從更大的視角來看,這也是螞蟻靈波具身大腦平臺趨于完整的一個節(jié)點。深度感知、場景理解、決策控制等模塊此前已陸續(xù)開源,LingBot-Map 的加入,補上了實時空間建模這一關鍵缺口。一套具身大腦該有的模塊,正在逐漸變得完整。

當然,具身智能真正成熟,還需要無數(shù)真實場景的打磨和驗證,但這類基礎能力的開放共享,或將對整體研發(fā)節(jié)奏產(chǎn)生實質(zhì)性影響。

文中視頻鏈接:https://mp.weixin.qq.com/s/w_Vt1AylNX9WH3NBaKmUwA

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
親人去世,請假反被辭

親人去世,請假反被辭

南風窗
2026-04-16 21:45:03
第10艘船被攔!美軍全面封鎖,嚴禁中伊原油交易,中國打出反制牌

第10艘船被攔!美軍全面封鎖,嚴禁中伊原油交易,中國打出反制牌

云上烏托邦
2026-04-18 14:17:07
TA:哈登將拒絕下賽季4200萬美元球員選項,進入自由市場

TA:哈登將拒絕下賽季4200萬美元球員選項,進入自由市場

懂球帝
2026-04-18 08:58:04
消博會新觀察|從全球消費名品亮相看中國消費活力與開放決心

消博會新觀察|從全球消費名品亮相看中國消費活力與開放決心

新華社
2026-04-18 09:34:53
王陽妻子主演《八千里路云和月》,賢妻旺三代

王陽妻子主演《八千里路云和月》,賢妻旺三代

悅君兮君不知
2026-04-18 19:47:38
央八新劇《無可替代》4月20日開播,太真實了!

央八新劇《無可替代》4月20日開播,太真實了!

小椰的奶奶
2026-04-18 19:03:05
他倆官宣結婚,朋友圈都炸了!

他倆官宣結婚,朋友圈都炸了!

In風尚
2026-03-12 12:05:42
央視坐實!成本2元售價19800元!不少人受騙,趕緊別用了

央視坐實!成本2元售價19800元!不少人受騙,趕緊別用了

番外行
2026-03-10 08:01:42
外賣,正在毀了三代中國人!

外賣,正在毀了三代中國人!

深度報
2026-04-18 23:37:04
天價罰款背后,“口是心非”的京東和“頭鐵”的拼多多

天價罰款背后,“口是心非”的京東和“頭鐵”的拼多多

有界UnKnown
2026-04-17 22:19:43
湖人火箭傷病出爐!湖人喜訊!猛將復出!核心回歸!火箭再添傷員

湖人火箭傷病出爐!湖人喜訊!猛將復出!核心回歸!火箭再添傷員

順靜自然
2026-04-18 11:39:54
曲江沒了!房價還可以守得住嗎?

曲江沒了!房價還可以守得住嗎?

地產(chǎn)新視線
2026-04-18 19:35:38
塞門約:英超初記憶是切爾西奪冠,世界杯記憶是加納vs烏拉圭

塞門約:英超初記憶是切爾西奪冠,世界杯記憶是加納vs烏拉圭

懂球帝
2026-04-19 02:39:25
新娘憑“天庭飽滿”走紅!婚禮現(xiàn)場照片令網(wǎng)友驚嘆:這顏值實在太迷人

新娘憑“天庭飽滿”走紅!婚禮現(xiàn)場照片令網(wǎng)友驚嘆:這顏值實在太迷人

白宸侃片
2026-04-15 08:13:26
艾滋病新增130萬!很多人中招很冤枉!在外“5不碰”一定要記死

艾滋病新增130萬!很多人中招很冤枉!在外“5不碰”一定要記死

今朝牛馬
2025-12-31 19:31:04
“看站姿就不像當過兵的!”家長炫耀特種兵兒子,敗露后慘遭打臉

“看站姿就不像當過兵的!”家長炫耀特種兵兒子,敗露后慘遭打臉

妍妍教育日記
2026-04-02 12:29:05
后悔莫及!火箭不要的新秀,徹底完成蛻變,21歲有望成為聯(lián)盟超巨

后悔莫及!火箭不要的新秀,徹底完成蛻變,21歲有望成為聯(lián)盟超巨

體育大朋說
2026-04-18 05:05:03
凱特威廉合體亮相2026英國BAFTA頒獎禮,王妃身著Gucci驚艷全場

凱特威廉合體亮相2026英國BAFTA頒獎禮,王妃身著Gucci驚艷全場

麥桐看娛樂
2026-04-19 00:54:22
長沙女子貼著道閘穿行,遇小車通行被抬桿打臉,誰擔責?

長沙女子貼著道閘穿行,遇小車通行被抬桿打臉,誰擔責?

瀟湘晨報
2026-04-18 11:56:22
那不勒斯負于拉齊奧,國米最快可能在下輪意甲提前奪冠

那不勒斯負于拉齊奧,國米最快可能在下輪意甲提前奪冠

懂球帝
2026-04-19 02:18:11
2026-04-19 04:16:49
機器之心Pro incentive-icons
機器之心Pro
專業(yè)的人工智能媒體
12792文章數(shù) 142632關注度
往期回顧 全部

科技要聞

傳Meta下月擬裁8000 大舉清退人力為AI騰位

頭條要聞

伊朗革命衛(wèi)隊向油輪開火 伊朗最高領袖發(fā)聲

頭條要聞

伊朗革命衛(wèi)隊向油輪開火 伊朗最高領袖發(fā)聲

體育要聞

時隔25年重返英超!沒有人再嘲笑他了

娛樂要聞

劉德華回應潘宏彬去世,拒談喪禮細節(jié)

財經(jīng)要聞

"影子萬科"2.0:管理層如何吸血萬物云?

汽車要聞

奇瑞威麟R08 PRO正式上市 售價14.48萬元起

態(tài)度原創(chuàng)

家居
房產(chǎn)
本地
公開課
軍事航空

家居要聞

法式線條 時光靜淌

房產(chǎn)要聞

官宣簽約最強城更!??跇鞘校蝗粴⑷肷衩胤科?!

本地新聞

12噸巧克力有難,全網(wǎng)化身超級偵探添亂

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

解放軍護衛(wèi)艦與外艦纏斗20小時 細節(jié)披露

無障礙瀏覽 進入關懷版