国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

浙江大學研究員彭思達:底層空間感知技術(shù)對訓練機器人有何作用?|GAIR 2025

0
分享至


可將人類視作一種特殊形態(tài)的機器人,獲取其行為數(shù)據(jù)可用于訓練人形機器人。

作者丨張進

編輯丨林覺民


在“世界模型”分論壇上,浙江大學研究員彭思達帶來了《面向具身智能的通用空間感知技術(shù)》的主題演講,介紹了其團隊近期在賦予機器人通用感知能力方面的多項工作。彭思達是浙江大學軟件學院“百人計劃”研究員、博士生導師,研究方向為三維計算機視覺和計算機圖形學。

團隊主要聚焦于賦予機器人三項基礎(chǔ)能力:一是相機定位(Camera Pose Estimation),即讓機器人知道自己在空間中的位置;二是深度估計(Depth Estimation),使機器人了解場景中各物體與自身的距離;三是物體運動估計(Object Motion Estimation),讓機器人感知世界的運動狀態(tài)。

這些底層空間感知技術(shù)有何作用?首先,它們能為機器人提供關(guān)鍵的決策信息。例如,無人機在空間中需要先知道自身位置、與場景目標的距離,才能實現(xiàn)基礎(chǔ)避障;進而還需了解目標物體的運動情況,才能進行追蹤?;趶膱鼍爸蝎@取的三維空間信息,機器人的行為規(guī)劃便能得到有力支持。

其次,這些技術(shù)可用于生成訓練數(shù)據(jù)。當前具身智能領(lǐng)域的一大難題是數(shù)據(jù)匱乏。以往有人嘗試仿真或遙操獲取數(shù)據(jù),但遙操數(shù)據(jù)雖好卻難以規(guī)?;瘮U展,而仿真技術(shù)目前仍與真實世界存在較大差距。

彭思達提出,其實可將人類視作一種特殊形態(tài)的機器人——具備完整的身體結(jié)構(gòu)與行為模式。若能發(fā)明一種數(shù)據(jù)采集設(shè)備,將人類日常行為完整記錄下來,就相當于獲取了機器人所需的行為數(shù)據(jù),從而可用于訓練人形機器人。這其中便涉及相機定位、深度估計與物體運動估計等技術(shù)。

01

相機定位

相機定位方面,最傳統(tǒng)經(jīng)典的方法是Colmap。該方法從圖像中提取特征并進行兩兩匹配,再通過增量式運動恢復(fù)結(jié)構(gòu)(SfM)得到相機位置。最終每張圖像對應(yīng)一個相機位置,并共同生成三維點云,形成經(jīng)典的三維重建流程。


然而,該流程目前面臨的挑戰(zhàn)在于圖像匹配。團隊發(fā)現(xiàn),傳統(tǒng)匹配方法在惡劣環(huán)境或視角差異較大的情況下效果不佳,會影響后續(xù)相機位姿估計的準確性。


針對這一問題,彭思達所在實驗室于2021年提出一種新方法:不再依賴傳統(tǒng)匹配方式,而是直接使用Transformer大模型進行圖像匹配。具體而言,將兩張圖像輸入LoFTR模型以提取稠密特征,這些特征之間即使在弱紋理區(qū)域也能實現(xiàn)良好的匹配。

但這個方法的問題是,多模態(tài)匹配很難,例如現(xiàn)實環(huán)境往往是黑夜白天交替、熱傳感跟可見光同時出現(xiàn),這種情況下兩兩無法匹配。所以我們要解決跨模態(tài)的問題,

去年團隊針對此問題提出了新的工作叫 MatchAnything,核心思路是用大量來源的數(shù)據(jù),和多模態(tài)預(yù)訓練框架去訓練 LoFTR 模型,成功實現(xiàn)了實現(xiàn)了紅外和可見光、事件和可見光、CT 和 MR 的匹配。這其中其實是工程數(shù)據(jù)問題,彭思達團隊整合了多種數(shù)據(jù)來源,一種是常見的多視角圖像,一種是大量的單目視頻。單目視頻要如何匹配?團隊使用了成熟的光流算法,將其一個個拼接起來,得到一個長時序的匹配關(guān)系。第三種數(shù)據(jù)來源是通過圖像變換,例如將單張圖片用傳統(tǒng)的圖像變換給 warp,就形成了一個稠密匹配。

前三種都是在同一個模態(tài)下,進一步增光匹配的數(shù)據(jù)訓練來源,還有一種是做跨模態(tài)數(shù)據(jù)生成。團隊通過對現(xiàn)有兩兩匹配中的一張圖片做跨域生成,比如將其變成熱傳感圖像、黑夜圖像、深度圖像,發(fā)現(xiàn)只做少量的三種模態(tài)就能實現(xiàn)任意跨模態(tài)能力。如此便可以實現(xiàn)即便衛(wèi)星圖像是夏天的,無人機在冬天工作也能匹配,以前是匹配不上的。

此外,跨模態(tài)數(shù)據(jù)生成還包括可見光跟雷達圖像,可見光跟矢量地圖,紅外跟可見光,匹配的情況增多,逐漸形成一個匹配的模型后,特別是應(yīng)用于遙感領(lǐng)域的無人機性能大大增強,同時應(yīng)用于自動駕駛領(lǐng)域也出現(xiàn)了不錯的效果。


據(jù)下圖所示:相比之前的方法,MatchAnything 匹配的成功概率有很大的躍升。


但 MatchAnything 面臨一個問題,即沒法融入已有的 SfM 算法,因為 MatchAnything 或者 LoFTR 模型的輸出匹配因圖片對不同而不同,導致無法建立多視圖匹配,因此沒法直接用在 SfM 算法中。

彭思達表示這是一個大問題,導致 MatchAnything 無法直接用于相機定位,為此他們又提出一個新的解決思路 Detector-free Sf,即先基于 MatchAnything 重建一種粗糙的模型,再做模型優(yōu)化。

具體做法是給兩張圖片做無特征檢測的圖像匹配,因為無法很好地形成多視角匹配,首先要做量化匹配把多張圖片的匹配關(guān)系連接起來,再去跑傳統(tǒng)的 SFM 算法。但圖片匹配關(guān)系被量化后,準確率降低,所以SFM 跑出來的結(jié)果不準。因此需要迭代式去優(yōu)化。

迭代式優(yōu)化的具體流程是先優(yōu)化多視角匹配,再優(yōu)化三維模型,根據(jù)下圖所示,優(yōu)化后就能看到最右邊的三維模型有一個更精密的點云以及更精細的三維位姿。


以下展示了上述方法跟之前最好的方法相比的效果,出現(xiàn)稠密點云和相機位置后,就可以做表面幾何重建。


同時,Detector-free SfM 面臨的問題跟所有傳統(tǒng)方法一樣,重建速度太慢了,一個模型迭代式優(yōu)化可能需要幾十個小時甚至一天,以至于對于那些對時間比較敏感的重建任務(wù)不太好用。

為了解決速度的問題,彭思達團隊進而進行了一項端到端的重建工作。已有的方法像 VGGT,這是今年 CVPR 的最佳論文,最大的突破是直接使用一個大型的大模型去回歸圖片的相機位置和深度,因為是網(wǎng)絡(luò)直出所以速度很快,比如一個場景傳統(tǒng)的相機位置估計方法可能需要十幾個小時,VGGT 只需要一兩秒,這是非常大的提升。


但 VGGT 最大的問題是沒法處理大規(guī)模場景,因為它是個大的網(wǎng)絡(luò),圖片越多網(wǎng)絡(luò)很容易就會爆顯存。處理上百張圖片勉強可以,但是 1000張肯定就不行了。

一個直觀的解決辦法將大場景進行分段預(yù)測。如果沒辦法一次性處理太多圖片,可以把大場景進行分段預(yù)測,分成很多 chunk,然后對每個 chunk 去估計相機位置。但這種情況下,由于每個 chunk 預(yù)測不夠精準,導致 chunk 之間難以拼接,兩兩連接效果并不好,最后會形成一個累積誤差,整個網(wǎng)絡(luò)會壞掉。

對此,彭思達團隊提出了一個新方法 Scal3R,該方法受人類的全局視野啟發(fā)——人有全局視野的情況下,對局部場景的幾何預(yù)測也有更一致的預(yù)測,所以 Scal3R 致力于賦予 VGGT 對目標場景的全局視野。

構(gòu)建全局視野的具體方法是使用網(wǎng)絡(luò)權(quán)重記錄每個 chunk 的內(nèi)容。具體實現(xiàn)的流程是先輸入 chunk 的一組圖片,直接更新到一個網(wǎng)絡(luò)權(quán)重里就能記錄這組 chunk 圖片內(nèi)容。在推理中如何實現(xiàn)呢?一個網(wǎng)絡(luò)模塊直接預(yù)測 KB,再拿這個 KB 去更新一個網(wǎng)絡(luò)權(quán)重,該網(wǎng)絡(luò)權(quán)重就記錄了該 chunk 的圖片內(nèi)容。

在線更新網(wǎng)絡(luò)權(quán)重作為場景的記憶,整個網(wǎng)絡(luò)就記錄了整個場景的記憶,有了記憶可以預(yù)測出每個 chunk 的顯性位置的點云,該點云也更具有全局一致性,因此拼接起來效果更好。


實驗結(jié)果如下:


跟其他方法相比的效果:



02

深度估計

深度估計是通用空間感知的關(guān)鍵組成部分。去年,彭思達團隊在提升深度估計能力方面取得了三項進展,其中之一是“Pixel-Perfect-Depth”思路。

具身智能需要深度估計,是因為準確的深度信息能提升機器人的決策性能。但現(xiàn)有方法普遍在物體邊緣存在“飛點”問題:判別式模型(如Depth Anything)傾向于預(yù)測“折中值”以最小化損失,從而導致飛點;生成式模型(如Marigold)雖能從理論上建模多峰深度分布,但因使用VAE進行壓縮,同樣會產(chǎn)生飛點。

團隊從生成式模型出發(fā),提出了 Pixel-Perfect-Depth 的解決思路:首先移除VAE,直接在像素空間進行優(yōu)化,以避免VAE帶來的信息損失,使得像素空間擴散避免了邊緣飛點。然而,沒有VAE后模型需要更全局的視野,因此他們將語言特征整合到DiT模型中,發(fā)現(xiàn)這能顯著增強模型深度估計能力。

根據(jù)下圖實驗結(jié)果顯示,Pixel-Perfect-Depth 方法能使模型達到很高的精細度估計,比如圖片中的葉子遠處的線都能有很好的估計效果。


還能較好地解決了飛點問題:


Pixel-Perfect-Depth 方法還能拓展提升視頻深度估計能力。相對于單張圖片輸入,常見的是視頻輸入,要對視頻深度估計,只需要在 Pixel-Perfect-Depth 上做兩個簡單的改進,首先是提取視頻的語義特征,得到特征以后注入到多視角的估計模型里;第二,視頻深度估計重要的是保持時序的連續(xù)性,通過 target tokens疊加reference tokens,提升時序一致性。

Pixel-Perfect-Depth 雖然能做好單張圖片和視頻深度估計,但做不好帶尺度的深度估計。而很多場景是帶尺度的,因為沒有尺度機器人就不好用。為了解決該問題,彭思達團隊從語言模型的 prompt 技術(shù)匯總獲得靈感,試圖探索為深度基礎(chǔ)模型設(shè)計提示詞機制,以提升其輸出絕對深度的準確性。

他們將雷達做誒深度感知的prompt喂給深度估計基礎(chǔ)模型,讓其產(chǎn)生絕對深度。



該算法 Prompt Depth Anything 不僅可以提升通用機器人抓取能力,抓取成功率超越Image及LiDAR作為輸入;還能應(yīng)用于自動駕駛重建;做三維掃描、前饋式三維高斯等等。

但 Prompt Depth Anything 仍然存在問題,要得到三維場景的深度估計一般通過反投影,但透視投影在相鄰視角看著還不錯,如果俯視、反投影得到的點云在遠處會產(chǎn)生裂痕。

對此彭思達團隊提出了一個叫 InfiniDepth 的解決思路,即不只是給每個像素估計深度值,還給每個次像素估計。具體做法是將已有DPT Head改為Implicit Decoder,就能得到一個完整的幾何,達到大范圍的視角渲染。這樣能提高模型精細度,例如能更好服務(wù)于機器人去抓取線纜的能力。


03

物體運動估計

將人類行為數(shù)據(jù)轉(zhuǎn)化為有效訓練數(shù)據(jù),是當前具身智能發(fā)展的關(guān)鍵。這需要獲取深度信息、相機運動以及人類行為語義軌跡,而語義軌跡的獲取又依賴于跟蹤。彭思達團隊去年的一個工作就跟三維跟蹤有關(guān)。

此前已有方法使用時序匹配進行跟蹤,例如Google的CoTracker:先初始化一組二維像素點,再利用Transformer迭代優(yōu)化這些點的軌跡。但該方法僅在二維層面進行跟蹤,容易因相鄰區(qū)域的干擾而丟失目標,效果受限。

彭思達團隊的思路是將二維圖像反投影至三維空間,做 3D tracking。具體做法是:輸入圖像并反投影至三維,獲得三維特征后,在三維空間中初始化一條三維軌跡,再利用Transformer對該軌跡進行優(yōu)化,從而實現(xiàn)更魯棒的跟蹤效果。該方法被命名為SpatialTracker。


其實驗結(jié)果顯示,模型有了更強的跟蹤能力:圖(1)中運動員踢球的速度很快,SpatialTracker 也能跟蹤地很好;圖(2)蝴蝶拍動翅膀時是有很強的空間遮擋,SpatialTracker 也能跟蹤地不錯。




未經(jīng)「AI科技評論」授權(quán),嚴禁以任何方式在網(wǎng)頁、論壇、社區(qū)進行轉(zhuǎn)載!

公眾號轉(zhuǎn)載請先在「AI科技評論」后臺留言取得授權(quán),轉(zhuǎn)載時需標注來源并插入本公眾號名片。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點推薦
特朗普“停戰(zhàn)”,還挺諷刺的

特朗普“停戰(zhàn)”,還挺諷刺的

中國新聞周刊
2026-03-10 22:22:09
深圳上線“政務(wù)龍蝦”,卻被發(fā)現(xiàn)政務(wù)系統(tǒng)還在用IE瀏覽器,網(wǎng)友擔心信息遭泄露

深圳上線“政務(wù)龍蝦”,卻被發(fā)現(xiàn)政務(wù)系統(tǒng)還在用IE瀏覽器,網(wǎng)友擔心信息遭泄露

小蘿卜絲
2026-03-10 17:33:28
曝伊朗女足已正式登機離開澳洲:多人落淚+反抗未果 有2人成功留下

曝伊朗女足已正式登機離開澳洲:多人落淚+反抗未果 有2人成功留下

風過鄉(xiāng)
2026-03-10 21:14:19
李斌談超快充和換電模式:超快再快不可能有換電快,超快充對電池壽命和安全性等有損害

李斌談超快充和換電模式:超快再快不可能有換電快,超快充對電池壽命和安全性等有損害

中國能源網(wǎng)
2026-03-10 11:33:11
火爆全網(wǎng)的“養(yǎng)龍蝦”,第一批受害者已出現(xiàn)!有人被AI燒掉數(shù)萬元

火爆全網(wǎng)的“養(yǎng)龍蝦”,第一批受害者已出現(xiàn)!有人被AI燒掉數(shù)萬元

派大星紀錄片
2026-03-10 11:13:04
難以置信!網(wǎng)傳一女子征婚,稱網(wǎng)貸欠200多萬,誰幫還債就嫁給誰

難以置信!網(wǎng)傳一女子征婚,稱網(wǎng)貸欠200多萬,誰幫還債就嫁給誰

火山詩話
2026-03-10 13:46:15
出售藍軍23.5億鎊去向爭議,英國政府下最后通牒,阿布抗爭近4年

出售藍軍23.5億鎊去向爭議,英國政府下最后通牒,阿布抗爭近4年

夏侯看英超
2026-03-11 01:34:41
北大醫(yī)學專家胡大一:睡覺,一個讓你延長生命的革命性新秘方

北大醫(yī)學專家胡大一:睡覺,一個讓你延長生命的革命性新秘方

新浪財經(jīng)
2026-03-10 00:31:51
給屁眼做美白,已經(jīng)成為歐美上流社會的肛需

給屁眼做美白,已經(jīng)成為歐美上流社會的肛需

beebee
2026-03-10 11:09:50
證據(jù)確鑿!導致伊朗小學165人喪生的那枚導彈不是“戰(zhàn)斧”

證據(jù)確鑿!導致伊朗小學165人喪生的那枚導彈不是“戰(zhàn)斧”

山間聽雨
2026-03-10 22:09:43
金與正發(fā)出警告:后果可怕,不堪設(shè)想!

金與正發(fā)出警告:后果可怕,不堪設(shè)想!

IN朝鮮
2026-03-10 16:38:48
伊朗南部3省宣布支持巴列維,川普與內(nèi)塔爆發(fā)口水戰(zhàn),欲打退堂鼓

伊朗南部3省宣布支持巴列維,川普與內(nèi)塔爆發(fā)口水戰(zhàn),欲打退堂鼓

史政先鋒
2026-03-10 21:00:09
中國游客不來了,日本政府大力歡迎印度游客!日本空姐崩潰:他們用完的廁所簡直是災(zāi)難!

中國游客不來了,日本政府大力歡迎印度游客!日本空姐崩潰:他們用完的廁所簡直是災(zāi)難!

東京新青年
2026-03-10 18:52:49
伊朗德黑蘭突降“黑雨”!有民眾呼吸困難 喉嚨刺痛

伊朗德黑蘭突降“黑雨”!有民眾呼吸困難 喉嚨刺痛

閃電新聞
2026-03-10 19:30:10
國家互聯(lián)網(wǎng)應(yīng)急中心發(fā)布OpenClaw安全應(yīng)用風險提示

國家互聯(lián)網(wǎng)應(yīng)急中心發(fā)布OpenClaw安全應(yīng)用風險提示

界面新聞
2026-03-10 19:29:53
不怕被報復(fù)?伊朗女足5人摘下頭巾!獲準留在澳洲 球員家人遭逮捕

不怕被報復(fù)?伊朗女足5人摘下頭巾!獲準留在澳洲 球員家人遭逮捕

念洲
2026-03-10 07:46:07
中國女足4-0戰(zhàn)勝對手,晉級四強

中國女足4-0戰(zhàn)勝對手,晉級四強

大嘴說臺球
2026-03-10 21:43:09
于東來公布公司40億資產(chǎn)利潤分配方案:胖東來12名店長共分2.4億,每人2000萬元

于東來公布公司40億資產(chǎn)利潤分配方案:胖東來12名店長共分2.4億,每人2000萬元

大象新聞
2026-03-10 14:46:05
這菜再貴也要吃,大量上市!通便排毒,殺菌消炎,提高免疫力

這菜再貴也要吃,大量上市!通便排毒,殺菌消炎,提高免疫力

阿龍美食記
2026-03-10 16:31:51
陳都靈太嫩了

陳都靈太嫩了

阿廢冷眼觀察所
2026-02-28 11:28:38
2026-03-11 02:47:01
AI科技評論 incentive-icons
AI科技評論
點評學術(shù),服務(wù)AI
7111文章數(shù) 20739關(guān)注度
往期回顧 全部

科技要聞

全民"養(yǎng)蝦"背后:大廠集體下場瘋狂賣Token

頭條要聞

伊朗新最高領(lǐng)袖在襲擊中受傷未公開發(fā)表講話 官方回應(yīng)

頭條要聞

伊朗新最高領(lǐng)袖在襲擊中受傷未公開發(fā)表講話 官方回應(yīng)

體育要聞

加蘭沒那么差,但鱸魚會用嗎?

娛樂要聞

《逐玉》注水風波升級!315評論區(qū)淪陷

財經(jīng)要聞

“龍蝦補貼”密集出爐 最高1000萬!

汽車要聞

MG4有SUV衍生 上汽乘用車多款新車規(guī)劃曝光

態(tài)度原創(chuàng)

房產(chǎn)
手機
家居
本地
公開課

房產(chǎn)要聞

信號!千億巨頭入局,三亞開啟新一輪大征拆!

手機要聞

M5 Max 版 16 英寸 MacBook Pro 體驗:算力巔峰與專業(yè)視界

家居要聞

自然肌理 溫度質(zhì)感婚房

本地新聞

云游中國|候鳥高顏值亮相!沉浸式打卡青海濕地

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關(guān)懷版