国产av一二三区|日本不卡动作网站|黄色天天久久影片|99草成人免费在线视频|AV三级片成人电影在线|成年人aV不卡免费播放|日韩无码成人一级片视频|人人看人人玩开心色AV|人妻系列在线观看|亚洲av无码一区二区三区在线播放

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

【技術(shù)】基于深度學(xué)習(xí)的遙感影像建筑物變化檢測(cè)方法

0
分享至

摘要:

在遙感影像建筑物變化檢測(cè)研究中,非相關(guān)目標(biāo)干擾和雙時(shí)相特征交互不足等問(wèn)題長(zhǎng)期制約著檢測(cè)精度的提升。為解決該技術(shù)難題,本文提出了一種基于深度學(xué)習(xí)的遙感影像建筑物變化檢測(cè)方法。該方法的核心在于多尺度特征融合機(jī)制的構(gòu)建,其結(jié)構(gòu)由3 個(gè)關(guān)鍵部分組成:用于多層次特征獲取的特征提取模塊、負(fù)責(zé)特征差異分析的計(jì)算模塊以及執(zhí)行特征重建的上采樣模塊。首先,設(shè)計(jì)了一種兼顧計(jì)算效率和模型簡(jiǎn)潔度的特征提取方案,在保持特征表征能力的同時(shí)優(yōu)化了計(jì)算資源的使用;其次,將時(shí)間維度特征交互與空間維度特征聚合相結(jié)合,形成時(shí)空特征協(xié)同機(jī)制,不僅降低了非相關(guān)目標(biāo)的影響,還促進(jìn)了雙時(shí)相特征的深度整合;最后,設(shè)計(jì)一種漸進(jìn)式多尺度差異特征掩膜上采樣技術(shù),提升變化區(qū)域的重建質(zhì)量。為評(píng)估方法的性能,研究選取了大規(guī)模地球視覺(jué)圖像變化識(shí)別建筑物變化檢測(cè)數(shù)據(jù)集(LEVIR-CD)和武漢大學(xué)變化檢測(cè)數(shù)據(jù)集(WHU-CD)兩個(gè)公開(kāi)基準(zhǔn)數(shù)據(jù)集進(jìn)行驗(yàn)證。結(jié)果表明,所提出的方法在LEVIR-CD 數(shù)據(jù)集的F1值達(dá)到了92.15%,在WHU-CD 數(shù)據(jù)集上達(dá)到了90.47%,均優(yōu)于現(xiàn)有主流方法,有力證實(shí)了該方法的價(jià)值和實(shí)際應(yīng)用前景。

關(guān)鍵詞:遙感影像;建筑物變化檢測(cè);多尺度特征融合;差異特征掩膜

引言

在城鄉(xiāng)空間構(gòu)成中,建筑物扮演著不可或缺的角色,是人類生活環(huán)境中的核心要素。為了有效監(jiān)測(cè)建筑物的動(dòng)態(tài)變化,對(duì)其進(jìn)行變化檢測(cè)是重要手段之一。隨著遙感技術(shù)的發(fā)展,影像數(shù)據(jù)在空間分辨率、光譜特征和時(shí)間維度等方面取得了顯著進(jìn)步,為地表覆蓋變化的精確監(jiān)測(cè)奠定了堅(jiān)實(shí)基礎(chǔ)[1-2]。從技術(shù)發(fā)展的脈絡(luò)來(lái)看,傳統(tǒng)變化檢測(cè)方法包括基于像素和對(duì)象的分析方法[3-4]。前者雖然具有算法實(shí)現(xiàn)簡(jiǎn)便的優(yōu)勢(shì),但其逐像素運(yùn)算模式不僅計(jì)算效率低下,而且檢測(cè)結(jié)果中常出現(xiàn)離散噪聲點(diǎn),制約了識(shí)別準(zhǔn)確度的提高。相較而言,后者以影像分割后的對(duì)象為基本處理單元,能夠充分挖掘影像的上下文信息,有效降低了由單一像素光譜變異導(dǎo)致的誤判風(fēng)險(xiǎn)。但這種方法的檢測(cè)效果與圖像分割質(zhì)量密切相關(guān),當(dāng)面對(duì)建筑物等具有復(fù)雜結(jié)構(gòu)的場(chǎng)景時(shí),其應(yīng)用性能往往會(huì)受到一定制約。

隨著人工智能技術(shù)的發(fā)展,深度學(xué)習(xí)在自動(dòng)化數(shù)據(jù)處理領(lǐng)域取得了突破性進(jìn)展,特別是在降低人工標(biāo)注成本和提升學(xué)習(xí)效率方面表現(xiàn)出色[5-6]。在遙感變化檢測(cè)領(lǐng)域,文獻(xiàn)[7]提出了一種網(wǎng)絡(luò)架構(gòu),該架構(gòu)充分利用了時(shí)序影像間的關(guān)聯(lián)特性,設(shè)計(jì)出具有權(quán)重共享機(jī)制的雙分支網(wǎng)絡(luò)模型。這種基于卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)不僅確保了特征提取的有效性,還通過(guò)參數(shù)共享機(jī)制顯著降低了計(jì)算復(fù)雜度,從而提高了模型訓(xùn)練效率。針對(duì)遙感影像中復(fù)雜背景等難題,文獻(xiàn)[8]提出一種基于變換器(Transformer)技術(shù)的解決方法,該方法通過(guò)對(duì)時(shí)間序列影像執(zhí)行語(yǔ)義分割操作,旨在生成差異特征圖;文獻(xiàn)[9]將視覺(jué)幾何群16 層網(wǎng)絡(luò)(visual geometry group 16,VGG16)深度網(wǎng)絡(luò)組件整合進(jìn)處理流程,顯著提升了時(shí)序影像在細(xì)節(jié)特征提取中的能力。當(dāng)前,在變化檢測(cè)研究領(lǐng)域,研究者正面臨若干亟待解決的關(guān)鍵問(wèn)題,主要包括雙時(shí)態(tài)特征提取過(guò)程復(fù)雜、特征交互受限以及非目標(biāo)對(duì)象干擾等。為應(yīng)對(duì)這些挑戰(zhàn),本文設(shè)計(jì)了一種基于類U型網(wǎng)絡(luò)(U shape network,U-Net)框架的多尺度特征融合方法,重點(diǎn)解決建筑物變化檢測(cè)問(wèn)題,并為檢測(cè)流程的各個(gè)環(huán)節(jié)提供解決方法。在特征提取環(huán)節(jié),采用經(jīng)過(guò)預(yù)訓(xùn)練的移動(dòng)翻轉(zhuǎn)瓶頸卷積(mobile inverted bottleneck convolution,MBConv)模塊作為基礎(chǔ)單元,該設(shè)計(jì)顯著提升了特征提取效能并降低了計(jì)算成本。在差異特征提取方面,結(jié)合了分組卷積(group convolution,GConv)和通道混洗(channel shuffle,CS),通過(guò)時(shí)間注意力機(jī)制的引入,有效增強(qiáng)了真實(shí)差異特征的識(shí)別精度。為了更有效地削弱非目標(biāo)元素的干擾,通過(guò)引入十字交叉注意力機(jī)制(criss-cross attention,CCA),從而保證了全局上下文信息的緊密連接。在特征提升階段,通過(guò)構(gòu)建特征掩碼并與原始輸入特征進(jìn)行逐級(jí)融合,最終借助解碼器完成分類,并輸出檢測(cè)結(jié)果[10]。為驗(yàn)證所提模型及各模塊的有效性,本文設(shè)計(jì)并實(shí)施對(duì)比實(shí)驗(yàn)和消融實(shí)驗(yàn),同時(shí)結(jié)合模型可視化技術(shù)進(jìn)行了深入分析與討論。

模型結(jié)構(gòu)與方法

01

基準(zhǔn)模型


孿生式U 形網(wǎng)絡(luò)(SiamUnet)特征在于采用雙分支編碼器-解碼器結(jié)構(gòu),并實(shí)現(xiàn)了對(duì)稱參數(shù)共享機(jī)制[11]。首先,利用特征提取模塊提取初步特征;其次,通過(guò)下采樣模塊,特征逐漸由局部細(xì)節(jié)擴(kuò)展至全局結(jié)構(gòu),實(shí)現(xiàn)了特征維度的提升;再次,這些分階段獲取的雙時(shí)態(tài)特征被傳遞至解碼器,以精確區(qū)分兩者間的微小差異;最后,利用上采樣模塊將差異信息從微觀層面整合至宏觀層面,得到最終的變化檢測(cè)結(jié)果[12-13]。

02

本文方法


本文提出的變化檢測(cè)算法包含了差異特征提取、模型訓(xùn)練及結(jié)果評(píng)價(jià),技術(shù)路線如圖1所示。


圖1 本文技術(shù)路線

SiamUnet 在編碼階段對(duì)復(fù)雜語(yǔ)義分割模型的過(guò)度應(yīng)用,造成計(jì)算資源浪費(fèi),同時(shí)在解碼階段引入復(fù)雜差異特征提取模塊,導(dǎo)致模型結(jié)構(gòu)復(fù)雜化[14]。因此,本文對(duì)SiamUnet 架構(gòu)進(jìn)行重構(gòu),將其劃分為雙時(shí)態(tài)特征提取、差異特征分析及解碼器三大核心模塊。

圖2 直觀地展示了該網(wǎng)絡(luò)的運(yùn)行步驟,首要操作是利用移動(dòng)翻轉(zhuǎn)瓶頸卷積技術(shù),從雙時(shí)態(tài)影像數(shù)據(jù)中提取多尺度特征信息。為了增強(qiáng)差異特征的辨識(shí)力,專門設(shè)計(jì)一個(gè)模塊來(lái)加深雙時(shí)態(tài)特征間的關(guān)聯(lián)性,并融合了空間特征聚合(spatial fusion,SF)模塊,以提升目標(biāo)識(shí)別的精確度。在上采樣階段,根據(jù)最高維度特征,逐步融合各階段的差異特征,實(shí)現(xiàn)了從全局到局部的多層次差異特征提取。


圖2 本文模型網(wǎng)絡(luò)結(jié)構(gòu)

2.1 特征提取模塊

在深度學(xué)習(xí)領(lǐng)域,VGG16 和Transformer 等預(yù)訓(xùn)練模型因其出色的特征提取能力而得到廣泛應(yīng)用。這類模型通常采用增加網(wǎng)絡(luò)層級(jí)和擴(kuò)展通道數(shù)量的方式提升性能表現(xiàn)[15]。然而,研究揭示了網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)中的一個(gè)關(guān)鍵現(xiàn)象:當(dāng)網(wǎng)絡(luò)在深度或?qū)挾热我痪S度持續(xù)擴(kuò)展時(shí),其性能增益呈現(xiàn)邊際遞減效應(yīng),因此提出高效網(wǎng)絡(luò)(EfficientNet)結(jié)構(gòu),該架構(gòu)在模型復(fù)雜度與性能表現(xiàn)之間實(shí)現(xiàn)了優(yōu)化平衡。

2.2 差異特征生成模塊

本文構(gòu)建的差異特征生成模塊包含3個(gè)關(guān)鍵環(huán)節(jié)。

1)雙時(shí)態(tài)語(yǔ)義差異引導(dǎo)。考慮變化檢測(cè)任務(wù)與圖像語(yǔ)義分割任務(wù)的差異,特別關(guān)注從不同時(shí)相影像中有效抽取差異目標(biāo)的語(yǔ)義信息。為此,設(shè)計(jì)一種基于自注意力機(jī)制的雙時(shí)態(tài)關(guān)聯(lián)模塊,該模塊能夠顯著提高雙時(shí)態(tài)影像在語(yǔ)義差異層面的交互能力,確保時(shí)間維度上的差異信息能夠準(zhǔn)確傳遞。

在特征提取階段,首先從原始數(shù)據(jù)中獲取兩個(gè)時(shí)態(tài)特征和,并將其整合至輸入特征值V中。為構(gòu)建關(guān)鍵特征表示,采用平均池化方法對(duì)和進(jìn)行融合處理,所得結(jié)果與權(quán)重矩陣Wk進(jìn)行矩陣運(yùn)算,從而生成關(guān)鍵字K,同時(shí),分別對(duì)和實(shí)施平均池化操作。其次通過(guò)權(quán)重矩陣和的線性變換,得到對(duì)應(yīng)的查詢向量Q1和Q2。為了提升特征的表達(dá)能力,引入基于多層感知器(multilayer perceptron,MLP)的自注意力機(jī)制評(píng)估通道間的相關(guān)性,并將這些相關(guān)性權(quán)重與輸入特征的對(duì)應(yīng)通道進(jìn)行逐通道乘法運(yùn)算。最后獲得優(yōu)化后的雙時(shí)態(tài)特征和,計(jì)算公式為


式中,C1、C2均為通道權(quán)重向量。

2)雙時(shí)態(tài)特征融合。針對(duì)雙時(shí)態(tài)特征在差異提取前的相互獨(dú)立難題,本文提出了一種雙時(shí)態(tài)特征融合模塊,其核心在于實(shí)現(xiàn)特征的高效與精確整合,從而提升差異信息的提取能力。此模塊融合了改良的分組卷積和混洗模塊,盡管分組卷積通過(guò)分割通道提升了計(jì)算速度,但也可能導(dǎo)致特征間聯(lián)系減弱。為解決這一問(wèn)題,引入通道混洗策略,它在減少模型參數(shù)和計(jì)算量的同時(shí),確保了特征的高質(zhì)量表達(dá)。在實(shí)際操作中,首先根據(jù)時(shí)態(tài)信息對(duì)通道執(zhí)行分組卷積,然后通過(guò)通道混洗對(duì)特征進(jìn)行重組,以獲得融合的特征。這兩種卷積操作的計(jì)算公式為


式中,flops1 為分組卷積操作1;flops2 為分組卷積操作2;H1、W1分別為高度、寬度;C1為分組卷積操作1 通道數(shù);C2為分組卷積操作2 通道數(shù);k 為卷積核大小。通過(guò)對(duì)式(1)、式(2)對(duì)比分析可以發(fā)現(xiàn),在相同輸入輸出條件下,傳統(tǒng)卷積的計(jì)算量是分組卷積的兩倍。本模塊采用3層級(jí)聯(lián)的分組卷積結(jié)構(gòu),并通過(guò)通道混洗實(shí)現(xiàn)特征連接,從而實(shí)現(xiàn)了特征的高效融合。

3)空間特征聚合。針對(duì)雙時(shí)態(tài)特征中存在的冗余信息問(wèn)題,建立高效的空間特征交互機(jī)制對(duì)提高目標(biāo)檢測(cè)精度尤為重要[16]。本文設(shè)計(jì)一種基于十字交叉注意力機(jī)制的特征融合方法,該機(jī)制依據(jù)距離度量準(zhǔn)則,在水平和垂直方向構(gòu)建十字形信息通道,實(shí)現(xiàn)了特征的高效整合??臻g特征聚合模塊由雙層十字交叉注意力結(jié)構(gòu)組成。與傳統(tǒng)方法需要逐像素建立全局關(guān)聯(lián)不同,本方法僅通過(guò)兩次十字交叉操作即可為每個(gè)像素構(gòu)建完整的空間關(guān)聯(lián)網(wǎng)絡(luò),在保證計(jì)算效率的同時(shí)顯著提升了特征融合效果。

2.3 上采樣模塊

在模型設(shè)計(jì)上,本文設(shè)計(jì)一個(gè)輕量級(jí)上采樣模塊,該模塊接收特征數(shù)據(jù)后,首先,利用3×3 卷積將特征圖尺寸擴(kuò)大一倍,并進(jìn)行批量歸一化處理;其次,通過(guò)1×1 卷積的逐點(diǎn)操作,將通道數(shù)減半,對(duì)處理后的特征與差異特征掩碼進(jìn)行逐點(diǎn)相乘操作;最后,上采樣后的特征被遞送給分類器,以產(chǎn)生最終的檢測(cè)結(jié)果。該設(shè)計(jì)在維持檢測(cè)性能的同時(shí),顯著降低了參數(shù)數(shù)量和計(jì)算負(fù)荷。

實(shí)驗(yàn)與設(shè)計(jì)

01

實(shí)驗(yàn)數(shù)據(jù)及預(yù)處理


本研究選取LEVIR-CD 和WHU-CD 兩個(gè)公開(kāi)數(shù)據(jù)集進(jìn)行驗(yàn)證,以評(píng)估所提方法在建筑物變化檢測(cè)中的性能,其中,LEVIR-CD 數(shù)據(jù)集包含637 組RGB 影像,空間分辨率為0.5 m,單幅影像尺寸為1 024×1 024像素??紤]計(jì)算效率,將原始影像裁剪為16 個(gè)256×256 像素的子圖像。按照標(biāo)準(zhǔn)實(shí)驗(yàn)設(shè)置,將7 120 對(duì)子圖像(占總樣本70%)用于訓(xùn)練,1 024對(duì)(10%)用于驗(yàn)證,2 048對(duì)(20%)用于測(cè)試。

WHU-CD數(shù)據(jù)集包含一對(duì)高分辨率多光譜影像,涵蓋紅、綠、藍(lán)三個(gè)波段,空間分辨率為0.2 m,影像尺寸為32 507×15 354 像素。原始影像被裁剪為512×512像素的子圖像,共包含1 260對(duì)訓(xùn)練樣本和690 對(duì)測(cè)試樣本。此外,每幅512×512 像素圖像被進(jìn)一步劃分為4 個(gè)無(wú)重疊的256×256 像素子區(qū)域。同時(shí),隨機(jī)從訓(xùn)練集中抽取了10%的樣本構(gòu)建驗(yàn)證集。經(jīng)過(guò)上述處理,最終得到了一個(gè)包含4 536對(duì)訓(xùn)練樣本、504對(duì)驗(yàn)證樣本和2 760對(duì)測(cè)試樣本的數(shù)據(jù)集。

02

實(shí)驗(yàn)參數(shù)


實(shí)驗(yàn)均在PyTorch 框架下完成,具體實(shí)驗(yàn)參數(shù)如表1所示。

表1 參數(shù)設(shè)置


在優(yōu)化模型的過(guò)程中,本研究選用交叉熵?fù)p失函數(shù)(cross entropy,CE)作為評(píng)估指標(biāo),表示為[17]


式中,L()為交叉熵?fù)p失函數(shù);G為實(shí)際變化區(qū)域;為模型預(yù)測(cè)區(qū)域;Gi為實(shí)際變化結(jié)果;?為預(yù)測(cè)變化結(jié)果;N為預(yù)測(cè)像元數(shù)量。

03

評(píng)價(jià)指標(biāo)


為全面評(píng)估模型性能,本文采用4 項(xiàng)核心指標(biāo):精確度P、召回率R、F1值和交并比(intersection over union,IoU)UIo。分別表示為[18]


式中,TP、FP分別為正確劃分、錯(cuò)誤劃分的變化像素?cái)?shù)量;FN為錯(cuò)誤劃分的未變化像素?cái)?shù)量。

04

對(duì)比模型


為評(píng)估模型性能,本研究選取了4 種網(wǎng)絡(luò)模型進(jìn)行對(duì)比分析[19-20]。

1)全卷積早期融合(fully convolutional early fusion,F(xiàn)C-EF)模型。該模型采用早期融合策略,將雙時(shí)相影像融合后輸入U(xiǎn)-Net 的編碼器-解碼器結(jié)構(gòu)進(jìn)行處理。

2)時(shí)空注意力神經(jīng)網(wǎng)絡(luò)(spatial-temporal attention neural network,STANet)模型。該模型結(jié)合度量學(xué)習(xí),利用孿生全卷積網(wǎng)絡(luò)優(yōu)化特征提取。

3)智能融合網(wǎng)絡(luò)(intelligent fusion network,IFN)模型。該模型整合多源遙感影像信息,增強(qiáng)圖像分析的準(zhǔn)確性和細(xì)節(jié)表現(xiàn)。

4)大遷移(big transfer,BiT)模型。該模型通過(guò)深度監(jiān)督機(jī)制有效提升變化檢測(cè)的精度和魯棒性。

結(jié)果分析

01

定量分析


根據(jù)表2 和表3 的量化結(jié)果,本文提出的方法在LEVIR-CD 數(shù)據(jù)集上展現(xiàn)了出色的性能,F(xiàn)1值和IoU 指標(biāo)分別達(dá)到了91.15%和83.66%。與FC-EF、STANet、IFN 和BiT 模型進(jìn)行對(duì)比分析,F(xiàn)1值分別取得了7.64%、3.78%、1.51%和0.89%的提升。在WHU-CD 數(shù)據(jù)集上,其F1值和IoU 分別達(dá)到了89.47%和81.88%,優(yōu)于對(duì)比模型。實(shí)驗(yàn)結(jié)果表明,本文方法在2 個(gè)數(shù)據(jù)集上均取得了最優(yōu)性能。IFN 模型雖具有較高的精確度,但其召回率偏低;STANet 模型的召回率雖略高,但精確度不足。相比之下,本文方法在精確度和召回率之間實(shí)現(xiàn)了更好的平衡,獲得了最高的F1值。在對(duì)比模型中,基于Transformer 的BiT 模型表現(xiàn)較好,而FC-EF模型的整體性能相對(duì)較弱。

表2 LEVIR-CD數(shù)據(jù)集檢測(cè)精度


表3 WHU-CD數(shù)據(jù)集檢測(cè)精度


02

定性分析


圖3 為L(zhǎng)EVIR-CD 數(shù)集的檢測(cè)結(jié)果,圖4 為WHU-CD 數(shù)據(jù)集的檢測(cè)結(jié)果。分析圖3 和圖4 發(fā)現(xiàn):在建筑物變化檢測(cè)任務(wù)中,本文提出方法表現(xiàn)出色,檢測(cè)結(jié)果與真實(shí)情況高度一致,能夠精確繪制建筑物邊界,顯著降低誤檢和漏檢率。


圖3 LEVIR-CD數(shù)據(jù)集檢測(cè)結(jié)果


圖4 WHU-CD數(shù)據(jù)集檢測(cè)結(jié)果

FC-EF 模型檢測(cè)性能存在顯著不足,易受偽變化因素的干擾,頻繁引發(fā)誤報(bào)和漏報(bào)。STANet和IFN 模型由于視野范圍的限制,難以精確識(shí)別建筑物的細(xì)微變化特征。盡管BiT 模型在檢測(cè)性能方面與本文方法相當(dāng),但其上采樣過(guò)程中的特征圖尺寸縮減導(dǎo)致了中低層細(xì)節(jié)信息的丟失。綜上所述,本文提出的方法能夠準(zhǔn)確預(yù)測(cè)建筑物在不同尺寸的變化,成功解決了大尺寸建筑物檢測(cè)中的碎片化與不完整性挑戰(zhàn)。在檢測(cè)精確度和輪廓細(xì)節(jié)的表達(dá)上,本文方法相較于其他對(duì)比方法表現(xiàn)出明顯的優(yōu)越性。

03

消融實(shí)驗(yàn)


為系統(tǒng)評(píng)估特征提取模塊、差異特征生成模塊、上采樣模塊對(duì)網(wǎng)絡(luò)性能的影響機(jī)制,基于LEVIR-CD 數(shù)據(jù)集,設(shè)計(jì)5 組對(duì)照實(shí)驗(yàn),實(shí)驗(yàn)設(shè)計(jì)中,“×”標(biāo)記表示禁用相應(yīng)模塊,“√”標(biāo)記則表示啟用該模塊。同時(shí),為建立可靠的性能參照系,本文構(gòu)建了一個(gè)未包含上述3 個(gè)模塊的基礎(chǔ)網(wǎng)絡(luò)(SiamUnet),實(shí)驗(yàn)結(jié)果如表4 所示。

表4 消融實(shí)驗(yàn)定量結(jié)果


實(shí)驗(yàn)數(shù)據(jù)表明,特征提取模塊、差異特征生成模塊、上采樣模塊的引入均顯著提升了SiamUnet 的性能。當(dāng)任意模塊被移除時(shí),模型的檢測(cè)精度均出現(xiàn)不同程度的下降。需要注意的是,由于SiamUnet未包含上述3個(gè)模塊,其精度指標(biāo)明顯低于其他實(shí)驗(yàn)組,該結(jié)果有力證實(shí)了這些模塊對(duì)模型性能提升的重要貢獻(xiàn)。

深入分析消融實(shí)驗(yàn)結(jié)果發(fā)現(xiàn),差異特征生成模塊的缺失對(duì)模型性能影響最為顯著,導(dǎo)致F1值和IoU 值分別下降1.19%和1.98%。這一現(xiàn)象凸顯了差異特征生成模塊在模型中的核心作用,其通過(guò)促進(jìn)雙時(shí)態(tài)影像間真實(shí)差異部分的提取,顯著提升了不同尺度建筑物的變化檢測(cè)精度。特征提取模塊的移除則使F1值和IoU 值分別降低1.14%和1.90%,其影響程度僅次于差異特征生成模塊,表明特征提取模塊通過(guò)預(yù)訓(xùn)練的移動(dòng)翻轉(zhuǎn)瓶頸卷積模塊,對(duì)變化檢測(cè)效果的優(yōu)化具有重要作用。上采樣模塊的移除導(dǎo)致F1值和IoU值分別下降0.46%和0.76%,雖然影響相對(duì)較小,但仍證實(shí)了該模塊在提升特征提取效果的價(jià)值。實(shí)驗(yàn)結(jié)果表明,3 個(gè)模塊在提升建筑物變化檢測(cè)性能方面均發(fā)揮著重要作用,為后續(xù)網(wǎng)絡(luò)優(yōu)化提供了重要的理論依據(jù)和實(shí)踐指導(dǎo)。

結(jié)束語(yǔ)

針對(duì)深度學(xué)習(xí)在遙感影像建筑物變化檢測(cè)任務(wù)中存在的復(fù)雜難題,本文提出一種變化檢測(cè)模型。為驗(yàn)證模型性能,研究選取了兩個(gè)公開(kāi)的遙感數(shù)據(jù)集進(jìn)行系統(tǒng)性實(shí)驗(yàn)評(píng)估。實(shí)驗(yàn)結(jié)果表明,相較于現(xiàn)有模型,本文方法在建筑物變化區(qū)域的識(shí)別精度和定位準(zhǔn)確性方面均取得了顯著突破,尤其在應(yīng)對(duì)復(fù)雜多變的實(shí)際場(chǎng)景以及處理多尺度建筑物變化檢測(cè)任務(wù)時(shí)表現(xiàn)出優(yōu)異的性能。通過(guò)消融實(shí)驗(yàn)的定量分析,進(jìn)一步驗(yàn)證了模型各功能模塊的有效性?;诋?dāng)前研究成果,后續(xù)研究將著重探索更優(yōu)化的模型結(jié)構(gòu)設(shè)計(jì),以持續(xù)提升模型的實(shí)際應(yīng)用價(jià)值和技術(shù)潛力。

來(lái)源:北京測(cè)繪雜志社

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關(guān)推薦
熱點(diǎn)推薦
中超一場(chǎng)2-0,讓邵佳一發(fā)現(xiàn)了新門神:比李昊年輕3歲!6輪4場(chǎng)零封

中超一場(chǎng)2-0,讓邵佳一發(fā)現(xiàn)了新門神:比李昊年輕3歲!6輪4場(chǎng)零封

球場(chǎng)沒(méi)跑道
2026-04-18 09:52:51
調(diào)查發(fā)現(xiàn):每天都走路的人,大多到了75歲后,身體或有5種變化

調(diào)查發(fā)現(xiàn):每天都走路的人,大多到了75歲后,身體或有5種變化

白話電影院
2026-04-07 13:28:35
淪為共享單車的女色虎

淪為共享單車的女色虎

深度報(bào)
2026-03-05 22:39:27
許家印昔日辦公室內(nèi)景曝光,房間一個(gè)接著一個(gè)很奢華,像迷宮一樣

許家印昔日辦公室內(nèi)景曝光,房間一個(gè)接著一個(gè)很奢華,像迷宮一樣

娛樂(lè)團(tuán)長(zhǎng)
2026-04-16 20:26:02
澳大利亞前總理:美國(guó)扮演國(guó)際秩序的“破壞者”是有意為之

澳大利亞前總理:美國(guó)扮演國(guó)際秩序的“破壞者”是有意為之

北青網(wǎng)-北京青年報(bào)
2026-04-18 17:04:03
韓國(guó)主裁已24年無(wú)緣世界杯 韓媒:將代表亞洲執(zhí)法的馬寧遭猛批

韓國(guó)主裁已24年無(wú)緣世界杯 韓媒:將代表亞洲執(zhí)法的馬寧遭猛批

冷桂零落
2026-04-19 10:35:03
賠了夫人又折兵!以為能“毀掉”全紅嬋,不料自己先被扒個(gè)底朝天

賠了夫人又折兵!以為能“毀掉”全紅嬋,不料自己先被扒個(gè)底朝天

樂(lè)享人生風(fēng)雨
2026-04-15 20:41:09
賀平和鄧榕談戀愛(ài)后,賀彪囑咐道:你是男孩子,一定要多照顧她

賀平和鄧榕談戀愛(ài)后,賀彪囑咐道:你是男孩子,一定要多照顧她

梅子就是我
2024-06-15 21:47:53
伊朗議長(zhǎng):對(duì)美不信任仍未完全化解 敦促美方對(duì)等履約

伊朗議長(zhǎng):對(duì)美不信任仍未完全化解 敦促美方對(duì)等履約

新華社
2026-04-19 10:38:02
同名同姓同身份證尾號(hào),山東一女子稱被異地法院錯(cuò)判,萬(wàn)元存款被強(qiáng)制執(zhí)行,損失3年利息

同名同姓同身份證尾號(hào),山東一女子稱被異地法院錯(cuò)判,萬(wàn)元存款被強(qiáng)制執(zhí)行,損失3年利息

封面新聞
2026-04-18 16:24:02
“保姆縱火案”8年后,再婚得子的林生斌現(xiàn)狀曝光,反噬終于來(lái)了

“保姆縱火案”8年后,再婚得子的林生斌現(xiàn)狀曝光,反噬終于來(lái)了

姩姩有娛
2025-10-10 19:01:25
贏球挨罵!曼聯(lián) 1-0 險(xiǎn)勝切爾西,隊(duì)內(nèi)兩大巨星徹底拉胯拖后腿

贏球挨罵!曼聯(lián) 1-0 險(xiǎn)勝切爾西,隊(duì)內(nèi)兩大巨星徹底拉胯拖后腿

奶蓋熊本熊
2026-04-19 05:15:13
離譜!iPhone 忠誠(chéng)度飆到 96.4%,創(chuàng)歷史新高

離譜!iPhone 忠誠(chéng)度飆到 96.4%,創(chuàng)歷史新高

新浪財(cái)經(jīng)
2026-04-18 18:47:00
一張“職高女生氛圍照”火了,被全網(wǎng)嘲笑:別給學(xué)不明白找借口了

一張“職高女生氛圍照”火了,被全網(wǎng)嘲笑:別給學(xué)不明白找借口了

世界圈
2026-04-07 13:11:51
現(xiàn)場(chǎng)開(kāi)炮!波蘭議員當(dāng)眾嘲諷以色列:看好了,你們國(guó)旗長(zhǎng)這樣才對(duì)

現(xiàn)場(chǎng)開(kāi)炮!波蘭議員當(dāng)眾嘲諷以色列:看好了,你們國(guó)旗長(zhǎng)這樣才對(duì)

諦聽(tīng)骨語(yǔ)本尊
2026-04-15 18:13:09
美國(guó)悔得腸子都青了,開(kāi)戰(zhàn)前美國(guó)還是世界霸主,現(xiàn)在地位不保了

美國(guó)悔得腸子都青了,開(kāi)戰(zhàn)前美國(guó)還是世界霸主,現(xiàn)在地位不保了

古史青云啊
2026-04-18 11:40:34
浙大調(diào)查422名肺癌逝者,意外發(fā)現(xiàn):得肺癌的人,大多有這幾共同

浙大調(diào)查422名肺癌逝者,意外發(fā)現(xiàn):得肺癌的人,大多有這幾共同

荷蘭豆愛(ài)健康
2026-04-19 06:54:49
美軍都沒(méi)敢做的事,日艦獨(dú)走穿航臺(tái)灣海峽,解放軍當(dāng)場(chǎng)懲治日本人

美軍都沒(méi)敢做的事,日艦獨(dú)走穿航臺(tái)灣海峽,解放軍當(dāng)場(chǎng)懲治日本人

星星會(huì)墜落
2026-04-18 18:38:26
專家呼吁:馬上停用5種調(diào)味醬,它是腸癌催化劑!再下飯也別沾

專家呼吁:馬上停用5種調(diào)味醬,它是腸癌催化劑!再下飯也別沾

路醫(yī)生健康科普
2026-04-18 16:18:55
日本步步緊逼,誓與中國(guó)一戰(zhàn)?這次必須讓日本疼到骨子里!

日本步步緊逼,誓與中國(guó)一戰(zhàn)?這次必須讓日本疼到骨子里!

看盡人間百態(tài)
2026-04-19 03:49:58
2026-04-19 11:07:00
測(cè)繪之家 incentive-icons
測(cè)繪之家
有測(cè)繪的地方,就有測(cè)繪之家!
6768文章數(shù) 3571關(guān)注度
往期回顧 全部

科技要聞

50分26秒!榮耀獲得人形機(jī)器人半馬冠軍

頭條要聞

牛彈琴:伊朗遭到特朗普"羞辱"被激怒 結(jié)果印度遭了殃

頭條要聞

牛彈琴:伊朗遭到特朗普"羞辱"被激怒 結(jié)果印度遭了殃

體育要聞

掘金擒狼開(kāi)門紅:五花肉與小辣椒

娛樂(lè)要聞

劉德華回應(yīng)潘宏彬去世,拒談喪禮細(xì)節(jié)

財(cái)經(jīng)要聞

華誼兄弟,8年虧光85億

汽車要聞

29分鐘大定破萬(wàn) 極氪8X為什么這么多人買?

態(tài)度原創(chuàng)

手機(jī)
藝術(shù)
旅游
家居
房產(chǎn)

手機(jī)要聞

蘋果調(diào)整App Store更新入口位置,網(wǎng)頁(yè)端新增外區(qū)訪問(wèn)限制!

藝術(shù)要聞

鄭麗文大陸之行引發(fā)熱議,孫中山贈(zèng)對(duì)聯(lián)成焦點(diǎn)!

旅游要聞

太原直飛莫斯科旅游包機(jī)復(fù)航

家居要聞

法式線條 時(shí)光靜淌

房產(chǎn)要聞

官宣簽約最強(qiáng)城更!??跇鞘校蝗粴⑷肷衩胤科?!

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版