AeroDeshadow: Physics-Guided Shadow Synthesis and Penumbra-Aware Deshadowing for Aerospace Imagery

Wei Lu, Zi-Yang Bo, Fei-Fei Sang, Yi Liu, Xue Yang, et al.

View Original ↗
AI 導讀 technology AI 重要性 4/5

AeroDeshadow 提出雙流網路架構與物理引導合成技術,以 2,260 組全新合成資料集突破航空影像去陰影的技術瓶頸。

  • 建構包含 2,260 組合成資料的 AeroDS-Syn,透過物理光照衰減模型解決配對訓練資料短缺問題。
  • PCDS-Net 揚棄單一均質陰影假設,將特徵明確解耦為本影與半影雙流架構進行漸進式修復。
  • 在真實世界 AeroDS-Real 測試集中,無需重新標註即可展現優異的跨網域泛化與色彩保真度。

在處理高解析度航空與衛星影像時,陰影去除始終是個棘手的挑戰。現有的深度學習模型在自然影像上表現優異,但直接套用於航空影像時,卻常導致邊緣模糊或色彩失真。為了解決這個問題,安徽大學與上海交通大學的研究團隊提出了 AeroDeshadow 框架,透過物理法則引導的生成模型,成功建構出包含 2,260 組配對資料的合成資料集,並在無須真實標註的情況下,達成了業界最先進的去陰影效果。

傳統 GAN 在高解析度航空影像面臨的配對資料匱乏

航空與衛星影像(ASI)廣泛應用於城市規劃與災害監測,但地物或雲層造成的陰影常導致光譜失真與紋理遺失。儘管 GAN(生成對抗網路)與擴散模型已在自然影像的去陰影任務取得突破,直接將這些技術轉移至航空領域卻面臨嚴峻挑戰。首要問題在於「嚴格配對資料」的極度缺乏。受限於衛星重訪週期與天氣變化,幾乎不可能在完全相同的光照與環境下,同時拍攝到有陰影與無陰影的清晰對照圖。

現有嘗試多半利用無人機重新拍攝或透過虛擬場景渲染來獲取配對數據,但這些方法難以維持一致的光照條件,且虛擬場景與真實航空影像之間存在巨大的網域鴻溝(domain gap)。另一方面,無監督或半監督學習雖然降低了對配對資料的依賴,但在缺乏明確像素級監督的情況下,模型往往無法精準還原複雜的紋理與細微的地貌結構。

單一均質假設無法處理航空影像的半影漸變特徵

另一個更核心的物理限制,在於航空影像中獨特的陰影結構。有別於自然界常見的銳利邊緣,高空影像經歷長距離光線傳播與大氣散射,陰影通常包含極暗的「本影(umbra)」以及寬廣漸變的「半影(penumbra)」過渡區。現有演算法多半將陰影視為二值化的單一均質區域(homogeneous region),套用統一的硬性遮罩邏輯進行修復。

這種一視同仁的作法極易導致本影區被過度曝光,或者半影區的光照修復不足。最終的結果就是在影像的陰影邊界處,留下明顯的色彩斷層與人造瑕疵(artifacts)。這顯示出,若要有效去除航空影像的陰影,必須將本影與半影視為兩種不同的退化狀態,進行解耦並分別施予漸進式的修復。

PDSS-Net 結合物理衰減打造 2260 組 AeroDS 資料集

為突破配對資料的瓶頸,研究團隊並非單純依賴電腦圖學渲染,而是從光度學的物理機制切入。陰影的本質是直射光被遮蔽,僅保留漫反射光,這構成了一種具有物理意義的光照衰減過程。基於此原理,團隊開發了 物理感知退化陰影合成網路(PDSS-Net)。該網路首先透過形態學運算,從真實航空影像中精確分離出陰影核心與相鄰亮部,並透過統計估計萃取光照衰減參數(如通道縮放因子與環境光偏移),建立起真實的物理約束先驗庫。

取得參數後,模型會在真實的無陰影影像上,結合經過平滑處理的偽陰影遮罩進行線性轉換,產生初步的引導影像。為了進一步提升邊界的平滑度與物理真實性,生成網路中特別引入了 空間衰減座標注意力(SDCA) 機制。SDCA 透過一維的條狀卷積模擬半影區隨距離遞減的光線擴散效應,並與保留邊緣銳利度的局部感知分支進行融合。

透過這套自動化的循環一致性(CycleGAN 架構)流程,團隊成功建構了名為 AeroDS-Syn 的大規模資料集。該資料集包含 2,000 組用於訓練的高品質配對影像(無陰影、合成陰影、陰影遮罩)與 260 組測試資料,從資料源頭解決了訓練樣本匱乏且缺乏物理真實性的難題。

PCDS-Net 雙流架構解耦本影與半影的級聯修復

有了具備物理意義的訓練資料後,如何針對複雜的陰影結構進行修復成為下一個關鍵。團隊為此設計了 半影感知級聯去陰影網路(PCDS-Net),徹底打破了過去將陰影視為單一整體的慣例。該架構採用雙流編碼器(Two-stream Encoder),透過動態衍生的本影與半影遮罩,將輸入特徵明確拆解為兩條獨立路徑。

本影流專注於核心極暗區域的高頻紋理重建;半影流則運用空洞卷積(dilated convolutions)擴大感受野,捕捉周圍背景的光照先驗資訊,以處理漸變的邊界過渡。在特徵融合與解碼階段,模型導入了注意力特徵融合(AFF)模組,透過全域平均池化與局部卷積計算動態權重,讓網路能適應性地優先修復核心暗部,同時兼顧邊界平滑度。

此外,為了確保輸出的光譜保真度,優化目標中特別加入了色彩一致性損失與基於 Retinex 模型的邊界感知物理平滑損失。解碼器最終採取級聯策略,將深層的高維語意逐步與淺層的空間細節進行整合。這種漸進式的修復機制,能有效抑制暗部過度校正現象,並大幅減少邊界殘留的視覺瑕疵。

AeroDS-Real 測試集驗證跨網域泛化的物理一致性

僅在合成資料上表現優異是不夠的,演算法必須能承受真實世界複雜環境的檢驗。為此,團隊額外收集了 260 張來自全球不同地理環境的真實航空陰影影像,建立 AeroDS-Real 測試集,專門用於評估模型的跨網域泛化能力。實驗結果顯示,在完全不使用真實配對標註的情況下,僅依靠 AeroDS-Syn 合成資料訓練的 PCDS-Net,依然展現了傲視群雄的穩健性。

在定量評估方面,研究人員導入了具備物理意義的檢驗指標,包含 SLR(陰影/光照強度比)與 CIELab 色彩空間的 a 通道色度偏差。數據明確指出,PDSS-Net 生成的陰影在光照衰減分佈上與真實樣本高度吻合;而在去陰影任務中,該框架能有效維持紅綠對立色彩資訊的穩定性。這些實證數據確立了這套基於物理解耦機制的技術,為航空影像的大規模應用奠定了堅實基礎。

透過解耦本影與半影的物理退化特性,AeroDeshadow 證明了注入物理先驗能大幅跨越合成與真實影像間的領域鴻溝。

Abstract

Shadows are prevalent in high-resolution aerospace imagery (ASI). They often cause spectral distortion and information loss, which degrade downstream interpretation tasks. While deep learning methods have advanced natural-image shadow removal, their direct application to ASI faces two primary challenges. First, strictly paired training data are severely lacking. Second, homogeneous shadow assumptions fail to handle the broad penumbra transition zones inherent in aerospace scenes. To address these issues, we propose AeroDeshadow, a unified two-stage framework integrating physics-guided shadow synthesis and penumbra-aware restoration. In the first stage, a Physics-aware Degradation Shadow Synthesis Network (PDSS-Net) explicitly models illumination decay and spatial attenuation. This process constructs AeroDS-Syn, a large-scale paired dataset featuring soft boundary transitions. Constrained by this physical formulation, a Penumbra-aware Cascaded DeShadowing Network (PCDS-Net) then decouples the input into umbra and penumbra components. By restoring these regions progressively, PCDS-Net alleviates boundary artifacts and over-correction. Trained solely on the synthetic AeroDS-Syn, the network generalizes to real-world ASI without requiring paired real annotations. Experimental results indicate that AeroDeshadow achieves state-of-the-art quantitative accuracy and visual fidelity across synthetic and real-world datasets. The datasets and code will be made publicly available at: https://github.com/AeroVILab-AHU/AeroDeshadow.