Asynchronous Probability Ensembling for Federated Disaster Detection

Emanuel Teixeira Martins, Rodrigo Moreira, Larissa Ferreira Rodrigues Moreira, Rodolfo S. Villaça, Augusto Neto, et al.

View Original ↗
AI 導讀 technology AI 重要性 4/5

非同步機率集成將通訊成本壓縮破千倍,並維持高達 0.9822 準確率。

  • 捨棄參數交換,改以 MQTT 伺服器非同步接收輕量的類別機率向量。
  • 搭配知識蒸餾向下反饋,邊緣裝置免共享權重即可精準吸收全域共識。
  • 通訊成本與模型參數脫鉤,徹底突破邊緣運算在災難現場的頻寬限制。

一套針對災難救援設計的非同步機率集成框架,成功將邊緣裝置的模型通訊成本從 255 MB 巨幅壓縮至 150 KB,降幅破千倍。透過交換輕量化類別機率向量取代龐大權重,系統在影像辨識上維持 0.9822 的頂尖準確率,徹底解決災區網路不穩造成的同步癱瘓問題。

傳統聯邦學習在無人機災區偵測的通訊限制

快速且精準地從現場影像中辨識災難,是緊急救援行動中的首要任務。無人飛行載具(UAVs)與智慧型手機等異質邊緣裝置經常在受損的基礎設施與斷斷續續的網路環境下運作。聯邦學習(FL)(一種允許多個裝置協作訓練模型且不共享原始資料的技術)雖然提供了保護隱私的去中心化解方,但其運作高度依賴同步的參數交換機制。要求所有節點在同一輪次上傳數百萬個模型權重,對頻寬受限的災難現場而言是極為沉重的負擔。

除了龐大的通訊開銷,這類去中心化部署還面臨多種持續性的挑戰。其中包括非獨立同分布(non-IID)資料造成的偏移、嚴重的類別不平衡,以及容易受到不穩定節點與自私學習者的影響。一旦遇到連線中斷或設備掉線,傳統架構的同步聚合機制就會導致整個訓練進度停滯。強行在這種框架上疊加模型集成方法,往往只會讓通訊瓶頸雪上加霜,因為這意味著需要跨網路傳輸多個完整的龐大模型,在分秒必爭的災區難以落地。

捨棄權重的 MQTT 輕量化非同步機率聚合

為了打破參數同步的枷鎖,研究團隊提出了一種運行在機率層級的四階段訓練方案。在第一階段,各個客戶端運用自身的模型架構對影像進行預測,並將輸出的 softmax 機率向量發布到輕量化的 MQTT(針對物聯網設計的低頻寬傳輸協定)中介伺服器上。進入第二階段時,只要累積足夠數量的貢獻,伺服器便會主動消耗佇列中的機率向量,完全無需等待全體客戶端到齊,徹底免除等待延遲。

這種將通訊單位從模型權重轉移到預測結果的策略,帶來了極高的架構包容性。由於僅需傳遞各類別的機率分布,系統可以容忍各種異質的卷積神經網路(CNN)主幹參與協作,例如有的節點使用 ResNet,有的則運行極度輕量的 MobileNetV2SqueezeNet。裝置能夠隨時加入或退出,若某個節點在特定回合無法回傳數據,訓練迴圈也不會因此中斷,消除了全域同步機制原有的脆弱性。

結合遺傳演算法與知識蒸餾的雙向學習迴圈

在框架的第三階段,伺服器會運用多種集成策略來找出最佳的決策共識。研究主要測試了三種變體:首先是運用邏輯斯迴歸將各模型的機率向量串接成特徵,訓練出一個堆疊元分類器;其次導入遺傳演算法(GA)(透過交配與突變尋找最佳解),不斷優化組合權重;第三種則利用粒子群最佳化(PSO)(模擬群體行為動態調整權重)來配置模型佔比。實驗證明,相比於簡單數值平均,這些最佳化演算法能顯著放大互補模型間的綜效。

當聚合產生代表全域共識的集成機率分布後,便進入第四階段的向下反饋機制。伺服器會利用一組共享參考集,將對應的共識機率分布廣播回各個客戶端。這份標籤數據讓邊緣裝置能透過知識蒸餾(Knowledge Distillation)(將全域知識轉移給小模型的技術)來微調自身預測。藉由最小化本地機率與全域共識之間的差異,本地端即使不下載大型模型參數,也能精準吸收整體網路累積的判斷智慧。

在 AIDER 資料集創下 0.9822 準確率

為了驗證技術實用性,研究團隊選用包含火災、水災、建築物倒塌、交通事故與正常場景五大類別的 AIDER 資料集進行實測。這個資料集具有高度的類別不平衡性,真實反映了自然環境中正常場景遠多於災難事件的狀況。實驗分別建立了單一集中式訓練與傳統聯邦學習兩組基準,並利用樹狀結構 Parzen 估計器(TPE)(一種超參數尋優演算法)為五款經典網路架構尋找最佳訓練配置。

驗證數據揭示了一個明確的趨勢:非同步機率集成的表現不僅穩定超越最強的單機模型,更具備與傳統聯邦學習匹敵的頂尖實力。當系統將 EfficientNetMobileNetV2ResNet 三個強大且具互補性的主幹相互融合時,整體準確率來到了 0.9822 的巔峰,微幅勝過傳統聯邦訓練下 ResNet0.9813。即便是由較弱模型組成的集成群體,透過機率融合也能打破個別成員的準確率天花板,證實了演算法層級的聚合能有效抑制不同裝置帶來的預測變異性。

將單輪通訊頻寬從 255 MB 壓縮至 150 KB

整套框架最具顛覆性的成就,展現在對通訊網路消耗的極端壓縮上。在傳統聯邦架構下,每輪交換參數的傳輸量通常高達數十至上百百萬位元組,例如 ResNet 單次上傳就需要佔用超過 255 MB 的頻寬。然而,採用機率向量發布機制的系統,傳輸量幾乎恆定維持在 200 KB 以下;前述創造最高準確率的模型組合單次傳輸僅需約 150 KB,足足創造了超過三個數量級的巨大落差。

從演算法的複雜度來看,傳統聯邦學習的通訊成本會隨著模型內部參數總數呈現線性增長,這在擴展深層神經網路時會面臨嚴苛的硬體門檻。而新方法則將通訊變數縮減為只和「類別數量」掛鉤。這種以極低傳輸負荷換取頂尖精準度的取捨,不僅讓運算資源匱乏的手機或無人機能夠輕易參與學習,更讓災區現場的決策支援系統得以用更高頻率實現即時更新。

採用機率聚合取代權重交換,打破邊緣頻寬限制,用極低通訊成本達成高精準共識。

Abstract

Quick and accurate emergency handling in Disaster Decision Support Systems (DDSS) is often hampered by network latency and suboptimal application accuracy. While Federated Learning (FL) addresses some of these issues, it is constrained by high communication costs and rigid synchronization requirements across heterogeneous convolutional neural network (CNN) architectures. To overcome these challenges, this paper proposes a decentralized ensembling framework based on asynchronous probability aggregation and feedback distillation. By shifting the exchange unit from model weights to class-probability vectors, our method maintains data privacy, reduces communication requirements by orders of magnitude, and improves overall accuracy. This approach enables diverse CNN designs to collaborate asynchronously, enhancing disaster image identification performance even in resource-constrained settings. Experimental tests demonstrate that the proposed method outperforms traditional individual backbones and standard federated approaches, establishing a scalable and resource-aware solution for real-time disaster response.