Secure Authentication in Wireless IoT: Hamming Code Assisted SRAM PUF as Device Fingerprint

Florian Lehn, Pascal Ahr, Hans D. Schotten

View Original ↗
AI 導讀 technology infrastructure 重要性 3/5

研究結合漢明碼與 SRAM PUF,將無線物聯網認證錯誤率穩控於 1% 以下。

  • 漢明碼結合多數決演算法,將硬體指紋認證錯誤率成功壓至 1% 以下。
  • 冗餘設計面臨邊際效益遞減,追求極致低錯誤率將帶來龐大算力開銷。
  • 閾值差距轉為設計預算,採用長硬體指紋即可避免複雜的最佳化運算。

靜態隨機存取記憶體(SRAM)的微小製造瑕疵,正成為工業物聯網設備最難被破解的專屬硬體指紋。這份提交至 2026 年第 30 屆 ITG 研討會的最新預印本,透過結合漢明碼與時間多數決演算法,成功將設備認證後的位元錯誤率穩定壓制在 1% 以下。這項基於 SRAM PUF(硬體物理不可複製功能)的研究,將可靠度與安全性的差距量化為系統設計預算。該框架為資源受限的無線邊緣設備,建立了一套兼具低功耗與高安全性的身分認證標準。

捕捉 SRAM 製造變異的無線 IIoT 硬體指紋

工業物聯網(IIoT)設備經常部署於無人看管的遠端工廠,並高度仰賴無線網路進行感測傳輸。這些邊緣節點受到嚴苛的體積、功耗與製造成本限制,難以搭載專用加密晶片或執行運算密集的非對稱密碼演算法。過去工程師習慣將數位金鑰儲存於非揮發性記憶體中,但這種作法在面對物理性探測或側信道攻擊時顯得不堪一擊。為了徹底解決金鑰遭到物理提取的風險,利用晶片本身微觀特徵動態生成密碼的技術正成為發展重心。

這項研究選用靜態隨機存取記憶體的底層物理特性作為核心安全機制。在設備通電的瞬間,記憶體內成千上萬個交叉耦合反相器單元,會因為半導體製程中無法避免的奈米級瑕疵(例如電晶體閾值電壓的微小偏差),隨機但穩定地趨向於高電位「1」或低電位「0」。這些通電初始狀態的組合,就如同人類的生物特徵一樣,對於每一批次生產出來的每一顆晶片都是獨一無二且無法被人工精確複製的。

設備只需要在後端伺服器要求進行安全認證時,即時讀取這組記憶體狀態,就能自動生成一組該設備專屬的加密回應字串。由於這把金鑰並不是以常態數位格式靜態儲存於系統空間中,當物聯網設備切斷電源後,這組硬體指紋也隨之消散於無形。這種「需要時才生成」的動態特性,大幅提升了駭客進行逆向工程與實體探測攻擊的難度,為無線基礎設施提供了硬體信任根(Root of Trust)。

漢明碼與多數決將 PUF 錯誤率壓制於 1% 以下

雖然基於 SRAM 製造變異的硬體指紋具備極高的防篡改能力,但其在真實部署環境中卻無可避免地面臨著環境物理噪聲的嚴峻考驗。工業現場的溫度劇烈波動、供電電壓的微小不穩,甚至是晶片長年使用的老化效應,都會導致少部分記憶體單元在通電時的狀態發生反轉。這種天生的硬體不穩定性,使得同一台設備在不同時間點讀取出的指紋回應值會產生些微差異。在要求位元必須絕對精確匹配的傳統密碼學框架中,這種隨機發生的位元翻轉是系統無法接受的致命錯誤。

為了解決硬體特徵訊號不穩定的難題,研究團隊為運算能力受限的終端節點設備,設計了一套基於閾值的彈性認證概念驗證(Proof of Concept)模型。該方案刻意避開了高度複雜的錯誤修正機制,轉而採用輕量級的 Hamming Code(一種線性錯誤更正碼),將其與 TMV(多次讀取取多數以過濾雜訊)進行資源高效型的深度結合。伺服器端會事先記錄一組設備指紋的輔助數據,當設備發送認證請求時,系統允許驗證結果存在一定程度的誤差,只要位元差異落在預設的接受閾值內即可通過認證。

在研究團隊建構的實際測試環境中,這種複合式的訊號穩定化技術展現了極為優異的錯誤控制成效。透過漢明碼在認證運算階段快速修正單一位元錯誤,並搭配時間多數決演算法大幅消弭瞬間物理雜訊的干擾,該實驗方案能夠非常穩定地將認證完成後的 BER(位元錯誤率)上限死死壓制在 1% 以下。這項關鍵的測試數據明確證實,即使不引入龐大的硬體運算負載,依然能透過演算法的巧妙搭配,確保無線物聯網設備認證機制達到工業級的可靠性標準。

漢明碼冗餘度提升面臨的邊際效應與運算開銷

在設計物理不可複製功能的訊號修正系統時,資安工程師最直覺的作法往往是直接增加系統的偵錯與糾錯冗餘度,試圖藉此換取更高的絕對可靠性。從密碼學的純理論角度來評估,增加漢明碼演算法中的同位元檢查數量,或是進一步提高時間多數決的重複讀取採樣次數,確實能夠在數學圖表上持續壓低系統整體的位元錯誤率。許多傳統的安全設計規範,也傾向於鼓勵採用最高規格的冗餘配置來確保萬無一失。

然而,本篇論文深入分析了這類參數調整行為對硬體帶來的實際影響,並明確指出了設計過程中無可避免的邊際收益遞減現象(Diminishing Returns)。研究數據顯示,當漢明碼的長度冗餘或時間多數決的採樣次數超過某個特定的最佳臨界點後,錯誤率曲線下降的幅度會變得極為平緩。在此階段投入大量的額外修正程序,僅能換來微乎其微的安全效益提升,反而浪費了寶貴的系統資源。

更值得警惕的是,追求極致低錯誤率的過度冗餘設計,會對邊緣感測設備帶來難以承受的負擔。每一次額外的記憶體讀取與修正運算,都會轉換為處理器功耗的飆升與系統回應的延遲。對於極度依賴電池供電、需要長年免維護運作的無線感測器而言,為了逼近零錯誤率所付出的算力開銷(Computational Overhead)與實作硬體複雜度,將使其在真實商業場景中變得毫無可行性。

量化可靠度與安全性的差距並轉化為設計預算

這份技術預印本最具學術突破性與實務指導價值的觀點,在於徹底改變了硬體工程界對待系統錯誤容忍度的傳統思維框架。作者透過嚴密的數學模型,精確量化了系統維持嚴格可靠度所需的要求,與整體資安架構安全限制之間的「閾值差距」(Threshold Gap)。在過往的硬體安全設計經驗中,這段數值差距往往被悲觀地視為系統潛在的防護漏洞,或是工程團隊無奈妥協下的產物。但本研究極具創意地將這段數值重新定義,將其轉化為硬體開發者手中可自由支配的「設計預算」(Design Budget)。

這種設計哲學的根本性轉換,賦予了系統架構工程師前所未有的調校彈性,使其能在不違反預先設定之嚴格錯誤限制的前提下,進行高度資源感知的系統參數校準。硬體開發者現在可以根據設備所搭載的微控制器性能與電池容量限制,科學且靈活地動態調整安全認證的接受標準閾值、物理特徵回應字串的長度,以及後端搭配的訊號穩定化技術強度。透過精準消耗這筆被量化出來的設計預算,系統能夠自動在加密安全性、電池功耗與資料處理延遲等三大維度之間,找到專屬該設備的最佳運作平衡點。

研究團隊也在對比分析中提出了一項關鍵洞察:當設備記憶體資源允許,並選用較長的硬體指紋回應字串時,為了追求可靠度而設計的複雜最佳化機制,就會變得越來越失去實用價值。較長的回應值字串本身具備更高的容錯空間與亂數熵值,為硬體開發商提供了一種用記憶體空間換取運算時間的替代策略。這套建立在記憶體物理變異上的設計空間理論,成功指引了未來的硬體工程師,如何在有限的功耗與算力限制下,打造兼具防護力與運行效率的認證框架。

量化可靠度與安全的閾值差距並轉化為設計預算,為資源受限設備提供了一套利用記憶體空間換取算力的務實硬體指紋校準法則。

Abstract

Static Random Access Memory (SRAM) Physically Unclonable Functions (PUFs) make use of intrinsic manufacturing variations in memory cells to derive device-unique responses. Employing such hardware-rooted fingerprints for authentication, this work demonstrates a threshold-based authentication proof of concept for constrained Industrial Internet of Things (IIoT) devices. The proposed scheme can reliably cap the the post-authentication bit error rate (BER) below 1 %. Inherent SRAM PUF unreliability is addressed by a resource-efficient combination of Hamming code (HC) Error Correction (EC) and Temporal Majority Voting (TMV). Increasing HC redundancy or TMV count significantly reduces the BER, albeit with diminishing returns and increasingly prohibitive computational overhead. Furthermore, this work quantifies the threshold gap between strict reliability and security constraints. This gap is reframed as a design budget which enables the resource-aware calibration of the acceptance threshold, PUF response length, and stabilization technique, without violating designed-for error limits. Larger responses make reliability optimizations increasingly obsolete. This comparative analysis establishes a comprehensive design space for PUF EC, guiding future implementations in balancing EC quality against resource constraints such as computational demand, power consumption, and implementation complexity.