STEP-Parts: Geometric Partitioning of Boundary Representations for Large-Scale CAD Processing

Shen Fan, Mikołaj Kida, Przemyslaw Musialski

View Original ↗
AI 導讀 technology AI 重要性 4/5

6小時提取18萬CAD模型,STEP-Parts標籤推升3D網路表現

  • 直接讀取原始B-Rep,徹底免除模型網格化造成的實體幾何失真。
  • 設定8度閾值,系統可自動提取CAD實體邊界,免除人工標註。
  • 導入原生標籤後,PTv3網路對複雜CAD物件的分割準確率大幅領先。

傳統3D深度學習常將精確的CAD模型轉換為由大量三角形組成的網格,這種降維直接抹除了模型原有的幾何曲面與拓撲關係。為了在不犧牲精度下建立機器學習所需的標註,最新研究提出自動化標記工具STEP-Parts,能在消費級CPU上以不到6小時的時間,完成超過18萬個CAD模型的實例分割。這套直接從底層格式抽取特徵的系統,填補了大型資料庫缺乏基準測試標籤的空缺。

網格化造成的拓撲流失與B-Rep模型結構困境

現代參數化設計模型在原始建立時,皆採用B-Rep(Boundary Representation,以幾何曲面與拓撲邊界定義形狀的格式)。然而標準的幾何處理管線為了方便運算,常將這些模型直接離散化為三角網格。此轉換過程拋棄了精確的B-Rep結構,用採樣假影取代了內在的幾何邊界。這使得後續的特徵識別、公差驗證與可製造性評估,都無法取得一致的實例級別定義。

網格分割方法雖然在通用3D形狀上表現良好,卻無法明確編碼分析表面結構或B-Rep拓撲。這種結構資訊的流失,讓包含約一百萬個STEP模型的開源資料庫 ABC(Koch et al., 2019) 難以提供可重現、忠於幾何原貌的零件分解標籤。龐大的開源資料因此陷入有模型卻無結構標記的窘境。

同時,BRepNet與BRepFormer等直接針對拓撲CAD特徵運算的深度學習架構,已經證明了保留原生結構的分析價值。但受限於缺乏一致的Ground Truth實例標籤,這些原生演算法在訓練與評估上面臨極大限制。此落差促使研究團隊尋找一套能直接從原始STEP檔案轉換出監督訊號的自動化解決方案。

以8度雙峰分佈數據決定STEP-Parts合併門檻

為了解決標籤匱乏問題,研究團隊開發出 STEP-Parts 確定性自動標記工具鏈。該系統直接讀取原始STEP檔案,僅在兩個相鄰的B-Rep面共用同一種分析幾何原形,且接縫處符合近乎相切的連續性標準時,才會將它們合併為同一個幾何實例。這套等價關係完全建立在內在的幾何屬性上,不依賴任何語義分類字典或人工標註的設計意圖。

針對相切連續性的門檻設定,研究團隊對ABC資料庫中的DeepCAD子集進行了詳盡的實證分析。統計數據顯示,在同一幾何原形的相鄰面中,二面角呈現極端雙峰分佈。絕大多數的交角集中在90度左右,而低於8度(含)的近乎相切面,僅佔全體邊緣的 0.7%。這種高度集中的結構特徵,為演算法提供了一個不易受波動影響的操作基準點。

這項極端的分佈佔比,讓系統在低角度區間具備極高的穩定性。無論是將閾值設定為4度、8度還是12度,最終生成的零件數量、邊界銳利度或內部偏差等分佈幾乎保持不變。團隊最終採用 8度 作為處理ABC資料庫的操作設定,精準區分出平滑過渡區域與實質的內部幾何斷層。

網格解析度不變性對比PartField分割演算法

STEP-Parts的另一個核心優勢,在於其分割界線定義於B-Rep的內在拓撲層級,而非依附於特定的三角網格上。將這些分割結果投影到離散載體時,每個三角形都會保留其來源B-Rep面的專屬索引。為了驗證這種幾何定義的強健度,研究針對240個驗證模型進行了不同網格解析度的交叉測試。

量化評估顯示,無論在更精細或更粗糙的網格參數設定下,STEP-Parts均展現極高的自我一致性。其標籤一致性準確度高達 0.99,而自我平均交併比(mIoU)在大幅降低解析度的條件下,依然維持在 0.93 以上。相較之下,作為對照組的網格分割演算法 PartField,在應對網格變化時表現出極大的變異性,特別是在零件邊界處更容易產生錯位。

面對幾何複雜度較高的模型時,PartField受到其演算法內建的叢集預算限制(例如將運算上限設定為20個叢集),傾向於將多個獨立零件強行合併。這導致其實例級別的重疊率偏低,無法正確反映原有的組件數量。STEP-Parts則因為嚴格依循分析曲面的相鄰拓撲規則,在面對擁有數百個微小解析區域的複雜模型時,仍能完美守住原生的物理邊界。

SDF隱式幾何與PTv3點雲網路的下游監督驗證

評估這套自動生成的實例標籤是否具備實質價值,關鍵在於它能否為下游的幾何分析任務提供高品質的訓練訊號。研究團隊首先透過一個聯合 SDF(Signed Distance Field,表示點到表面距離的隱式幾何) 重建與分割網路進行探測。在確保相同的基礎重建品質下,採用STEP-Parts監督數據的模型,展現出遠勝對照組的分割準確度與零件預測一致性。

為了進一步在大規模資料集上進行壓力測試,團隊引進了 PTv3(Point Transformer V3,處理大型點雲的深度學習主幹網路)。他們將2500個CAD模型分割為包含2000個訓練物件與200個保留測試集的架構。實驗控制模型在訓練時接收完全相同的載體幾何,唯一的變數是監督標籤的來源。

盲測評估結果進一步確認了STEP-Parts在監督學習上的宰制力。使用其標籤訓練的PTv3模型,在所有複雜度分級中均獲得全面領先,總體mIoU達到 0.60,明顯超越對照組的 0.51。特別在零件數量超過10個的複雜模型區段,mIoU的領先幅度更一口氣擴大至 0.12,證明基於原生B-Rep拓撲提取的標籤,確實能讓網路抓到更深刻的形狀特徵。

18萬模型處理規模與離散化載體的邊界限制

在處理規模與運算成本方面,研究團隊在完全不依賴GPU硬體加速的嚴苛條件下,憑藉確定性的CPU運算實作,將特徵提取管線應用於大量資料集。系統成功處理了高達 18萬個 DeepCAD子集模型,整個運算過程僅耗時不到 6小時。這種超高效率展現了這套幾何原形建構方法在對接百萬級開源資料庫時的絕佳適應力。

儘管這套工具鏈忠實保留了底層的分析結構,但在實務投射上仍有必須注意的邊界限制。由於所有的視覺化運算與部分定量比對,都必須將無窮精確的B-Rep標籤投影到離散的網格載體上,極端粗糙的網格劃分會讓部分極薄的區域失去實體三角形支撐。這種降維過程所造成的資料逸失,容易在網格邊緣造成定位失準的問題。

為了維持離散載體在機器學習管線中的穩健性,演算法內建了強制性的最小三角形支撐閾值(例如過濾低於20個三角形的組件)。這項常規的衛生操作能大幅減少因邊緣修剪所產生的退化碎片,但同時意味著極端微小的物理特徵,可能會在粗糙化的過程中被強行合併。研究團隊強調,理解這類離散化帶來的偏差,是開發者在套用這套原生CAD幾何基準時,必須優先掌握的觀念。

STEP-Parts 將精確的分析幾何轉化為自動化機器學習標籤,不僅免除人工標註成本,更為未來的原生CAD深度學習模型確立了無可取代的評估基準。

Abstract

Many CAD learning pipelines discretize Boundary Representations (B-Reps) into triangle meshes, discarding analytic surface structure and topological adjacency and thereby weakening consistent instance-level analysis. We present STEP-Parts, a deterministic CAD-to-supervision toolchain that extracts geometric instance partitions directly from raw STEP B-Reps and transfers them to tessellated carriers through retained source-face correspondence, yielding instance labels and metadata for downstream learning and evaluation. The construction merges adjacent B-Rep faces only when they share the same analytic primitive type and satisfy a near-tangent continuity criterion. On ABC, same-primitive dihedral angles are strongly bimodal, yielding a threshold-insensitive low-angle regime for part extraction. Because the partition is defined on intrinsic B-Rep topology rather than on a particular triangulation, the resulting boundaries remain stable under changes in tessellation. Applied to the DeepCAD subset of ABC, the pipeline processes approximately 180{,}000 models in under six hours on a consumer CPU. We release code and precomputed labels, and show that STEP-Parts serves both as a tessellation-robust geometric reference and as a useful supervision source in two downstream probes: an implicit reconstruction--segmentation network and a dataset-level point-based backbone.