Uncertainty-aware Generative Learning Path Recommendation with Cognition-Adaptive Diffusion

Xiangrui Xiong, Hang Liang, Baiyang Chen, Zifei Pan, Yanli Lee

View Original ↗
AI 導讀 technology AI 重要性 4/5

U-GLAD 導入擴散模型,成功將物理數據集的學習目標掌握率提升 12.8%。

  • 高斯LSTM利用變異數機制,有效過濾瞎猜與失誤等歷史雜訊。
  • 捨棄傳統判別式演算法,擴散模型透過疊代去噪生成最佳學習路徑。
  • 模型在物理實驗中,成功將學習目標掌握率推升至0.9348。

SLP-Physics 數據集中展現 12.8% 的驚人提升

在 SLP-Physics 物理學習數據集中,長度 10 的推薦路徑測試裡,U-GLAD 模型將目標掌握率提升了 12.8%。當我們依賴演算法規劃學習路徑時,傳統系統往往無法辨識學生的「猜對」或「粗心出錯」,導致推薦偏誤。西華大學研究團隊提出整合高斯長短期記憶網路與擴散模型的全新架構,藉由生成式手段重構理想學習軌跡。

傳統 LPR 無法處理的歷史互動雜訊

傳統的學習路徑推薦(LPR,Learning Path Recommendation)系統多半將學生的歷史作答記錄視為絕對真實的數據。過去的技術演進中,曾有模型嘗試整合題目難度來避免路徑過度崎嶇,或是利用集合到序列(Set-to-Sequence)框架來捕捉知識點之間的前置條件關係。儘管這些方法豐富了概念的語意特徵,卻始終忽略了一項核心問題:人類的學習行為充滿隨機性。

當學生在測驗中憑運氣猜對,或是因粗心大意而答錯時,歷史互動序列就會參雜大量不確定性。若推薦模型過度擬合這些帶有雜訊的記錄,將會得出帶有偏誤的真實能力估計。除此之外,現有模型的概念表徵大多未能納入特定學習目標,難以提供真正個人化的引導。為解決這些問題,研究團隊捨棄了絕對確定性的狀態追蹤,改以機率分佈來描繪不斷變化的認知進展。

導入高斯 LSTM 與目標導向編碼的架構

U-GLAD 架構的核心亮點,在於具備不確定性感知能力的狀態編碼器。該編碼器以高斯長短期記憶網路(Gaussian LSTM,一種能處理序列資料分佈的神經網路)為基礎,透過同步預測期望值與變異數,來還原知識狀態。系統機制會將變異數視為狀態可靠度的指標:當變異數過高,代表歷史行為包含大量隨機猜測,模型便會抑制該次期望值;反之則完整保留估計。這種動態校正機制能產生極度平滑的認知表徵,大幅降低數據不穩定性,為去噪運算打下穩固基礎。

另一方面,為確保推薦內容高度客製化,團隊設計了專屬的目標導向概念編碼器。利用自注意力機制(Self-Attention),模型會將使用者的特定學習目標資訊聚合至初始的概念嵌入(Embeddings)中,並透過殘差連接保留原始知識語意。這使得即使面對相同的基礎結構,系統也能依據不同學生的最終目標,動態調整每個學習概念的推薦權重。

捨棄指標網路,以擴散模型生成最佳學習概念

多數現行框架在解碼階段,習慣依賴指標網路(Pointer Networks)作為判別式模型,直接從既有的候選集合中挑選下一個概念。然而研究主張,理想的學習路徑不該去擬合充滿瑕疵的歷史數據,而是該從頭生成一條能最大化學習成效的序列。傳統判別式模型在面對雜訊極高的歷史軌跡時,往往只能產出次佳解。

為此,U-GLAD 首度在學習路徑推薦領域中,導入了認知自適應擴散模型(Diffusion Model,一種透過疊代去除雜訊來生成連續數據的模型)。擴散模型會根據即時更新的學生狀態,疊代預測下一個概念在潛在空間中的表徵。這項前向過程注入高斯雜訊、反向過程恢復真實樣貌的技術本質,恰好與消除歷史數據不確定性的需求高度契合。為了讓生成的表徵能對應到真實知識節點,訓練過程結合了強化學習中的策略梯度來最大化目標掌握度提升率,並引入雜訊預測損失確保去噪能力。

SLP-Physics 等三大數據集展現全面壓制性表現

團隊在三個屬性各異的公開教育數據集上進行了廣泛測試,包含具備豐富知識圖譜的 Junyi、涵蓋三年物理紀錄的 SLP-Physics,以及數據極度稀疏的 ASSISTments09。實驗涵蓋了長度 10 至 30 步的推薦情境,結果顯示 U-GLAD 的表現皆全面優於 DLPR、SRC 與 LIGHT 等基準模型。以 SLP-Physics 為例,當推薦長度設定為 30 步時,該模型達到了 0.9348 的掌握度提升率峰值,顯著超越前代最佳模型的 0.9126。

消融實驗進一步證實了架構各元件的絕對必要性:無論將高斯去噪降級為普通 LSTM、拔除生成式解碼器,或取消目標導向編碼,都會導致推薦品質顯著下降。超參數敏感度分析也顯示,擴散模型的反向疊代次數在不同資料集有著不同影響。在資料密度較高的情境下,疊代次數設定為 10 能達到最佳效能;而在極度稀疏的數據集中,模型則呈現 U 型變化趨勢。這暗示著適當的去噪深度對於平衡模糊配對與真實數據分佈,具備決定性的影響力。

過濾學習雜訊並導入擴散模型生成潛在特徵,U-GLAD 成功引領路徑推薦邁向生成式重構。

Abstract

Learning Path Recommendation (LPR) is critical for personalized education, yet current methods often fail to account for historical interaction uncertainty (e.g., lucky guesses or accidental slips) and lack adaptability to diverse learning goals. We propose U-GLAD (Uncertainty-aware Generative Learning Path Recommendation with Cognition-Adaptive Diffusion). To address representation bias, the framework models cognitive states as probability distributions, capturing the learner's underlying true state via a Gaussian LSTM. To ensure highly personalized recommendation, a goal-oriented concept encoder utilizes multi-head attention and objective-specific transformations to dynamically align concept semantics with individual learning goals, generating uniquely tailored embeddings. Unlike traditional discriminative ranking approaches, our model employs a generative diffusion model to predict the latent representation of the next optimal concept. Extensive evaluations on three public datasets demonstrate that U-GLAD significantly outperforms representative baselines. Further analyses confirm its superior capability in perceiving interaction uncertainty and providing stable, goal-driven recommendation paths.