Large language models (LLMs) in radiography research: A narrative review.

Rainey C, England A, Murphy P C, Mohammad A A, Hadi Y H, et al.

View Original ↗
AI 導讀 technology AI 重要性 3/5

LLM 加速放射師研究 5 大面向:CT 溝通改善有案例,幻覺輸出需信任但驗證框架

  • LLM 加速文獻回顧、問卷設計、合成影像生成等 5 大放射師研究面向
  • AI 輔助多語言溝通後 CT 影像品質改善、檢查時間縮短為具體案例佐證
  • 幻覺輸出與隱私風險需靠機構訓練、治理與驗證三層框架系統性應對

放射師導入 LLM 輔助多語言溝通後,研究案例顯示 CT 檢查時間縮短且影像品質同步改善——LLM 已從診斷端延伸至研究方法本身,涵蓋文獻爬梳、問卷設計、合成影像生成等 5 大研究面向,但幻覺輸出與隱私風險讓作者明確提醒:任何導入都必須搭配「信任但驗證」的系統性框架。

從文獻爬梳到問卷設計:LLM 加速研究五大面向

傳統放射師研究在文獻量龐大、多語言合作溝通不易、問卷設計耗時等面向長期受困。這篇發表於 Radiography(英國放射師學會官方期刊)的敘事性回顧(narrative review,廣泛整合已發表文獻而不限定嚴格資料庫篩選標準的回顧方法)正是針對 LLM(大型語言模型,large language model,能生成人類語言的 AI 系統)在放射師研究整合現況進行系統梳理,並融入作者團隊自身的操作實例。

作者歸納出 5 大應用面向:(1) 系統性文獻回顧加速——LLM 協助篩選與整合大量研究文獻,大幅縮短爬梳時間;(2) 問卷設計強化——LLM 協助生成與修改問卷題目,並驗證不同語言版本的語意等效性;(3) 合成影像資料生成(synthetic imaging data)——GenAI(生成式 AI)可模擬醫學影像資料,擴充訓練資料集;(4) 資料分析輔助——協助處理大量文本資料並解讀統計輸出;(5) 國際化與多語言溝通——降低多國研究合作的語言障礙,加速投稿與發表流程。

值得特別注意的是,這五個應用定位全在研究後台——研究設計、資料收集、文獻處理、成果傳播,而非直接介入影像判讀或臨床決策,這與「放射科 AI = 診斷 AI」的一般認知有所不同。

LLM 在放射師研究的五大應用面向與主要風險
應用面向研究效益主要風險
系統性文獻回顧加速文獻篩選與整合分析幻覺輸出、引文錯誤
問卷設計與翻譯問題優化、跨語言等效性驗證內嵌文化偏見
合成影像資料生成擴充 CT/影像訓練資料集資料保真度待驗證
資料分析輔助大量文本快速分析、統計解讀隱私資料洩露風險
多語言溝通與國際化CT 溝通改善影像品質、縮短檢查時間監管合規挑戰

資料來源:Rainey et al. 敘事性回顧摘要整理

AI 輔助溝通改善 CT 影像品質並縮短檢查時間

回顧中最具說服力的具體案例,正是 LLM 輔助多語言溝通後帶來的 CT 掃描改善。由於語言障礙導致病患無法正確理解呼吸屏氣指令或擺位配合要求,CT 影像品質受到影響、重掃率上升。透過 AI 輔助翻譯與溝通,研究測量到 CT 影像品質提升與檢查時間縮短的量化效益。

這個案例的機制值得理解清楚:改善的來源不是演算法直接優化了掃描參數,而是語言障礙被 AI 橋接後,放射師與病患之間的溝通品質提高,間接讓技師能更精確地引導呼吸配合與擺位,從而減少因動作偽影或姿勢不對造成的重掃。這是一個典型的「研究工具 → 工作流程整合 → 影像品質改善」的間接效益路徑。

問卷設計輔助是另一個作者主導的實作案例。研究者使用 LLM 協助草擬問卷題目,並進行跨語言翻譯品質驗證——傳統上這個步驟需要多位雙語專家逐題進行回譯(back-translation);LLM 輔助後初稿生成速度顯著提升,但作者強調最終仍必須由專家逐項審查確認翻譯等效性,不可直接採用機器輸出。

合成影像生成與多語言研究的新可能

延伸到合成資料這一塊,GenAI 在放射師研究中的潛力在於:當真實病患影像因隱私保護而難以大量取得時,高品質的合成影像可以作為模型訓練或研究驗證的補充資料。作者指出這個領域在放射師研究圈尚屬早期,已有初步案例顯示可行性,但資料保真度和下游應用的可靠性仍需系統驗證。

多語言國際化面向則填補了放射師研究傳統上的結構性弱點。非英語系研究者在投稿、跨國合作時面臨相當門檻,LLM 的翻譯品質進步讓研究成果更容易突破語言障礙。作者以問卷翻譯的實作案例佐證,展示 LLM 在縮短國際化準備時間上的實用價值,同時指出這並非可以省略人工審查的自動化流程,而是需要在 LLM 輔助與專家校閱之間建立明確的分工。

幻覺輸出、偏見與環境成本:三類技術挑戰

轉到風險面,作者直接列出五大類挑戰。幻覺輸出(hallucinated outputs)是最被廣泛討論的問題:LLM 有時會「自信地生成錯誤資訊」,例如引用實際上不存在的文獻,或輸出看似合理卻有事實錯誤的描述。在放射師研究中,若幻覺輸出出現於文獻引用或臨床數據解讀,可能直接影響研究可信度甚至引發系統性誤導。

內嵌偏見(embedded biases)同樣不容忽視:LLM 訓練資料大量依賴英語文本與特定人口族群資料,生成的問卷題目或資料分析可能帶有文化偏見,對放射師研究的跨文化有效性構成潛在威脅。隱私風險(risks to privacy)則指當研究者將含有病患相關描述或機構敏感資訊的文本輸入商業 LLM 時,資料外洩或被用於模型訓練的風險。

另外兩類挑戰較少被討論但同樣重要:監管挑戰——各國對 AI 在醫療研究中的使用規範仍在快速演變,學術出版倫理、資料保護法規合規壓力正在上升;環境成本——大型語言模型的訓練與推論需要龐大計算資源,其碳足跡在研究倫理討論中逐漸被提上議程。

「信任但驗證」:訓練、治理與驗證框架的核心建議

作者明確提出「信任但驗證(trust but verify)」作為核心操作原則——放射師研究者應積極運用 LLM 的效率優勢,但所有輸出都必須經過專家覆核,不應在未驗證情況下直接採用。這個原則在實務操作上需要機構層面的系統支撐,而非僅靠個人判斷。

具體建議分三層:訓練(training)——機構應提供 LLM 工具使用的系統性培訓,讓放射師研究者具備足夠 AI 識讀能力(AI literacy)判斷輸出品質;治理(governance)——建立明確政策,規範哪些資料可輸入 LLM、輸出如何標記、倫理委員會審查標準;驗證(validation)——LLM 輔助生成的內容應對照專家審查資料集進行系統驗證,並在論文中透明報告 AI 使用的範圍與方式。

作者坦承本研究的限制:敘事性回顧方法缺乏系統性篩選標準,難以量化 LLM 對研究效率的確切效益;案例研究規模偏小,尚無長期追蹤數據;LLM 技術發展速度極快,部分回顧結論可能在短期內被新模型迭代淘汰。此外,本回顧大量融入作者自身操作案例,雖提升了實用性,但也增加了個別研究情境偏誤的可能性。

放射師研究者可以用 LLM 加速五個研究階段,但每一個輸出都需要專家驗證——效率不能用可靠性換。

Abstract

Artificial intelligence (AI) has become increasingly embedded in Radiography research and practice, extending beyond diagnostic support and workflow optimisation to non-patient-facing applications. Generative AI (GenAI), particularly Large Language Models (LLMs), have been used in radiography research, generating synthetic data, assisting in literature reviews, and facilitating multilingual communication. This narrative review aims to explore the opportunities, challenges, and implications of LLM integration in radiography research. A narrative review approach was employed, identifying relevant publications and integrating author-led examples, including survey design, translation support, and workflow integration. The literature shows that LLMs accelerate research processes by supporting systematic literature retrieval, enhancing survey development, generating synthetic imaging data, streamlining data analysis and enhancing internationalisation. Case studies highlighted measurable benefits, such as improved CT image quality and reduced examination times through AI-assisted communication. However, challenges included hallucinated outputs, embedded biases, risks to privacy, regulatory challenges and environmental costs of model training. GenAI and LLMs offer transformative opportunities for radiography research across multiple stages, from study design to dissemination. Nonetheless, integration must be accompanied by validation against expert-reviewed datasets, transparent reporting, and ethical safeguards to ensure reliability. Radiography researchers should adopt GenAI tools with a "trust but verify" approach: leveraging their efficiency while verifying outputs through expert oversight. Training, governance, and validation frameworks are essential for safe implementation, ensuring these technologies augment rather than replace human expertise in radiography research.