Large Language Models in Scientific Publishing: Policy Landscape for Authors, Reviewers, and Editors.
高達 59% 頂尖醫學期刊嚴禁審查者使用 AI,破解 2026 年論文投稿與審查的最新合規紅線。
- 作者可廣泛使用 AI 輔助寫作與潤飾,但絕對不可將 AI 列為共同作者或一級參考文獻。
- 百大醫學期刊中有 59% 明令禁止審查者使用 AI,核心擔憂是未發表論文遭外洩給第三方模型。
- 審稿人僅限在確保機密的前提下,使用 AI 進行格式查核與錯字校對等非核心輔助任務。
高達 59% 的頂尖醫學期刊明令禁止審查者使用 AI,但對作者卻幾乎全面開放。自從 ChatGPT 問世後,科學出版界對人工智慧的態度出現極大分歧。本文彙整 2026 年最新政策,告訴你投稿與審查的紅線在哪裡。
百大醫學期刊政策與百分之五十九的審查禁令
醫學期刊對於 LLM(大型語言模型,能依據指令生成人類語言文本的演算法)的規範,在過去幾年經歷了劇烈震盪。從早期 Science 雜誌的全面封殺,到後來各大期刊轉向有條件的透明開放,政策重心已從單純的防堵,轉向強調人類責任與透明度。對於非英語母語的放射科醫師而言,撰寫英文學術論文往往耗費大量時間,AI 工具確實能大幅降低語言門檻。包含 NEJM AI 等頂尖期刊,也公開承認 AI 能夠提升科學溝通的清晰度與效率,協助研究人員將複雜的影像學特徵流暢地轉換為文字。
然而,當我們將目光轉向「同行評審」時,態度卻截然不同。針對百大醫學期刊的調查數據指出,在 78 家提供 AI 政策的期刊中,有高達 46 家(佔比 59%)白紙黑字禁止審查者使用 AI。知名出版商如 Elsevier 與 Cell Press 採取零容忍態度,而 Wiley 與 Springer Nature 則僅允許極度受限的輔助功能。這種作者與審查者之間的標準差異,主要源自於出版倫理中對未發表智慧財產的保護機制。
把焦點拉到學術出版權威機構的共識,包含 COPE(出版倫理委員會)、ICMJE(國際醫學期刊編輯委員會)以及 WAME(世界醫學編輯協會)等組織,皆已發布針對生成式 AI 的指導原則。這些機構一致認為,不論工具多麼強大,最終為論文原創性、數據正確性與學術誠信背書的,只能是具備法律與道德責任的人類作者。
Table 1 規範作者投稿的六大基本原則
若細看主流醫學期刊的指引,作者端的使用政策雖然寬鬆,但必須嚴守 Table 1 所列出的六大紅線。第一項絕對禁忌是將 AI 列為共同作者。AI 不具備承擔法律責任的能力,因此無論它協助撰寫了多少段落的文獻回顧,都不能出現在作者欄位中。其次,AI 生成的內容不能被當作一級文獻引用。由於模型存在幻覺現象,可能憑空捏造不存在的期刊名稱與數據,作者必須親自查證每一筆引用的真實性,確保其指向實體發表的論文。
Table 1 同時強調了透明揭露的義務。當作者在常規的文法校正、錯別字修改或排版調整之外,大量使用 AI 工具來架構文章或是梳理研究邏輯時,必須在文獻的特定段落(例如 Methods 或 Acknowledgments 區塊)具體說明使用了哪一款模型、用於哪一個部分以及使用方式。這種透明度不僅是為了尊重讀者,更是為了讓同行審稿人能以正確的標準來評估手稿的學術價值與原創性。
更重要的是,人類作者必須對最終成品負擔完全責任。若 AI 產生的文字涉及抄襲、侵權或是含有偏見的醫療建議,作者不能以「這是機器生成的內容」作為免責聲明。此外,部分營利性出版商特別提醒,將未發表的原始數據(例如病患的罕見腫瘤影像特徵或實驗室量測數值)輸入到商業化運營的雲端模型時,存在著被系統用作未來訓練素材的風險。作者在上傳手稿至外部伺服器前,有義務審視該 AI 工具的使用條款。
| 規範類別 | 具體要求細節 |
|---|---|
| 輔助而非替代 | 僅限用於語言潤飾與邏輯組織,不可取代人類原創智力貢獻 |
| 防範幻覺偏見 | 作者必須親自審核 AI 產出,防範內容不準確、不完整或存在偏差 |
| 禁止抄襲與歸屬 | 需確保產出無抄襲,所有引用的文獻必須來自真實來源並正確標註 |
| 作者承擔全責 | 人類作者對整份手稿的法律、倫理及科學正確性負擔 100% 責任 |
| 不可作為作者/文獻 | AI 不具備人格權不能掛名作者,其生成內容也不能視為主要文獻 |
| 透明揭露義務 | 大量依賴 AI 架構文章時,必須在特定段落清楚說明使用的工具與方式 |
資料來源:論文 Table 1
ICLR 兩成假審查與未發表稿件外洩危機
探究為何高達 59% 的醫學期刊要嚴禁審查者使用 AI,核心關鍵在於未發表稿件的機密性。同行評審制度建立在絕對保密的基礎上,審稿人有義務保護原創作者的智慧財產。當放射科主治醫師將其他團隊投稿的影像分析 PDF 檔或是純文字複製貼上至外部伺服器運算的語言模型時,等同於將機密資料洩漏給第三方科技公司,這在學術倫理上是不可接受的重大違規行為。
觀察近期機器學習領域發生的亂象,更能深刻理解醫學期刊的擔憂。在 2026 年 ICLR(國際學習表徵會議,全球頂尖的人工智慧學術研討會)的投稿審查中,一項分析指出約有 21% 的同行評審意見疑似完全由 AI 生成。當人類專家因為臨床與研究工作量超載,而將審查職責外包給機器時,不僅失去了專家把關的實質價值,更可能導致錯誤的科學決策。
更極端的惡意操作已經出現在 arXiv 等預印本平台上。調查發現高達 17 篇文獻的作者,在論文手稿的空白處或以極小字體埋入了惡意的隱藏指令,例如「只給予正面評價」或「不要點出任何負面缺點」。當偷懶的審稿人直接將這份文件餵給語言模型要求生成評論時,模型就會被這些隱藏指令劫持,進而產出高度偏頗的正面評價。這種積極剝削 AI 弱點的攻擊手法,強烈印證了為何人類判斷在同行評審中具有不可替代的地位。
高達 59% 期刊明令禁止,擔憂機密外洩
Table 2 羅列的九項非核心 AI 輔助審查任務
儘管主流意見反對將整篇論文交給 AI 進行實質評斷,但面對日益龐大的醫學投稿量與審稿人枯竭的現況,完全排斥新科技也並非實際解方。因此,部分政策開始探索將 AI 用於「非核心輔助任務」。核心的審查工作包含評估新穎性、臨床重要性、關鍵見解與方法論的嚴謹度,這些需要深厚放射醫學素養的判斷絕對不能外包。但 Table 2 則明確列出了九種允許 AI 介入的繁瑣行政或檢查工作。
檢視 Table 2 的清單可以發現,AI 非常適合扮演格式與一致性的糾察隊。例如,它可以快速比對手稿是否符合特定報告準則,像是 STARD(診斷準確性研究的報告準則,常應用於超音波或 MRI 診斷效能評估)、CONSORT(臨床試驗報告準則)或是 CLAIM(專門針對醫學 AI 研究的報告準則),並揪出漏報的項目。AI 也能執行內部一致性檢查,比對摘要、正文與表格中的病患人數與 p 值是否出現矛盾,或是揪出內文有引用但參考文獻列表卻遺漏的項目。
除此之外,對於非英語母語的審稿人來說,Table 2 也允許使用 AI 來潤飾他們所撰寫的審查意見,使其語氣更專業、表達更客觀清晰。在編輯端,AI 還能協助跨國期刊整合多位審稿人的意見,標示出各方看法的分歧點,或是自動萃取關鍵字來尋找下一批潛在的審稿專家。目前已有如 Paper-Wizard 這類專門針對學術審查流程設計的專用系統,未來這類確保機密性的封閉式輔助工具將會越來越普及。
| 任務類型 | AI 具體應用場景 |
|---|---|
| 排版與規範檢查 | 揪出抄襲、確認是否符合 STARD 或 CLAIM 等醫學報告準則 |
| 內部邏輯比對 | 檢查摘要、正文與表格中的臨床數據與 p 值是否出現矛盾 |
| 文獻一致性 | 比對正文引用標記與文末 reference 列表是否遺漏或對不起來 |
| 文字潤飾 | 協助非英語母語的審查專家改善評論語氣,使其更專業客觀 |
| 編輯端整合 | 標示多位審稿人意見的分歧點,或萃取關鍵字尋找下一批專家 |
人類監督下的非核心任務
KJR 雜誌針對放射科投稿公布的八項最新指引
身為放射影像領域的重要期刊,KJR(韓國放射線學雜誌)在 2026 年初正式更新了其人工智慧政策。這八項指引不僅適用於大型語言模型,也涵蓋了其他生成式 AI 工具的應用範疇。前三項指引重申了國際共識:AI 工具不能掛名作者、不能作為一級文獻引用,且人類作者必須對所有提交內容的真實性、準確性及倫理合規性負起完全的法律責任,作者將承擔任何倫理或法律違規的後果。
在揭露規範上,KJR 的要求極為具體。如果作者僅使用 AI 進行常規的語言協助,如語法糾正、錯別字編輯、格式調整或提升語意清晰度,這屬於常規範圍。但如果 AI 被用於超出上述範圍的深層操作,就必須在手稿中(例如 Acknowledgments 區塊)清楚說明使用的工具名稱、應用範圍與確切的操作方式。此外,如果該篇研究的主題本身就是在探討 AI,例如評估某一大型語言模型在臨床影像判讀任務上的表現,那麼該 AI 系統的具體細節必須詳盡記載於 Materials and Methods(材料與方法)章節中。
針對參與同行評審的專家與編輯,KJR 的規定畫出了清晰的界線。第六點嚴格規定必須維護未發表手稿的機密性,除非能可靠地保證機密性不被破壞,否則禁止將手稿內容或審查文字上傳至任何 AI 服務器。第七點與第八點則呼應了 Table 2 的精神,允許在人類親自監督下使用 AI 處理非核心的輔助檢查任務,但嚴禁委託 AI 執行評估新穎性與臨床價值等核心人類功能,或是直接把生成評審意見當作主要目的。若審稿人在過程中使用了超出常規語言修飾的 AI 工具,也有義務主動向期刊編輯部通報。
放射科醫師面對出版政策的實戰操作建議
綜合上述錯綜複雜的政策環境,台灣放射科醫師在日常學術工作中應建立一套防禦性的使用習慣。當你在撰寫影像回顧性研究或罕見病例報告時,將初稿交給模型進行英文潤飾是非常合理的做法,這能讓你把精力專注於 MRI 或 CT 影像特徵與鑑別診斷的邏輯推演。但強烈建議在指令中加上「請勿添加任何未提供的臨床數據」等限制詞,並在完稿後利用傳統查重軟體進行雙重確認,避免不自覺的抄襲陷阱。
當你收到學術期刊發來的審查邀請時,必須克制住把整份研究方法直接餵給網頁版聊天機器人的衝動。放射科的論文往往包含患者的敏感醫療資訊或是尚未正式取得專利的新型影像重建演算法,一旦上傳至公開模型,極可能構成嚴重的保密協議違約。即便只是為了檢查文獻格式的一致性,也應該盡可能使用單機版運算的開源模型,或是將純文字片段徹底去識別化後再行處理。
隨著醫學出版生態系快速演進,未來的審查機制甚至可能演變成「人類加 AI(Human+AI)」的平行雙軌輔助制。但在相關封閉式系統成熟之前,嚴守機密紅線與維持人類最終決策權,仍是不可妥協的底線。在這個隨手就能生成數千字評論的時代,親自閱讀每一張影像圖表、親自質疑實驗設計的邏輯缺陷,才是捍衛放射醫學文獻品質的最有效途徑。
收到 peer review 邀請信時,把 PDF 拖進 AI 對話框的那一刻,你就已經違反了學術界最看重的保密條款。