今天小編分享的科技經驗:AI代筆痕迹遍布學術圈,數百篇論文被抓現行,歡迎閲讀。
用 AI 輔助閲讀文獻、潤色表達乃止論文撰寫,可能已經成為許多人研究工作中的一部分了,方便固然方便,但 AI 的大量使用也引發了許多亂象。最近 Nature 專欄的一篇報道就揭露出,數百篇發表在權威學術期刊上的論文被發現含有明顯的 AI 生成痕迹,而作者卻未按規定披露 AI 的使用。更令人擔憂的是,這些未披露 AI 使用的論文不僅出現在小型期刊,還出現在由 ElsevierSpringer NatureIEEE 等頂級學術出版商發行的期刊中。
" 作為一個 AI 語言模型 ..."
問題最先通過一些散落在論文文本中的、極具辨識度的 AI 痕迹暴露出來。一些科學誠信的監督者們注意到,一些學術論文中竟出現了諸如 "regenerate response"(重新生成回應)這樣的短語,幾乎是作者在復制粘貼 AI 生成内容時 " 手滑 " 的直接證據。
類似的 " 露餡 " 短語還有不少。例如,"as an AI language model"(作為一個 AI 語言模型)、"Certainly, here are … "(當然,這裏是……)以及 "As of my last knowledge update … "(截至我最後的知識更新……)等。這些通常是 AI 在回答問題時自帶的禮貌性開場白、組織性提示語,或是對其自身信息局限性的免責聲明。這種明顯的 AI 用語,居然大量堂而皇之地出現在了正式的學術論文中。
(來源:Learned Publishing)
肯塔基大學路易斯維爾分校的研究素養與傳播講師 Alex Glynn 是系統追蹤這一現象的學者之一。他創建了一個名為 "Academ-AI" 的在線數據庫,專門收錄那些包含明顯 AI 生成痕迹但未聲明的學術文獻案例。截至目前,該數據庫已記錄了超過 700 篇此類論文。Glynn 在一項對數據庫中前 500 個案例的初步分析中發現,這個問題的影響範圍遠超預期。數據顯示,這些存在問題的論文并非僅僅出現在影響力較低或邊緣性的出版品中,其中高達 13% 的論文發表在由ElsevierSpringer NatureMDPI等國際大型、知名學術出版商出版的期刊上。
圖丨按出版商分類的文章 / 論文數量(來源:arXiv)
波蘭卡托維茲經濟大學的研究員 Artur Strzelecki 對一些知名期刊進行了研究,也同樣發現了這一現象。他在學術期刊 Learned Publishing 上發表的研究,識别了 89 篇發表在被 Web of Science 或 Scopus 數據庫收錄、擁有影響因子或 CiteScore 指标的期刊上的論文,這些論文均帶有明确的 ChatGPT 生成内容的 " 印記 "。令人震驚的是,其中 64 篇論文(占比超過 70%)所在的期刊在其各自學科領網域内位于 Scopus 數據庫排名的前 25%(即 Q1 區),更有 28 篇論文所在的期刊排名在前 10%(即 90th percentile 以上)。例如,影響因子極高的頂級期刊如Trends in Analytical ChemistryTrends in Food Science & Technology也未能幸免,其發表的文章中也出現了此類 AI 痕迹。
這些研究還揭示了問題的學科分布。Strzelecki 的分析顯示,在識别出的 89 篇論文中,醫學(19 篇)、計算機科學(17 篇)和工程學(16 篇)是重災區,但環境科學(10 篇)、社會學、教育學、管理學(各 7 篇)以及經濟學(6 篇)等領網域也均有涉及。這表明 AI 的未披露使用已廣泛滲透到多個學科領網域。
圖丨不同學科的分布情況(來源:Learned Publishing)
更令人擔憂的是,這些可能包含未經驗證内容的論文已經開始進入正常的科學交流循環中。斯特澤萊茨基的研究指出,截至 2024 年 9 月 30 日,他所分析的 89 篇論文中,已有 60 篇被後續的其他學術文獻引用,總引用次數達到 528 次。這意味着,潛在的、由 AI 引入的錯誤或不準确信息,可能正在通過引用鏈被放大和傳播,對科學知識的積累造成潛在污染。
出版界的應對與尴尬
對于那些已經被發現 AI 未披露使用的論文,基本上都已經被做了撤稿處理。例如,知名學術監督網站 " 撤稿觀察 "(Retraction Watch)最近就公布了多起相關案例。例如,一位谷歌工程師的預印本手稿因包含 AI 生成的奇怪短語(如 "squared blunder" 和 "info picture")而被撤回;另一篇完全由 ChatGPT 撰寫的關于千足蟲的預印本,因包含虛假參考文獻,在短暫上線後即被撤下。
(來源:Retraction Watch)
但除了公開的撤稿,還有一種更為隐蔽的處理方式—— " 隐形修正 "(stealth corrections)也引起了學界警惕。Glynn 與法國圖盧茲大學的計算機科學家 Guillaume Cabanac 等人的研究發現,一些出版商在發現已發表論文中存在 AI" 指紋 " 短語後,并未發布正式的勘誤或撤稿聲明,而是悄無聲息地在後台修改了在線版本,将這些暴露性的短語删除。
例如,Toxicology 此前就有一篇論文中的 "regenerate response" 短語在沒有任何公開説明的情況下消失了。Glynn 和 Cabanac 的研究追蹤到了超過 100 篇經歷了此類 " 沉默的 " 發表後修改的文章,其中部分修改就與未披露的 AI 使用有關。" 這種做法威脅到科學誠信,"Cabanac 表示," 透明的記錄保存對确保已發表内容的可信度至關重要。"
在那些确實發布了正式更正的案例中,結果同樣令人失望。在 11 篇正式修正的論文中,僅有 1 篇最終符合相關期刊的 AI 披露政策。大多數情況下,AI 生成的文本被移除或用括号标記,但并未按要求在正文中添加 AI 使用聲明。
面對 AI 技術帶來的衝擊,如今全球主要的學術出版商和期刊組織大都已經制定或更新了關于在學術出版中使用 AI 的政策指南,然而,就上述這些處理情況來看,這些政策似乎沒有得到有效的實施。
就目前而言,學術界對 AI 使用的已經形成兩大基本共識:
其一,人工智能不能被列為作者。這是幾乎所有主流機構和期刊(包括國際醫學期刊編輯委員會 ICMJE、出版倫理委員會 COPE、NatureScienceCellThe LancetJAMA 等)的共同立場。理由很明确:AI 無法承擔作者所必須承擔的責任,即對研究工作的原創性、準确性和完整性負責。
其二,使用人工智能輔助必須進行披露。大多數出版商要求,如果作者在研究或寫作過程中使用了 AI 工具(尤其是用于生成文本、影像或代碼),必須在稿件的特定部分(如方法、致謝、或投稿信中)明确聲明,説明使用了何種工具以及具體用途。
然而,在具體執行層面,各家政策存在差異。Nature 雜志要求,若使用大型語言模型,必須在 " 方法 " 部分詳細説明,并禁止使用 AI 生成的影像(僅有極少數例外)。Science 雜志的政策則允許在論文的 " 方法 " 章節説明後,正當地采用 AI 制作插圖、撰寫論文内容,但 AI 本身不能作為作者或合著者。Cell 雜志也禁止将 AI 列為作者,要求作者在使用 AI 輔助技術時需在投稿信和聲明部分注明,并對作品的準确性和原創性負全責,未獲編輯明确許可不得使用 AI 生成影像。
圖丨主要期刊的 AI 使用政策(來源:互聯網整理)
與此同時,一些出版商的政策也在适應 AI 工具日益普及的現實。例如,英國物理學會出版社(IOP Publishing)最初要求作者聲明 AI 使用,但後續修改了政策,不再強制要求披露,轉而更側重于通過自動化和人工檢查來确保内容的準确性和穩健性(但其政策依然禁止使用 AI" 創建、更改或操縱 " 研究數據或結果)。Springer Nature 也指出,用于改善可讀性、風格、語法或拼寫錯誤的 "AI 輔助文稿編輯 " 無需特别聲明。IEEE 則建議在 " 致謝 " 部分披露 AI 生成的所有内容(文本、圖表、影像、代碼),但對于常見的編輯和語法增強用途,披露則為 " 建議 " 而非強制。
盡管政策框架日漸清晰,但大量未披露 AI 使用案例的曝光恰恰説明,現有政策的執行和同行評審流程在有效識别和管理 AI 生成内容方面仍面臨巨大挑戰。正如 Glynn 所指出的,Radiology Case Reports 上一篇論文中出現 "I am an AI language model" 這樣直白到不能再直白的句子,竟然能一路綠燈通過作者、編輯、審稿人、排版人員等所有環節的審查,這本身就暴露了現有體系的脆弱性。
排版:溪樹