今天小編分享的科學經驗:ChatGPT也在評審你的頂會投稿,斯坦福新研究捅了馬蜂窩,“這下閉環了”,歡迎閲讀。
尴了個大尬!
人們還在嘲諷有人用 ChatGPT 寫論文忘了删掉 " 狐狸尾巴 ",另一邊審稿人也被曝出用 ChatGPT 寫同行評論了。
而且,還是來自 ICLR、NeurIPS 等頂會的那種。
來自斯坦福的學者對一些頂級 AI 會議(如 ICLR、NeurIPS、CoRL 等)中的審稿意見進行了分析,結果發現——
在 ChatGPT 出現之後,這些同行評論的 "AI 含量 " 大增,最多的高達 16.9%,而有 ChatGPT 之前這個比例大約是 2%。
證據也很直觀,AI 常用的詞匯出現頻率,在 ChatGPT 發布之後噌的一下就上去了。
消息一出,Reddit 的機器學習板塊立刻就炸了鍋,有網友直呼:閉環了!
在 X 上,也有人發出了同樣的疑問:
既然寫論文和審稿都是大模型在幹,那科學家去幹什麼了?
那麼,這究竟是怎麼一回事呢?
頂會審稿意見 AI 含量超 1/6
來自斯坦福大學多個學院以及加州大學聖芭芭拉分校的研究人員發表了一項研究,主題是關于 ChatGPT 對 AI 學術會議同行評審的影響。
研究人員一共分析了 ICLR、NeurIPS、CoRL 和 EMNLP 這四個頂會中的同行評審意見,對其 "AI 含量 " 進行了計算。
ICLR 2024: 估計 α 值為 10.6%
NeurIPS 2023: 估計 α 值為 9.1%
CoRL 2023: 估計 α 值為 6.5%
EMNLP 2023: 估計 α 值為 16.9%,超過了 1/6
α 值指在所有内容中疑似由 AI 生成或 " 顯著修改 " 的内容所占的比例
而在 ChatGPT 問世之前,α 值的水平大約是在 2%,作為對照的 Nature 系列期刊評審意見的 α 值則未發生顯著變化。
除了得出這些數據,研究人員還發現了 "AI 含量 " 較高的評審意見大多具有一些共同特點。
從内容角度上看,"AI 含量 " 高的意見,引用的作者中包括 "et al." 的學術内容也較少。
而且,"AI 含量 " 高的内容,在語義上也更加同質化,比如 "commendable"(值得稱贊的)、"meticulous"(細致的)和 "intricate"(復雜的)等形容詞大量出現。
同時作者也展示了在 AI 生成的内容中出現最頻繁的形容詞和副詞各 100 個,下圖中字号越大代表出現頻率越高。
而除了内容本身,高 "AI 含量 " 的内容的作者在行為上也表現出了一些共同之處。
一是提交的時間更加接近截止期限,特别是截止前三天提交的意見 "AI 含量 " 明顯更高。
除了提交時間晚,高 "AI 含量 " 意見的作者,普遍對自己提交的内容自信程度也更低。
評審者對自己評審意見信心水平的自我評估(滿分 5 分)結果顯示,"AI 含量 " 較高的審稿人,自我評分也更低(不大于 2 分)。
此外,對自己的審稿意見自信程度低的另一個表現是,他們也較少對論文作者反駁做出回應。
在 ICLR 2024 和 NeurIPS 2023 上,這類審稿人中有超過 12.5% 從未對反駁意見做出任何回復,約 10% 只回復了一次。
那麼,作者又是如何分析出這些審稿意見中的 AI 含量的呢?
為此,研究人員設計了一種分布式 "GPT 量化 " 方法,能夠在語料庫級别有效估計 AI 含量,而不必逐篇分析。
首先,研究人員收集了已知由人類編寫(ChatGPT 出現前的審稿意見)和 AI 生成(由研究者直接用 ChatGPT 編寫)的文本的數據集,作為參考分布。
然後,作者估計了人工編寫的(P)和 AI 生成(Q)的内容的 token 分布,尤其重點關注形容詞的出現概率。
最後将這種分布模型拟合到未知成分的目标語料庫,假設每個文檔都是從人類和人工智能分布的加權組合中,即 ( 1- α ) P+ α Q,并使用最大似然估計來推斷 α 的值。
完成方法的構建之後,研究者又合成了多組 α 值确定的标準數據集,并在此之上對前面提出的方法進行了驗證,結果最大誤差僅有 2.4%。
于是,作者使用該方法分析了最近幾個會議中的審稿意見,最終得到了前面的結論。
而當這項研究被更多人所得知後,引發了廣泛的讨論,其中有不少人對這種現象表達了擔憂。
不過,也有人猜測出現這種現象的原因,可能是審稿人母語不是英語,于是用 ChatGPT 對英文寫作進行了調整潤色。
基于此,有人提問到,用 ChatGPT 來改寫而不是直接生成評論也是錯的嗎?
有人給出了半肯定的答復,但理由不是關乎原創性,而是出于對文本質量的擔憂,人們還是應該謹慎使用 ChatGPT。
當然也有人説,科學寫作,本身就是 ChatGPT 的一種合理用途。
總之對于這件事,擔憂也好寬容也罷,這種現象都已然存在了,而按照原作者的觀點,這幾個問題是人們應該思考的:
是否應該披露 AI 在同行評審中的使用
在 AI 極具誘惑力的情況下,應該如何激勵好的實踐
在人工智能同質化的境地下,人們能否保持 " 智力多樣性 "
是否應該重新考慮人類 /AI 混合知識工作的可信度
當然了,在學術界,ChatGPT 生成的内容,還遠不只是審稿意見。
論文作者也愛用
除了審稿人被曝用 ChatGPT 寫評論之外,拿它來寫論文的人更是屢見不鮮……
在谷歌學術中搜索 2023 年及以後包含 "certainly, here is" 這種 ChatGPT 常用開頭的論文,剔除直接包含 "ChatGPT" 和 "LLM" 的論文後,結果共有 50 餘篇。
随機翻閲其中的幾篇,果然是發現了 ChatGPT 的使用痕迹,ChatGPT 在這些論文中被用做了總結、翻譯、制作表格等多種用途。
甚至其中還包括正式出版的論文合集:
而另一個 ChatGPT 常用句式 "As of my Last Knowledge Update",在相同條件下的搜索結果有 114 條。
而且出現形式上也更加離譜,"Certainly 組 " 當中至少還有一些只是用 ChatGPT 做了些輔助工作,"As of my … " 這一組幹脆直接拿來搞正文内容了。
此外,"As an AI language model, I" 也有 40 多條搜索結果,不過也不排除其中有誤傷的情況出現。
當然要論離譜,可能還要屬這種把 ChatGPT 的按鈕 "Regenerate Response" 也一起復制進去的了,而且數量還不算少,有将近一百篇。
露出雞腳馬腳被發現的論文數量尚且如此,删去了這些關鍵字從而 " 躲過一劫 " 的究竟有多少,就更是不得而知了。
當然,并不是説研究者不能使用 ChatGPT 來輔助論文撰寫,包括 Elsevier、Springer(Nature 出版商)在内的許多知名出版機構都表示并不禁止 ChatGPT 的使用,只要進行聲明即可。
總之,無論是論文本身還是審稿意見,亦或是其他文本寫作,如何以更合理的方式運用 AI,值得人們繼續深入思考。
論文地址:
https://arxiv.org/abs/2403.07183