最近在科學界引起軒然大波的一項進展是,研究人員在科學論文中發現了不誠實地利用流行的人工智能聊天機器人ChatGPT 的實例。這些披露突顯了人們對研究出版物的透明度和完整性日益關注。
發現
8 月9 日,《Physica Scripta》雜誌發表了一篇旨在解開復雜數學方程的論文。然而,目光敏銳的計算機科學家紀堯姆·卡巴納克注意到手稿第三頁上有一個奇怪的短語:“重新生成響應”。這句話原來是ChatGPT 的標籤,ChatGPT 是一個人工智能聊天機器人,用於根據用戶提示生成文本。卡巴納克立即在PubPeer 上分享了他的發現,PubPeer 是一個科學家討論已發表研究的平台。
隨後的調查顯示,該論文的作者確實僱傭了ChatGPT 來協助起草他們的手稿。值得注意的是,在兩個月的同行評審過程和排版階段,這種異常現像沒有被注意到。結果,由於作者在提交過程中未能聲明他們使用該工具,出版商IOP Publishing 決定撤回該論文。
更廣泛的問題
這起案件並非孤立事件。自4 月以來,Guillaume Cabanac 已經識別出十幾篇期刊文章,其中包含洩露ChatGPT 短語“重新生成響應”或“作為人工智能語言模型,我……”,所有這些文章都發佈在PubPeer 上。許多出版商,包括Elsevier 和Springer Nature,都允許使用ChatGPT 和類似的語言模型,只要作者聲明即可。
然而,這些檢測實例僅代表冰山一角。研究人員懷疑,許多未公開的同行評審論文在沒有適當聲明的情況下使用了ChatGPT。這些短語本身已經演變,ChatGPT 在更新中將其“重新生成響應”按鈕更改為“重新生成”。
跨期刊未公開的使用情況
Guillaume Cabanac 在Elsevier 期刊上發表的論文中發現了典型的ChatGPT 短語。例如,8 月3 日發表在《資源政策》上的一篇論文探討了電子商務對發展中國家化石燃料效率的影響。卡巴納克注意到方程中存在不一致之處,但贈品是表格上方的聲明:“請注意,作為人工智能語言模型,我無法生成特定的表格或進行測試……”
愛思唯爾已承認該問題,目前正在調查。該論文的作者隸屬於中國沉陽的遼寧大學和北京的中國國際貿易經濟合作研究院,但尚未回應置評請求。
檢測欺騙的挑戰
部分或全部由計算機軟件編寫但未公開的論文並不新鮮,但它們通常會表現出可區分的痕跡,例如語言模式或誤譯短語。然而,刪除ChatGPT 樣板短語會使人工智能生成的文本幾乎無法被發現。這給科學界帶來了持續的挑戰,通常被描述為騙子和試圖維護研究誠信的人之間的“軍備競賽”。
對同行評審的影響
ChatGPT 的未公開用途也出現在同行評審的會議論文和預印本中。作者在PubPeer 上遇到時,有時會承認在沒有聲明的情況下使用ChatGPT。這一發現凸顯了一個重要問題——負擔過重的同行評審員可能沒有足夠的時間徹底審查手稿中的危險信號。
假手稿的興起
ChatGPT 等生成式人工智能工具的大幅上漲引發了人們對造紙廠潛在崛起的擔憂,這些公司向尋求提高出版產出的研究人員生產和銷售假手稿。這種現像有可能加劇學術出版中本已具有挑戰性的問題。
發現欺騙行為
眾所周知,像ChatGPT 這樣的語言模型會生成錯誤的引用,這對於試圖檢測它們在手稿中使用的同行評審員來說是一個潛在信號。在某些情況下,虛構的參考文獻已被識別出來,作為提醒審閱者的危險信號。驗證參考資料時保持警惕變得越來越重要。
科學出版物中未公開的ChatGPT 使用情況的發現強調了研究中透明度和完整性的重要性。隨著科學界努力應對不斷發展的人工智能工具帶來的挑戰,很明顯,更嚴格的指導方針和同行評審的高度警惕對於維護學術出版的可信度至關重要。解決這些問題對於確保對知識的追求始終立足於道德原則和嚴格的研究實踐至關重要。
資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權歸作者Editah Patrick所有,未經許可,不得轉載