原文來源:量子位元
圖片來源:由無界AI生成
AI論文暴增,而真正覺得它是「剛需」的研究者,竟然只有4%?
這結論來自Nature的最新調查。
更準確一點,是對那些會在科學研究中使用AI工具的研究者的調查結果。
這些人是從2022年最後四個月發表了論文的4萬多名研究者中挑選而出的,遍布全球,來自不同學科領域。
此外,開發AI工具的「局內人」和在研究中不使用AI工具的「局外人」也在調查之列,總調查人數達1600+。
目前相關結果已以「AI and science: what 1,600 researchers think」為題刊出。
科學研究人員到底是如何看待AI工具的?我們接著往下看。
1600位研究人員的AI看法
這項調查主要中心化於研究人員對機器學習和生成式AI的看法。
為了確保調查結果的客觀有效,如上所述,Nature透過電子郵件聯繫了在2022年最後4個月內發表論文的來自世界各地的4萬多名科學家,並邀請了Nature簡報的讀者參與調查。
最後選出了1659位受訪者,具體樣本組成如下:
受訪者中來自亞(28%)、歐(近1/3)、北美(20%)的人居多。
其中,48%的人直接開發或研究AI,30%的人在研究中使用AI,22%的人在研究中不使用AI。
下面來看詳細結果。
根據調查,在研究中使用AI的人中,超1/4的人認為AI工具將在未來十年內成為他們所在領域的「必需品」。
但認為AI工具現在已是「必需品」的人只佔4% ,另有47%的人認為人工智慧未來將「非常有用」。
相比之下,不使用AI的研究人員對此並不是很感興趣。即便如此,仍有9%的人認為這些技術將在未來十年內變得“必不可少”,另有34%的人表示它們將“非常有用”。
在機器學習的看法調查中,受訪者需選擇AI工具所帶來的正面作用。 2/3的受訪者認為AI提供了更快的數據處理方式,58%的人認為AI加速了以前不可行的計算,其次55%的人提到AI節省了時間和金錢。
而受訪者認為的AI可能帶來的負面作用主要有:導致更多地依賴模式識別而不是深刻理解(69%)、可能會在數據中強化偏見或歧視(58%)、可能會增加詐欺的發生機率(55% )、盲目使用可能會導致研究無法重現(53% )。
再來看研究者對生成式AI工具的看法。
大多數人認為生成式AI工具的一大優點是總結和翻譯, 可以幫助非英語母語的研究人員改進論文語法和風格。其次,其編寫程式碼的能力也得到了贊同。
但是生成式AI也存在一些問題。研究人員最擔心的是資訊傳播不準確(68%)、使抄襲更容易檢測更難(68%)、在論文/程式碼中引入錯誤或不準確的內容(66%)。
受訪者也補充道,如果用於醫療診斷的AI工具是基於有偏見的資料訓練出來的,他們擔心可能會出現偽造研究、虛假資訊和長期存在的偏見。
此外,根據使用頻率統計,即使是對AI感興趣的研究人員,在工作中經常使用大語言模型的仍然是少數。
在所有被調查群體中,研究者們用AI做的最多的事兒是與研究無關的創意娛樂*;其次是用AI工具編寫程式碼、構思研究思路、幫助撰寫論文。
有一些科學家對大模型的輸出並不滿意。一位用大模型協助編輯論文的研究人員寫道:
感覺ChatGPT已經複製了人類所有的不良寫作習慣。
芬蘭圖爾庫大學的物理學家Johannes Niskanen表示:
如果我們使用AI來閱讀和撰寫文章,科學很快就會從「for humans by humans」轉變為「for machines by machines」。
在這項調查中,Nature也深入探討了研究人員對AI發展所面臨的困境的看法。
AI發展所面臨的困境
約一半的研究人員表示他們在開發或使用AI方面遇到了阻礙。
研究開發AI的研究人員最擔心的問題是:計算資源不足、研究資金不足以及用於AI訓練的高品質資料不足。
而在其他領域工作但在研究中使用AI的人則更擔心缺乏具備足夠技能的科學家和訓練資源,還有安全性和隱私。
不使用AI的研究人員表示他們不需要AI或認為AI不實用、又或他們缺乏經驗時間來研究這些AI工具。
值得一提的是,商業巨頭主導了AI的計算資源和AI工具的所有權也是受訪者關注的問題。
AI工具開發者中有23%表示,他們與開發AI工具的公司合作或就在這些公司工作(其中最常提到的是Google和微軟),而僅使用AI的人中只有7%有這樣的經歷。
整體而言,過半受訪者認為使用AI的研究人員與這些公司的科學家進行合作是「非常」或「有些」重要的。
除了開發,使用方面也出現了一些問題。
先前就有研究人員表示,在科學研究中盲目使用AI工具可能導致錯誤、虛假和無法重現的研究結果。
堪薩斯州立大學曼哈頓分校的電腦科學家Lior Shamir認為:
機器學習有時可能有用,但AI引發的問題比它所提供的幫助還要多。科學家在不了解自己在做什麼的情況下使用AI,就可能會導致虛假的發現。
當被問及期刊編輯和同儕審查員是否能夠充分審查使用人工智慧的論文時,受訪者的意見不一。
在研究中使用AI但不直接開發AI的研究人員中,約有一半人表示不確定,1/4認為審查是充分的,也有1/4認為審查不充分。而那些直接開發AI的研究人員則傾向於對編輯和審查過程持更正面的看法。
除此之外,Nature也詢問了受訪者對於AI在社會的7種潛在影響的擔憂程度。
傳播錯誤訊息成為了研究人員最擔心的問題,2/3的人表示他們對此「非常擔心」或「很擔心」。
最不令人擔心的是AI可能對人類構成生存威脅。
參考連結:https://www.nature.com/articles/d41586-023-02980-0
資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載