許多AI 專家批評了未來生命研究所呼籲停止開發大型語言模型六個月的信的作者。
反對派稱,該倡議是“圍繞人工智能的炒作”,歪曲了一些科學家的學術論文。
這封信的作者引用了前谷歌研究員Timnit Gebru 的一篇文章作為支持暫停研究的論據。在這位科學家在她的科學工作中批評大型語言模型後,公司解雇了她。
然而,Gebru 聲稱這封信的作者歪曲了這篇文章。相反,她說,這項工作警告不要誇大有關人工智能的說法。
“基本上,他們陳述的與我們所說的相反,並引用了我們的論文,”這位科學家寫道。
我們在論文中提出的主要觀點之一是,大型語言模型的最大危害之一是聲稱LLM 具有“人類競爭情報”。
他們基本上說了與我們所說相反的話並引用了我們的論文?
– @timnitGebru@dair-community.social 在Mastodon (@timnitGebru) 上,2023 年3 月30 日
該作品的合著者Emily Bender 表示,這封信完全是“一團糟”,充斥著“圍繞AI 的炒作”。
在她看來,技術的風險從未與其“過大的力量”聯繫在一起。相反,學者們警告不要“權力中心化在能夠複製壓迫系統的人手中,這會損害信息生態系統。”
相反:它們是關於權力中心化在人們手中,關於壓迫的再生產系統,關於對信息生態系統的破壞,以及關於對自然生態系統的破壞(通過濫用能源資源)。
>>
– @emilymbender@dair-community.social 在Mastodon (@emilymbender) 上,2023 年3 月29 日
啟動Stability AI 的負責人Emad Mostak 在信件發布後幾個小時簽署了這封信,拒絕了其中一項要求。
“我不認為休息六個月是最好的主意,”他在推特上寫道。
確保它按照你說的去做。
然而,如果沒有實現AGI 或感知能力,大型緊急模型可能會非常危險。
我認為暫停不會有太大作用,但本著信中的精神簽署,即需要透明、協調和更好的治理💯
– Emad (@EMostaque) 2023 年3 月29 日
另一位簽名者、心理學教授加里·馬庫斯(Gary Markus) 當天大部分時間都在Twitter 上與批評者爭論,其中包括計算機科學學者尼克·霍利曼(Nick Holliman)。用戶指責這位科學家“愚蠢地分心”。
一位評測家認為,這封信是由對當前算法偏見問題漠不關心的“白人”簽署的。
“我一再聲明 […] 我們應該關注現有系統如何延續過去的偏見,”馬庫斯回答說。
這誤導了我。
我一再爭辯說(重啟AI、我自2021 年以來固定的推文、上週在大西洋上發表的文章等)我們必須關注現有系統如何延續過去的偏見。
我堅持我昨天寫的:“我們迫切需要停止二分法…… https://t.co/GohmvZ6ty2
– 加里馬庫斯(@GaryMarcus) 2023 年3 月29 日
谷歌、Meta 和微軟等大型科技公司多年來一直致力於人工智能係統。然而,在ChatGPT 發布後,人們對該技術的興趣增加了。
2023 年3 月,OpenAI 推出了新版GPT 語言模型。這可能是導致撰寫公開信的原因。
回想一下,在3 月份,1000 多名AI 專家呼籲暫停大型語言模型的開發六個月。
在社交網絡上訂閱ForkLog
發現文中有誤?選擇它並按CTRL+ENTER
ForkLog 時事通訊:密切關注比特幣行業的脈搏
資訊來源:由0x資訊編譯自FORKLOG。版權歸作者Богдан Каминский所有,未經許可,不得轉載