AI狂飆突進,人類在害怕什麼?


來源:澎湃新聞

記者:南博一實習生:邦媛

圖片來源:由無界AI工俱生成

ChatGPT自推出以來,發展迅猛,不僅激發了人工智能研發熱潮,更是掀起了關於人工智能倫理與風險的討論。外媒4月3日報導稱,自意大利於3月31日封禁ChatGPT後,德國數據保護專員稱,出於數據安全考慮,可能將效仿意大利的做法。法國和愛爾蘭的隱私監管機構也表示,正與意大利數據監管機構探討禁令依據。不少人工智能相關從業者甚至支持人工智能“末日論”,但有評測認為應警惕技術討論背後隱藏的目的。

“爭先恐後”的新興人工智能

ChatGPT自2022年11月推出以來,一夜成名。目前有數百萬人在使用這一新興人工智能工具。 ChatGPT是舊金山初創公司OpenAI開發的一款會話式人工智能聊天機器人。作為一種信息工具,ChatGPT旨在與人類盡可能自然地對話和互動。 ChatGPT功能眾多,不僅能回答問題、解釋複雜的話題,甚至可以創建文章、社交平台帖子甚至詩歌等內容。

短短幾個月來,ChatGPT迭代更新,也刺激了不少互聯網同行加入這場“AI研發競賽”。 3月14日,OpenAI公開發布大型多模態模型GPT-4,與ChatGPT所用的模型相比,GPT-4不僅能夠處理圖像內容,且回复的準確性有所提高。 GPT-4發布一周後,谷歌緊隨其後通過博客宣布放開聊天機器人Bard的部分訪問權限。 3月16日,微軟舉辦了一場AI發布會,宣布將推出名為Copilot的人工智能服務,將ChatGPT同源技術嵌入辦公軟件中,在辦公場所輔助用戶工作。 3月22日,據Data.ai數據,內嵌ChatGPT的新版微軟必應2月發布後下載量躍升8倍。 23日ChatGPT更是迎來了重大更新,不僅可以聯網獲取最新資訊,更能通過與5000多個第三方插件交互實現規劃差旅、比價下單等功能。 3月31日,谷歌及其母公司Alphabet的CEO桑達爾·皮查伊在一檔播客節目中透露,Bard將接入參數規模更大的大型語言模型PaLM,其數學和邏輯方面的能力將有所提高。

許多行業領袖、人工智能研究人員和專家學者認為以ChatGPT為代表的AI產品是一個根本性的技術轉變,其重要性不亞於網絡瀏覽器或iPhone的誕生。但ChatGPT等AI產品的迅猛發展也帶來了不少安全隱患和風險擔憂。

訓練ChatGPT的過程基於攝入人類反饋和海量公開數據進行,因此使用ChatGPT進行創作時,可能涉嫌使用未經原創作者同意的內容而引發所有權和版權爭議。不少教育工作者也擔心抄襲問題,因為學生可以更容易地使用人工智能來寫論文。此外,在與ChatGPT進行交互時,所提交的內容隱私並不能得到很好的保護。 3月20日ChatGPT平台就出現了用戶對話數據和付款服務支付信息丟失情況。 23日,OpenAI的首席執行官山姆·奧特曼公開道歉承認開源庫中出現錯誤,導致部分用戶與ChatGPT的聊天記錄被洩露。另據《economist》3月30日報導,韓國三星內部已發生三起涉及ChatGPT誤用與濫用案例,半導體設備測量資料、產品良率等內容或已被存入ChatGPT學習資料庫中。

“飆車”不可取? ChatGPT遭“封殺”

在“快車道”上急速發展的人工智能也引發了多位科技領袖的深切擔憂。 3月29日,包括特斯拉首席執行官埃隆·馬斯克在內的1748人簽署公開信,呼籲暫停訓練比GPT-4更強大的人工智能係統至少6個月。這封信立即引起了各界關於人工智能倫理和風險的激烈爭論。

3月31日,意大利個人數據保護局宣布,從即日起禁止使用聊天機器人ChatGPT,限制其開發公司OpenAI處理意大利用戶信息,並開始立案調查。個人數據保護局指責微軟公司支持的OpenAI沒有使用任何過濾機制來驗證ChatGPT用戶的年齡,並且“缺乏任何法律依據來證明大規模收集和存儲個人數據是合理的”。

據路透社4月3日報導,意大利禁止ChatGPT的舉動,促使其他歐洲國家紛紛開始研究是否需要採取更嚴厲的措施來控制“廣受歡迎的聊天機器人”。儘管歐洲議員們對《歐盟人工智能法案》的內容和範圍存在分歧,但一些監管機構認為,讓用戶有權控制自己個人信息的《通用數據保護條例》等現有法規,可適用於迅速崛起的生成式人工智能公司。

法國和愛爾蘭的隱私監管機構近期也表示,已與意大利個人數據保護局取得聯繫,以了解更多關於禁令的依據。據《德國商報》報導,德國數據保護專員表示,德國可能會效仿意大利,出於數據安全方面的考慮,封殺ChatGPT。 OpenAI已於31日在意大利下線ChatGPT,截至目前未對其他歐洲監管機構在各國調查潛在違規行為的問題做出任何回應。

而針對學界對人工智能破壞學術誠信問題的擔憂,據《高等教育紀事報》4月3日報導,剽竊檢測服務公司Turnitin宣布推出新功能,稱有“98%的信心”識別出作業中ChatGPT等工具的使用情況。據該公司稱,該工具可供1萬多家機構以及210萬名教育工作者使用,涵蓋學前教育到大學階段。

人工智能的“兔子洞”將通向何方?

人工智能領域的資深作家莎倫·戈爾德曼在美國科技網站VentureBeat發文稱,人工智能脫離實驗室後,全面進入時代文化思潮,它帶來誘人機會的同時,也為現實世界帶來了社會危險,人類正在邁入一個人工智能權力和政治交織的“詭異新世界”。人工智能的每一個領域都像《愛麗絲夢遊仙境》裡的兔子洞,通向未知的世界。

戈爾德曼則敏銳指出,應用AI和AI預測之間存在明顯的脫節。企業高管並不擔心人工智能摧毀人類,他們只關心人工智能和機器學習是否能提高工人的工作效率、優化客戶服務。但從OpenAI和Anthropic到DeepMind以及整個矽谷的頂級公司依然有不少基於TESCREAL(指超人類主義、外向主義、奇點主義、Cosmos主義、理性主義、有效利他主義和長期主義)信仰問題的討論。人工智能研究人員埃利澤·尤德科夫斯基組建的一個由理性主義者和有效利他主義者構成的龐大在線社區堅信人工智能的存在是一種風險。該社區有許多頂級人工智能實驗室的研究人員參與。

前白宮科技政策辦公室助理主任文卡塔蘇尼安認為,“很多偽裝成技術討論的東西,背後都有一個巨大的政治議程。” 圍繞人工智能的討論已經從技術和科學領域轉移到了政治和權力領域。

《洛杉磯時報》則對此有不同看法,稱OpenAI的首席執行官山姆·奧特曼一邊宣稱他“有點害怕”公司的人工智能技術,一邊“正幫助建設和盡可能廣泛地推廣技術,以獲取利潤”。報導認為,一個高調的技術公司的首席執行官或高管,反复在公眾舞台上渲染對自己正在建設和銷售的產品的擔憂,這種行為背後的邏輯只能是“關於人工智能可怖力量的世界末日論有助於他的營銷戰略”。

對於人工智能眾說紛紜的未來,阿斯彭研究所新興技術主任卡維洛指出,人們對未來的預測往往充滿分歧,應該嘗試減少對分歧的關注,轉而更多地關註一致的地方——例如,許多對通用人工智能(AGI)持不同意見的人,都認為監管是必要的、AI開發者應承擔更多的責任。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts