要不要限制AI?我們把與GPT-4有關的觀點收集全了

《三體》中的降臨派、拯救派和倖存派分別代表著不同的觀念和立場。借用這三個概念,我們可以將對AI 看法的人劃分為AI 降臨派、AI 拯救派和AI 倖存派。

AI 降臨派:

這一派的人認為AI 的發展將為人類帶來巨大的好處,甚至取代人類成為地球的主導力量。他們相信AI 可以解決人類的許多問題,如氣候變化、資源分配、疾病治療等。 AI 降臨派的人通常對AI 技術非常熱衷,支持無限制地發展和應用AI 技術,期待AI 在未來改變世界。

AI 拯救派:

這一派的人認為AI 是人類發展的關鍵,但需要在一定範圍內受到監管和引導。他們認為,通過合理的政策制定和倫理道德約束,可以確保AI 技術的安全和可持續發展。拯救派關注AI 對社會和個人產生的影響,期望在維護人類利益的同時,讓AI 成為人類的得力助手。

AI 倖存派:

這一派的人對AI 技術持懷疑甚至擔憂的態度。他們認為AI 技術的發展將可能導致一系列問題,如失業、隱私侵犯、安全威脅等。倖存派的人認為,人類應該小心應對AI 技術的發展,尋求與AI 和諧共生的方法。他們強調AI 的潛在風險,提倡謹慎和審慎的態度來平衡AI 技術的利弊。

這三派的劃分並沒有嚴格按照《三體》原著的定義(原著中降臨派要毀滅全人類,拯救派想要拯救三體人,倖存派要出賣人類利益為後代謀求苟活的空間),而是以人們對AI 的接受程度以及欲施加的監管力度進行劃分。

降臨派(歡迎AI 降臨)接受程度最高,拯救派(用AI 造福人類)次之,倖存派(在AI 時代倖存)最保守,以便於我們理解立場。

讓我們看看在這一周內,三派有哪些觀點碰撞。

降臨派

吳恩達:暫停AI 開發不可行

本週,一封上千人簽署的公開信火遍了全網,一家名為未來生命研究所(Future of Life Institute)的機構呼籲全球應該至少暫停六個月開發比GPT-4 更強大的模型,以讓有關的監管手段能夠跟上。

人們在該信上看到了許多知名人士的簽名,包括圖靈獎得主Yoshua Bengio、馬斯克、史蒂夫· 沃茲尼亞克、Skype 聯合創始人、Pinterest 聯合創始人、Stability AI CEO 等人。

該信爆火後,人們發現部分知名人士的簽名實際上是網友冒籤的,所謂千人簽名的真實性存疑。

不管怎麼說,這封公開信還是激起了人們關於是否要封禁AI 研究的討論。

著名計算機科學家、Google Brain 的聯合創始人吳恩達在社交媒體上發表了他對這封信的看法。

他認為,讓有關部門暫停他們尚未了解的新興技術,往好了說是反競爭,往壞了說是開了一個糟糕的先例。

以下是他的觀點原文:

要求在6 個月禁止開展比GPT-4 更進一步的研究是一個可怕的想法。我看到許多新的應用在教育,醫療保健,食品……這將幫助許多人。繼續改進GPT-4 會對這些領域有所幫助。我們要權衡AI 創造的巨大價值和現實的風險。

除非有關部門介入,否則沒有切實可行的方法來實施暫停並阻止所有團隊擴大LLM(大語言模型)。讓有關部門暫停他們不了解的新興技術是反競爭的,樹立了一個可怕的先例,是糟糕的創新政策。

負責任的人工智能很重要,而且人工智能有風險。目前主流的媒體報導稱,人工智能公司正在瘋狂地發送不安全的代碼,這種說法是不正確的。絕大多數人工智能團隊(遺憾的是,並非所有人工智能團隊)都認真對待人工智能和安全問題。

暫停6 個月不是一個切實可行的建議。為了提高人工智能的安全性,有關透明度和審計的規定應該變得更加切實可行,產生更大的影響。讓我們在推進技術進步的同時,在安全方面作更多的投資,而不是扼殺進步。

Jim Fan:我們應該欣賞GPT-4

針對大語言模型的安全性,英偉達AI 科學家Jim Fan 提出了一個有意思的觀點。

他認為按照AI 的行為規範,那麼大部份人類也是「不安全」的,許多大語言模型在安全性和公正性上已經表現地很好,我們不應該一味地批評它們。

以下是他的觀點原文:

按照GPT 的「倫理與安全」指導方針,我們大多數人也表現得不理性、有偏見、不科學、不可靠,總的來說——「不安全」。事實上,我們對人工智能的要求更高。這是件好事,我完全支持做更多。但有些事不吐不快。

我指出這一點的原因是為了讓大家了解安全校準工作對於整個研究團體來說是多麼困難。大多數的訓練數據本身就是有偏見的、有毒的、不安全的等等。實際上,創造一個安全的人工智能助手是違反人類數據分佈的。

從某種意義上說,許多生產型LLM(Claude,Cohere,GPT)在安全性和公正性方面都是「超人」,儘管它們並不完美。對我們來說,下意識地批評失敗案例比欣賞挑戰(和成就)更加容易。

拯救派

Sam Altman:確保AGI 惠及全人類

生命研究所的公開信將OpenAI 拉入了輿論的風暴之中,OpenAI 的CEO Sam Altman 在Twitter 上卻表示他依然很平靜,並提出了建立AGI(通用人工智能)的三個要點。

以下是他的觀點原文:

我們需要為了AGI 美好的未來而付出的努力

1、調整超級智能的技術能力

2、充分協調大多數主要AGI 的工作

3、有效的全球監管框架,包括民主治理

此前,Sam Altman 在Lex Fridman 的採訪播客曾表示自己會對OpenAI 的技術感到害怕,他表示:

當人們認為這是一個巨大的飛躍時,我會說,我有點害怕,我覺得這很奇怪。

我認為一點都不害怕的話才是瘋狂的,我同情那些非常害怕的人。

Sam Altman 更關心的是「虛假信息問題或經濟衝擊」,而不是如何用算法製造「超級智能」。他認為有些公司並不會像OpenAI 一樣設置如此嚴格的安全柵欄,並擔心因此導致AI 失控造成不良的社會影響。

馬雲:ChatGPT 只是AI 時代的開始

馬雲回國後來到雲谷學校,聊到了ChatGPT 對教育領域的影響。馬雲表示,ChatGPT 這一類技術已經對教育帶來挑戰,但是ChatGPT 這一類技術只是AI 時代的開始。

以下是他的觀點原文:

我們要用人工智能去解決問題,而不是被人工智能所控制,雖然人的體力、腦力比不過機器,但機器只有「芯」,而人有「心」。工業時代是知識驅動,知識的競爭;數字時代,是智慧驅動,是創造力和想像力的競爭,是領導力、擔當力、責任的競爭,是獨立思考的競爭。

倖存派

Gary Marcus:什麼都不做是不對的

紐約大學心理學和神經科學的榮譽退休教授Gary Marcus(他同時還是AI 暢銷書《Rebooting.AI》的作者)一直對LLM 保持批評的態度。

當生命研究所的公開信發布後,Gary Marcus 可以說是該觀點最堅定的支持者。

面對該公開信受到的質疑,Gary Marcus 做出了一段很長的回應,以下是他的觀點原文:

很多針對6 個月禁止培訓超大型#LLM 的攻擊都沒有抓住要點。

這麼多的利害關係,這裡有一個Twitter # long gread 整理出什麼才是真正重要的:

很多對這封信的攻擊都集中在讚助人身上,而不是署名人。大多數簽名的人(如我,約書亞· 本吉奧等)與FLI 沒有任何關係。評判這封信應該看它寫了什麼,而不是誰寫的。這裡真正的新聞不是埃隆· 馬斯克簽署了協議,而是這麼多不是天生盟友的人(比如本吉奧和我,因2019 年的激烈辯論而聞名)出於共同關心而走到了一起。

提出一個不同的選擇並沒有錯,而大多數批評這封信的人也沒給出一個恰當的解決辦法。

什麼都不做是不好的。幾乎所有人,甚至包括OpenAI 在內,都承認其存在嚴重的風險,但迄今為止,有關部門或行業都沒有採取什麼切實措施來減輕這些風險。

並不是所有簽署了這封信的人都主要關心長期風險; 我們中的許多簽署了這封信的人至少同樣擔心短期風險。

這封信並沒有呼籲禁止人工智能。沒有要求永久禁止。它沒有呼籲禁止GPT-4。它沒有呼籲禁止絕大多數人工智能研究,只是在一個非常具體的項目上短暫停頓了一下,該項目的技術已經「知道」存在風險,卻沒有已知的解決方案。實際上需要更多的研究。有人看過那封信嗎?

我個人沒有改變;我仍然認為LLM 是不可靠的,仍然認為它們表達事實的能力非常糟糕。我不認為它們接近AGI。但這並不意味著他們沒有撕裂我們社會結構的潛力ーー特別是考慮到當前的混合情況:難以置信的廣泛和快速部署、企業不負責任、缺乏監管以及一直存在的不可靠性。

Eliezer Yudkowsky:暫停還不夠,我們應該把AI 永遠關閉!

Eliezer Yudkowsky 是著名的人工智能科學家和作家,同時也是機器智能研究所(MIRI)的聯合創始人,MIRI 致力於確保超人工智能對人類具有友善的價值觀。

未來生命研究所的公開信爆火之後,Eliezer Yudkowsky 在《時代(Time)》上發表了一篇名為《Pausing AI Developments Isn’t Enough. We Need to Shut it All Down》文章。

在開頭提到他並沒有在上面簽名,因為這封信低估了形勢的嚴重性,提出的要求太少,無法解決問題。

文中提到了當人工智能變得比人類更聰明之後可能造成的危害,Eliezer Yudkowsky 提出了一個相當消極的觀點:

我們還沒準備好。我們沒有在任何合理的時間內做好準備。沒有計劃。人工智能能力的進步是巨大的,遠遠領先於人工智能排列的進步,甚至領先於理解這些系統內部到底發生了什麼的進步。如果我們真的這麼做(放任其發展),我們都會死的。

Eliezer Yudkowsky 在前不久接受Lex Fridman 的採訪時再次警告,人類沒有第二次校准人工智能的機會,如果人類失敗,人類就將滅亡。

Total
0
Shares
Related Posts