《奧本海默》熱映,Sam Altman 會是下個他嗎?


撰文:Nathan Gardels

來源:Noema

治理可能摧毀社會的技術。

圖片來源:由無界AI工俱生成

電影導演克里斯托弗– 諾蘭(Christopher Nolan)說,他曾與正在經歷“奧本海默時刻”的人工智能科學家交談過,他們擔心自己的創造具有潛在的破壞性。 “我在講述奧本海默的故事,”他在談到自己的奧本海默傳記片時說,“因為我認為這是一個重要的故事,而且它也絕對是一個警世故事。”事實上,已經有人將OpenAI 的山姆– 奧特曼與這位Atom彈之父進行了比較。

奧本海默被他的傳記作者稱為“美國的普羅米修斯”,因為他從神那裡破解了核火焰的秘密,分裂物質釋放出可怕的能量,他擔心這可能會焚毀人類文明。

而奧特曼也在想,他用ChatGPT 推動生成式人工智能的發展,是否也是“非常糟糕的事情”。他在參議院的一次聽證會上說:“如果這項技術出了問題,可能會釀成大禍。”被稱為人工智能教父的Gregory Hinton 今年5 月從谷歌離職,稱他對自己畢生的工作— 製造比人類更智能機器— 感到部分遺憾。他警告說:“我們很難防止壞人利用AI 做壞事。”此外,他的其他同行也談到了”人工智能滅絕的風險“,將它與核戰爭、氣候變化和流行病等其他生存威脅並列。

在Yuval Noah Harari(《人類簡史》作者)看來,生成式人工智能對社會的破壞力可能不亞於Atom彈,用奧本海默引用《Baghavad Gita》中的一句話來說,就是“世界的毀滅者”。這一次,智人變成了神,他們孕育的無機後代有一天可能會取代先輩。在幾年前的一次談話中,Harari 這樣說道:“人類歷史始於人類創造諸神。當人類成為神的時候,人類歷史也就結束了。”

Harari 和合著者Tristan Harris、Aza Raskin 在最近的一篇文章中解釋道:“起初是語言。語言是人類文化的操作系統。從語言中產生了神話和法律、神靈和金錢、藝術和科學、友誼、國家和計算機代碼。人工智能對語言的新掌握意味著它現在可以入侵和操縱文明的操作系統。通過掌握語言,人工智能正在奪取文明的萬能鑰匙,從銀行金庫到聖墓都是如此”。

他們繼續寫道:

幾千年來,我們人類一直生活在其他人的夢想之中。我們崇拜神靈,追尋美好的理想,將生命獻給那些源於先知、詩人或政治家想像的事業。很快,我們也將發現自己生活在非人類智慧的幻覺之中……

不久之後,我們終將面對笛卡爾的惡魔、柏拉圖的洞穴、佛教的瑪雅。幻覺的帷幕可能會籠罩整個人類,而我們可能再也無法揭開這層帷幕— 甚至無法意識到它的存在。

這種由非人類實體書寫我們的敘事的前景讓這位以色列歷史學家和哲學家如此震驚,以至於他急切地建議智人在將我們領域的主控權交給我們授權的技術之前,停下來三思而行。

他們警告說:“在我們的政治、經濟和日常生活對人工智能產生依賴之前,我們就應該對人工智能有所認識。”“如果我們等到混亂發生才採取措施,那就為時已晚了。 ”

“終結者”場景的可能性很低

谷歌副總裁Blaise Agüera Y Arcas 和魁北克人工智能研究所的同事在《Noema》雜誌上撰文指出,他們並不認為“終結者”這一好萊塢場景會在不遠的將來出現。相反,他們擔心,關注遙遠未來的“生存威脅”會去中心化人們的注意力,無法減輕人工智能對當今社會造成的明顯危險。

在人工智能成為超級智能之前,他們最擔心的事情就已經來臨:大規模監視、虛假信息和操縱、人工智能的軍事濫用以及職業工種的大規模取代。

對於這群科學家和技術專家來說,“流氓人工智能帶來的滅絕是一種極不可能發生的情況,它依賴於對生命、智能、技術和社會長期進化的可疑假設。這也是一種不太可能發生的情況,因為超級智能AI 系統在以這種方式’叛變’之前,需要克服許多物理限制和約束。有多個自然檢查點,研究人員可以通過解決切實而緊迫的挑戰來幫助減輕存在的人工智能風險,而無需明確將存在風險作為全球優先事項。”

在他們看來,“誘發滅絕的方式有三種:爭奪資源、獵殺和過度消費,或者改變氣候或其生態位,從而導致環境條件導致其消亡。這三種情況都不適用於目前的人工智能”。

最重要的是,“目前,人工智能依賴於我們,超級智能大概會認識到這一事實,並尋求保護人類,因為我們對於人工智能的存在就像產氧植物對於我們的存在一樣重要。這就使得人工智能與人類之間相互依存的進化遠比競爭的結果更有可能”。

為滅絕這種“不太可能發生的結果”付出“無限的代價”,就好比把我們所有的技術實力都用來抵禦百萬分之一的流星撞擊地球的機率,將其作為地球的當務之急。簡單地說,“超級智能人工智能帶來的生存風險不值得作為全球優先事項,與氣候變化、核戰爭和大流行病預防並列”。

另一個奧本海默時刻

人類與萌芽中的超級智能之間的競爭可能帶來的任何危險,無論遠近,都只會因民族國家之間的競爭而加劇。

奧本海默晚年受到迫害、孤立,並被美國Atom能委員會撤銷安全許可,因為冷戰初期的麥卡錫主義熱潮將他視為共產主義同路人。他的罪行是:反對部署氫彈,呼籲與其他國家合作控制核武器的使用。

今年6 月,奧特曼在北京對人工智能科學家發表演講時,同樣呼籲就如何管理人工智能的使用開展合作。 “中國擁有世界上最優秀的人工智能人才,”他說。控制先進的人工智能係統“需要世界各地最優秀的人才。隨著日益強大的人工智能係統的出現,全球合作的風險從未如此之高。”

人們不禁疑惑擔心,奧特曼的普遍科學責任感過多久會像奧本海默一樣,被成交量入華盛頓目前麥卡錫式的歇斯底里的反華情緒之中。

在人工智能所帶來的明確而現實的危險中,首當其衝的是它如何被武器化。正如Harari 所警告的那樣,現在已經是應對這種威脅的時候了,不要當它成為現實且為時已晚時才採取行動。負責任的參與者需要發揮機器無法傳授的智慧,合作降低風險。如果奧特曼遭遇另一個奧本海默時刻,生存風險就會越來越近。

一個值得歡迎的跡像是,美國國務卿Antony Blinken 和商務部長Gina Raimondo 承認,“沒有哪個國家或公司能獨自塑造人工智能的未來……只有通過國際社會的共同關注、智慧與合作,我們才能充分、安全地利用人工智能的潛力。”

然而,到目前為止,他們提出的倡議雖然至關重要,但仍然受到戰略競爭的製約。對於世界各國來說,最嚴峻的挑戰是如何在人工智能軍備競賽失控之前直接溝通,以阻止事態惡化。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts