簽名支持全球管控AI,三巨頭側漏“求生欲”


又一封“群星雲集”警示AI風險的公開信來了,這封信的內容簡短但措辭炸裂:減輕AI 帶來的滅絕風險,應該與管控流行病和核戰爭等其他社會級規模的風險一樣,成為一項全球優先事項。

5月30日,這紙原文只有22個單詞的聲明,出現在美國非營利組織“人工智能安全中心(Center for AI Safety)”的官網上,超過350名AI領域的企業界和學界名流為之簽名。

與2個半月前“生命未來研究所”發出的、上千名人簽名呼籲“暫停訓練大模型6個月”的那封公開信相比,最令人矚目的是,這次,OpenAI、谷歌DeepMind 和Anthropic的CEO都簽了名。

值得注意的是,在簽署“22字聲明”前,OpenAI、谷歌、Anthropic三家公司的負責人都出席了5月4日白宮發起的AI風險治理會議。面對風險管理,AI三巨頭近段時間顯得比政府還著急。

最近,這三家公司CEO頻繁地與歐洲多國首腦會晤,試圖影響正在推進中的歐盟《人工智能法案》,這項法案很可能影響OpenAI等公司的生成式大模型進入歐洲市場,而那裡是流量新神話締造者OpenAI都暫未拿下的“處女地”。

求管控AI風險的背後,是AI公司們滿滿的市場“求生欲”。

三巨頭留名最新AI風險聲明

“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”

22個單詞組成了一紙《人工智能風險聲明》,將AI帶來的風險直接以“滅絕(extinction)”措辭,嚴重程度堪比“流行病(pandemics)”和“核戰爭(nuclear war)”,管控緊迫度被表述為“應該成為全球優先事項”。

5月30日,在非營利組織“人工智能安全中心(Center for AI Safety)”官網曬出的這紙聲明下,有包括科學家、企業領導人在內的350多人簽了自己的名字。

AI三巨頭的CEO的名字出現在名單中

“我們必須讓這個問題上公開化,因為許多人只在彼此之間默默地交談。”人工智能安全中心的執行主任丹·亨德里克斯(Dan Hendrycks)在談到聲明的目的時表示,一句話聲明的簡明扼要是特意為之,目的是讓更多的科學家建立“廣泛聯盟”,因為一些科學家可能還沒有就AI有哪些風險以及預防風險的最佳解決方案達成一致。

350個簽名中,打頭的兩位是圖靈獎得主杰弗裡·辛頓(Geoffrey Hinton)和約書亞·本希奧(Youshua Bengio),緊跟著出現了戴米斯·哈薩比斯(Demis Hassabis)、山姆·奧特曼(Sam Altman)和達里奧·阿莫迪(Dario Amodei)三位,他們分別為谷歌DeepMind、OpenAI和Anthropic三家全球知名人工智能開發公司的CEO。

一些中國知名學者也簽了名,如清華大學智能產業研究院院長張亞勤、中科院自動化研究所的曾毅教授、清華智能產業研究院的副教授詹仙園。

如果把“用知識服務人類”視作知識分子的社會責任,專家、學者的簽名很好理解,被譽為“AI教父”的辛頓今年4月從谷歌辭職,此後一直在公開場域表達對人工智能失控的擔憂;本希奧曾在今年3月非營利組織“未來生命研究所(Future of Life Institute)”發表的那一封“暫停巨型AI實驗”公開信上簽過字。

但在2個月前的那封信上,谷歌DeepMind、OpenAI和Anthropic這三家公司的負責人並沒有簽名,相比這次的“22字聲明”,那封信還詳細闡述了AI可能帶來的各種具體風險,甚至給出了明確的風險管理原則,至今已增持收集到31810個簽名。

上次那封信引發的AI圈內的明顯分歧是:到底應不應該為了風險而暫停AI實驗。

當時,人工智能領域的學者吳恩達當時在LinkedIn上表示,全面暫停AI訓練6個月的想法是一個糟糕、不切實際的想法。後來,OpenAI CEO山姆·奧特曼Sam Altman更直觀地表達了暫停的無意義,“我們暫停6個月,然後呢?我們再暫停6個月?”

但這次,AI企業三巨頭領導者帶頭簽了這個風險闡述模糊但措辭嚴峻的“22字聲明”從他們表態對聲明的認同中,透露出管控AI風險的緊迫性。

短短的兩個月半內,是什麼致使AI公司們都轉變了態度?

OpenAI訪問量增速放緩

現在,人類即便沒有被AI滅絕,但生成式AI在作惡者的驅使下露出了“黑暗面”。

比如,AI的仿聲仿貌功能正在被用作詐騙工具,AI生成圖片、文字的能力不僅被用來造假新聞,造出的“黃謠”直接傷害到普通個體的聲譽。

相比生成式AI對常識“胡說八道”、會陷入邏輯陷阱、解數學題不太行、數據隱私安全等缺陷,受害案例顯示出的AI破壞力更具體、更直觀地呈現在公眾眼前。對AI開發公司來說,最直接的影響是那些剛剛開放AI應用給公眾的開發公司,還能在負面輿論中的獲得多少增量市場?

以訪問量規模增長最快的、提供文本生成應用ChatGPT的OpenAI為例,其網頁訪問量從去年秋季的每月約2000萬次增長到2023年4月的18億次,刷新了互聯網流量增長神話。但從網絡分析公司SimilarWeb收集的數據看,OpenAI的網頁訪問量增速在放緩。

OpenAI的網頁訪問量增速放緩

OpenAI網頁的流量貢獻主要來自於美國本土,份額能占到10.25%,其次是印度(8.82%)、日本(7.48%)、印尼(3.84%)、加拿大(3.06%),每月的增量也來自這些國家,其中從日本獲得訪問增量最多,打到28.86%。而俄羅斯、中國及歐洲各國基本沒有為之貢獻明面的流量,這些國家和地區的網民訪問OpenAI是受限的。

OpenAI自己切斷了這些市場,最大的原因是各國對互聯網的管理政策不一。相比俄羅斯和中國,歐洲似乎是更令人工智能公司們渴望的市場,然而,歐盟已經明確了針對人工智能立法。

此後,OpenAI、DeepMind、Anthropic三家公司的CEO都出現在歐洲。

三位CEO在歐盟立法前齊現歐洲

4月27日,歐洲議會成員已經就《人工智能法案(Artificial Intelligence Act)》提案達成臨時政治協議。 5月11日,歐洲議會兩個委員會通過了對《人工智能法案》(以下簡稱《法案》)提案的談判授權草案。這一草案將於6月12日到15日提交歐洲議會全會表決,之後歐洲議會將與歐盟理事會就法律的最終形式進行談判。

《法案》的立法者根據風險級別對不同的人工智能工具進行分類,從最低到有限、高和不可接受。使用這些工具的政府機構和企業將根據風險級別承擔不同的義務。 《法案》還將嚴格禁止“對人類安全造成不可接受風險的人工智能係統”,包括有目的地操縱技術、利用人性弱點或根據行為、社會地位和個人特徵等進行評價的系統等。

如果《法案》順利頒布,這將是人類歷史上首部針對人工智能的法律。由於《法案》適用於在歐盟區內運行的所有人工智能係統,領導AI技術的美國企業如若想到打入歐洲市場,顯然將會受到製約。

比如,《法案》要求,開發生成式AI工具的公司必須披露他們是否在系統中使用了受版權保護的材料。對於用各種來源的海量數據訓練大模型的AI公司而言,這個要求將直接把他們攔在歐洲之外。

OpenAI、DeepMind、Anthropic都開始關注歐洲動向。

5月下旬,OpenAI CEO山姆·奧特曼多次前往歐洲,分別與西班牙、波蘭、法國和英國的政府首腦進行了會談,討論人工智能的發展潛力、威脅以及監管等問題。 DeepMind 的CEO德米斯·哈薩比斯、Anthropic的CEO達里奧·阿莫迪也與英國首相蘇納克會過面。

英國首相蘇納克會見AI三巨頭的CEO

與歐洲各國首腦交易所,AI科技公司們試圖以此影響《法案》進程。不止如此,山姆·奧特曼還用演講、採訪等各種方式面向歐洲大眾發聲,希望“民意”與他們站在一起。

在倫敦大學學院的演講中,奧特曼堅持著他的觀點:人們對AI的種種擔心有道理,但AI的潛在好處要大得多。談到AI監管,奧特曼表示OpenAI歡迎監管,但需要“正確的監管方式”,因為“過度監管可能會損害小公司和開源運動”。

5月25日,奧特曼對英國媒體表達他對《法案》的看法,“很多措辭是不恰當的,”他認為,目前的歐盟AI 法案草案將會造成過度監管的情況,“但我們聽說它將調整,他們還在談論這件事。”

距離《法案》的最終表決還有不到半個月時間,奧特曼的“遊說之旅”還在繼續。公開消息顯示,奧特曼接下來會與歐盟產業主管埃里·布雷頓(Thierry Breton)會面,討論歐盟應如何實施在人工智能方面全球領先的規則。

一系列的歐洲行之後,AI三巨頭的三位CEO在“22字聲明”下簽字,認同聲明中所述的全球優先管控AI風險之論。姿態背後是AI公司們試圖在管控下擴大市場的“求生欲”。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts