美國對AI 的恐懼來源於社交媒體的失控

美國時間5 月16 日,參議院審議AI 監管議題的聽證會上,氣氛一派祥和。

這是以ChatGPT 為代表的生成式AI 科技爆炸性進步後,美國國會舉辦的第一場聽證會,可能奠定未來美國如何監管生成式AI的基調,因此尤其引人關注。

而引人關注的另一點,是因為提供ChatGPT 的OpenAI CEO 山姆·奧特曼(Sam Altman),正是聽證會的三位證人之一。另兩位則是長期對AI 技術持質疑態度的紐約大學榮休教授加里·馬庫斯(Gary Marcus)和IBM 的首席隱私和信任官克里斯蒂娜·蒙哥馬利(Christina Montgomery)。

歐美互聯網大佬參加的國會舉行的聽證會,一向以劍拔弩張的緊張氛圍,和不懂科技還一定要管科技的國會議員聞名。然而這場聽證會,氛圍卻出乎預料的輕鬆。

不少議員在發言中表示自己試用過Open AI 的產品,並據此提問。對AI 已經產生的問題和未來的風險,也更多地表現出一種溝通,而非問責的態度,與此前扎克伯格、週受資的待遇形成了鮮明對比。部分原因或許來自奧特曼在聽證會前已經與參議員們進行了多次私下溝通,且對AI 監管表現出非常積極的態度。

聽證會內容橫跨了生成式AI 帶來的諸多影響,包括不實信息問題、信息操縱人心問題、失業問題、隱私問題、版權問題、壟斷問題等。

對此,三位證人對參議員們的擔憂都表示了不同程度的認同,並認可政府應該對AI 行業進行監管。

「此次聽證會是歷史性的。我不記得之前在任何情況下,有大企業和私營組織代表來參加聽證會,請求我們去監管他們。」已經當選參議員二十幾年的迪克·德賓(Dick Durbin)在聽證會中感嘆道。

多方共識下,問題進一步成為,對生成式AI 的監管,究竟要怎麼管。

無法承受像管社媒

一樣慢管AI 的後果

雖然聽證會以AI 監管為主要內容,但「社交媒體」一詞卻不斷出現,在不到三小時的會議中,出現了32 次之多。

參議員們彷彿在對社交媒體管控「失敗」反思,並想在AI 領域重新來過。 「我們無法承擔像我們曾經管控社交媒體一樣慢地去管控生成式AI 的後果,因為其影響,不管正面的還是負面的,都會遠遠超出社交媒體帶來的影響。」參議員克里斯·庫恩斯(Chris Coons)表示。

會議雖然討論了多個AI 相關的問題,但議員們最關注的,還是生成式AI 發布不實消息和操縱人心的問題,而對於尚未到來的通用人工智能的監管則幾乎沒有探討。

整場聽證會以主席理查德·布盧門撒爾(Richard Blumenthal)的一段以AI 生成的虛擬錄音開場,AI 以相當接近布盧門撒爾的說話方式模擬了一段他可能發表的意見,布盧門撒爾也對AI 的能力表示認可,但很快他的落點落到了本場聽證會的中心——不實信息。如果AI 提供的信息是與他本人立場相反的呢?聽眾是不是也會覺得這是他本人的立場?

參議員喬什·霍利(Josh Hawley)引用了一篇4 月的學術論文,提出AI 可以通過建模,成功預測出公眾對於一件尚未發生的事情的反應。那是不是意味著如果利用AI,去做一些策略調整,能成功操縱民意?

對此,奧特曼的回應是,這也是他最擔心的事情之一,「一對一的,互動式的不實信息(傳播)。」他認為需要監管、公司努力和公眾教育結合才能解決。

其中一個可能有效的解決方案是,公眾永遠應當知道自己在和AI 說話,而不能出現以為自己在和人類對話,實際上在和AI 對話的情況。

但他總體對人類的適應能力表示樂觀。 「在Photoshop 出來的時候,其中有一段時間人們都很容易被Photoshop 編輯過的照片欺騙。然而很快,人們有了照片可能是被Photoshop 編輯過的意識。」

他也進一步強調了,這也是為什麼Open AI 公司要開放ChatGPT 使用的原因。這樣大家能從一個發展中的產品中,儘早地建立對於這種科技的認知,而避免直接放出一個非常成熟的產品,使大家在尚未建立對生成式AI 的認知之時就受到科技的衝擊。

使用Midjourney 生成的一張圖片

聽證會還提到了更強大的AI,會不會更容易針對我們每個人,提供出最符合我們偏好的信息,更容易引走我們的注意力,和相關的Open AI 如何處理這類的個人向的數據。

「我們不使用廣告作為營收,所以我們沒有在建立用戶畫像。」奧特曼表示,「我們也沒有在努力讓用戶更多地使用我們。事實上,我們希望用戶更少地使用我們的產品,因為我們GPU 不足。」

但是他同時認為這絕對是值得擔憂的問題。他非常確定有公司已經在研究相關的事情。 Open AI 也無法保證永遠不採取廣告模式盈利。

同時奧特曼也在宣誓過的狀態下再次明確,Open AI 會利用公開網絡上的資料來訓練,但不會用從API 獲取的用戶數據中訓練,且如果在ChatGPT 中進行設置,用戶在ChatGPT 上的數據也可選不成為公司的訓練材料。

支持AI 研發牌照,

奧特曼有沒有私心?

對AI,政府該不該進行管理,在此次聽證會上幾乎沒有爭議。在政府監管上利益相關的兩位證人奧特曼和蒙哥馬利都十分認同政府監管。

但到底政府該怎麼管,則成為了一個激烈探討的話題。

其中討論最多的一個方向,是是否應該專門建立一個管理生成式AI 的監管機構。這個監管機構可以在發布前和發布後,聯合獨立專家,全面地檢查一個AI 模型的安全性,並擁有對犯錯的公司執行吊銷做AI 模型的權力。實際上,相當於為公司發放AI 牌照。

「你不能沒有牌照就建一個核反應堆,你不能沒有一個獨立檢測的牌照就建一個AI 模型。我認為這是很好的類比。」一位議員這樣說道。

奧特曼對此十分認同。 「超過一定門檻的任何嘗試都應該得到政府的牌照,而且牌照應當可以收回,以確保其能夠遵守安全標準。」

在一位議員提問政府應當禁止做了某些事情的AI,還是應當禁止有能力做某些事的AI 時,他直接回答,兩者皆應被監管。

至於門檻具體是什麼,在參議員的要求下,他提供了一個方向,最簡單的可以是以訓練數據量為衡量來進行判斷,更複雜的可以是模型具有了能夠說服人類,改變人類想法的能力,或者能夠創建新的生物製劑後,應該被監管。

說到這,你可能會想,為什麼許多行業在面對監管時,都十分抗拒,而奧特曼作為AI 行業的領導者卻支持一個如此強力的監管方式,希望政府擁有能夠吊銷AI 牌照的權力?

一種解釋是他的確非常關心AI 帶來的安全問題。這點得到了曾與他私下會面過的參議員,以及同場的證人馬庫斯教授的認可。

奧特曼在國會回答提問圖片來源:聽證會截圖

另一種解釋則沒那麼無私。在一篇福布斯的文章中,長期關注AI 發展的資深作者Jeremy Kahn 提出了另一種解釋:「AI 公司們面臨的最大的挑戰之一來自開源AI 軟件… 開源社區已經被證明極其具有創新力,能夠敏捷地匹配上大公司專利模型的表現和能力,使用的模型更小,更簡單,可免費下載且訓練起來更廉價。如果出現牌照政策,這些開源公司都將舉步維艱。它們很難為模型裝備穩健的限制,也很難控制人們如何使用它們創造的模型——開源,從本質上來說,就不能避免人們修改代碼和把安全性限制的代碼去掉。」

如果認同後一種解釋的話,似乎也可以解釋為什麼奧特曼雖然大力贊成通過牌照政策確保AI 安全,但是在檢查模型訓練數據方面,則沒有那麼積極。

作為AI 研究者和批評者的證人馬庫斯教授,在認同牌照政策和新建政府機構來監管AI 的同時,一直極其強調AI 的透明性,強調獨立專家應該能夠審計大模型訓練的語料。

「我對GPT-4 最擔憂的一點是我們不知道它訓練的數據是什麼… 它訓練依賴的數據對AI 系統的偏見會有影響。」馬庫斯教授表示,訓練數據可能包含紐約時報,也包含Reddit,但是「我們不知道它們的比例。」

而奧特曼則雖然原則上認同過應該對「原料」進行審查(但主語並沒有說是政府),更多提及支持「外部審計,紅隊演練,提出一個模型在訓練前需要達到的標準」這類的政府監管,更偏向於以標準和測試的方式讓政府進行檢查。

「我們過去有建立一項測試,可以檢測一個模型是否能自我複制和自己逃脫進入外界。我們可以為政府提供一個長名單,列出一個模型在被正式投放之前我們認為非常重要的一系列檢測。」奧特曼講道。

Open AI 是生成式AI 領域裡無可爭議的領軍企業,如果真的按照這個建議施行,Open AI 顯然有機會極大影響政府設計的AI 安全標準和發放召回牌照的標準,似乎完全符合福布斯這篇文章的標題《Open AI CEO 山姆·奧特曼想要AI 牌照監管。這或許對我們是好事。但對Open AI 絕對是好事》。

除了對開源公司產生威脅,達到一定AI 能力就需要牌照的政策對於不面向公眾的公司也並不友好。

代表IBM 的證人蒙哥馬利就反對這項政策。 IBM 本身並不面向普通公眾,而是面向商業客戶,許多前述提到的風險,比如操縱選舉的風險對於IBM 來講並不存在。

蒙哥馬利更偏向於基於風險管理的手段。歐盟AI 法案目前採取的就是這樣的方式。法案圍繞四類人工智能係統構建,分別是:不可接受的風險、高風險、有限風險以及最低風險。其中前三類將受到法案的監管。針對不同風險,採取不同的監管手段。

「比如選舉信息的例子。當然任何在這個場景下的算法都應該被要求披露訓練所用的數據,模型的表現,任何相關的信息都非常重要。」蒙哥馬利表示。

她同時也認為現有的機構如FTC 已經足以能夠完成這一任務,無需新建新的機構。

參議員們本身,也並不都支持創建一個新的政府機構。

參議員喬什·霍利(Josh Hawley)語出驚人,「政府機構通常會被他們本來要監管的人所腐蝕,被他們要監管的機構所控制… 為什麼我們不直接讓公民告你們?」他提議直接對1996 年《通信規範法》中的第230 條款(Section 230)進行明確,使其確認不保護生成式AI 公司。 「我們就打開訴訟的大門。允許人們上法庭。允許他們來提供證據。比如說他們可以說,他們因為得到了錯誤的醫療不實信息而受害,或者錯誤的選舉信息而受害,就可以起訴。為什麼不這麼做?」

儘管三位證人都認同第230 條款不應該應用於生成式AI 的公司,奧特曼和馬庫斯教授都立刻指出,目前法律在生成式AI 方面很不清晰。馬庫斯教授表示,「我們現有的法律是在人工智能出現很多年前製訂的… 法律官司可能會持續十年甚至更久。」

無解的議題——

壟斷、就業與國際合作

在聽證會上,AI 大模型集中於少數公司之手的議題也被不止一次的提起。奧特曼本人也承認這一點:「開源社區現在有很多奇妙的事情發生,但未來將只有一小部分供應商能夠提供最尖端的模型。」

他認為這樣自然有其風險,但是好處是監管難度也會變小。雖然與會者也都指出這種集中模式有其風險,整個聽證會並沒有人能夠提出一個好的方法解決這一問題。

人工智能帶來的就業問題也是無解。儘管與會人員有提到新科技通常能帶來新就業,馬庫斯教授警告說「歷史不一定會重現… 我認為這次將可能不同。真正的問題是在多大的時間範疇來看?我認為長期來看,通用人工智能真的會取代一大部分的人類工作。」奧特曼儘管發表了較為樂觀的預測,認為人工智能只是工具,未來的工作將會更好,但也承認終究很難預測未來的發展。

在遊戲底特律變人中,仿生人取代了人類的許多底層工作| 圖片來源:底特律變人遊戲截圖

另一個無解的議題是國際合作。馬庫斯教授提出,可以建立一個歐洲核子研究中心一樣的國際組織,絕對中立且關注AI 安全。這一觀點受到不少認可,但是參與聽證會的成員也無法就這個方向繼續深入探討。

人工智能生成的作品的版權,對原創作者和新聞出版業的保護也是一個關注重點。在此次聽證會上,只是略有涉及,參議員們表示,六月和七月還要舉辦多次聽證會,專門針對知識產權問題。美國時間5 月17 日,美國眾議院司法委員會下設的法院、知識產權和互聯網小組委員會也舉辦了生成式AI 知識產權的聽證會。

Total
0
Shares
Related Posts