撰文:Ingrid Lunden
來源:TechCrunch
圖片來源:由無界AI生成
人工智慧的前景和危害是如今的熱門話題。有人說人工智慧將拯救我們,可以幫助診斷一些惡性疾病、彌補教育領域的數位落差等。但也有人擔心它在戰爭、安全、錯誤訊息等方面帶來的威脅。它成為了一般人的消遣方式,在商業領域敲響了警鐘。
人工智慧的作用很大,但它還無法讓滿屋子嘰嘰喳喳的吵雜聲安靜下來。本週,眾多學者、監管者、政府領導、新創企業、大型科技公司以及數十家盈利和非營利組織齊聚英國,將就人工智慧展開討論和辯論。
為什麼是英國?為什麼是現在?
本週三和週四,英國將在布萊切利公園(Bletchley Park)舉辦“人工智慧安全高峰會”,這是英國首次舉辦此類活動。
峰會籌劃數月,旨在探討人工智慧帶來的一些長期問題和風險。高峰會的目標是理想化的,而不是具體的:「共同理解前沿人工智慧帶來的風險和採取行動的必要性」、「就前沿人工智慧安全開展國際合作的前瞻性進程,包括如何最好地支持國家和國際框架」、「各組織應採取適當措施提高前沿人工智慧的安全性」等等。
這種高層次的願望也反映在與會者的身份上:政府高級官員、產業領袖和該領域的著名思想家都將出席會議。 (據最新報導:埃隆– 馬斯克,拜登總統、Justin Trudeau 和Olaf Scholz 等將出席)。
這場高峰會聽起來很特別,而事實也確實如此:高峰會的「金門票」(倫敦的科技公司創辦人兼作家Azeem Azhar 如是描述)供不應求。據悉,峰會將是小範圍的,而且大多是封閉式的。這些活動包括在英國皇家學會(英國國家科學院)舉行的會談;在多個城市舉行的大型「人工智慧邊緣」會議(AI Fringe)以及許多特別工作組的公告等等。
劍橋大學明德魯技術與民主中心執行董事Gina Neff 上週在英國皇家學會舉行的一次關於科學與安全的晚間小組討論會上說:「我們將扮演好我們已經處理好的峰會的角色。換句話說,在布萊切利舉行的活動將做它該做的事,而不在活動範圍內的事情將成為人們集思廣益討論其他問題的機會。”
Neff 的小組討論就是一個很好的例子:在英國皇家學會座無虛席的大廳裡,她與人權觀察組織的代表、大型工會Unite 的國家官員、專注於全球南部地區科技公平問題的智庫Tech Global Institute 的創始人、新創公司Stability AI 的公共政策負責人以及劍橋大學的電腦科學家坐在一起。
同時,所謂的人工智慧邊緣會議可以說只是名義上的「邊緣」。由於布萊切利峰會是在一周中的同一個地點舉行,而且來賓名單非常有限,了解會議討論內容的機會也同樣有限,因此人工智能邊緣會議很快就擴展到了布萊切利,並充實了會議議程。據悉,這次活動不是由政府組織的,而是由一家名為Milltown Partners 的公關公司(該公司曾代表DeepMind、Stripe 和風險投資公司Atomico 等公司)組織的,有趣的是,它持續了整整一周,在全國多個地點舉行,能得到門票的人可以免費參加(許多活動的門票都已售罄),且其中許多會議還提供串流媒體服務。
儘管活動豐富多彩,但讓人非常痛心的一點是,關於人工智慧的討論,儘管才剛起步,卻仍然如此分裂:一個是權力機構的會議(其中大多數會議只對受邀嘉賓開放),另一個則是我們其他人的會議。
今天早些時候,由100 名工會和維權人士組成的團體致信首相,稱政府不讓他們參與布萊切利公園的活動,是在「擠壓」他們在對話中的聲音。 (他們可能沒有拿到門票,但他們的反對方式絕對是明智的:該組織通過與《金融時報》等國內最精英的經濟刊物分享這封信,將其公之於眾)。
被冷落的不僅是普通人。牛津大學哲學系講師Carissa Véliz 在今天的人工智慧邊緣活動中說道:“我認識的人中沒有一個受到邀請。”
有些人認為,精簡是有好處的。
人工智慧研究科學家Marius Hobbhahn 是阿波羅研究公司(Apollo Research)的共同創辦人和負責人,該公司正在開發人工智慧安全工具。他認為,人數少也可以引起更多關注:「房間裡的人越多,就越難得出任何結論,或進行有效的討論,」他說。
從更廣泛的意義上講,這次峰會只是一塊“磚”,是目前正在進行的更廣泛對話的一部分。上週,英國首相蘇納克(Rishi Sunak)表示打算在英國成立一個新的人工智慧安全研究所和一個研究網絡,以便花更多時間和心思研究人工智慧的影響;Yoshua Bengio 和Geoffrey Hinton 為首的一群著名學者發表了一篇名為《在快速進步的時代管理人工智慧風險》的論文,集體投入這一領域;聯合國也宣布成立了自己的特別工作小組,探討人工智慧的影響。近日,美國總統喬– 拜登也發布了美國自己的行政命令,以製定人工智慧安全標準。
“生存風險”
最大的爭論之一是,人工智慧帶來「生存風險」的觀點是否被誇大了,甚至是否是有意為之,以消除對更直接的人工智慧活動的審查。
劍橋大學系統數學教授Matt Kelly 指出,其中一個經常被引用的領域是錯誤訊息。
「錯誤訊息並不新鮮。它甚至不是本世紀或上世紀的新事物,」他上週在接受採訪時說。 「但這是我們認為人工智慧短期和中期存在潛在風險的領域之一。而這些風險是隨著時間的推移慢慢形成的。」Kelly 是英國皇家科學學會的研究員,他說,該學會在峰會籌備期間還專門針對科學領域的錯誤訊息進行了一次紅藍隊演練,以了解大型語言模型在試圖相互競爭時會有怎樣的表現。 「這是一種嘗試,試圖更好地理解現在的風險是什麼」。
英國政府似乎在這場辯論中持兩面態度,危害因素比它所舉辦的活動名稱「人工智慧安全高峰會」更為明顯。
蘇納克在上週的演講中說:「現在,我們對所面臨的風險還沒有一個共同的認識。」「沒有這種共識,我們就無法指望共同應對這些風險。這就是為什麼我們將大力推動就這些風險的性質達成首份國際聲明的原因」。
但在設立峰會時,英國首先將自己定位為製定「當我們談論人工智慧時我們談論什麼」議程的核心參與者,而且它當然也有經濟角度。
蘇納克指出:「透過使英國成為安全人工智慧領域的全球領導者,我們將吸引更多來自這股新科技浪潮的新工作和投資。」(其他部門也收到了這份備忘錄:內政大臣今天與網路觀察基金會(Internet Watch基金)以及TikTok 和Snap 等多家大型消費應用公司共同舉辦了一場活動,以解決人工智慧生成的性虐待圖片氾濫的問題)。
讓大科技公司參與其中似乎在某一方面有所幫助,但批評者往往認為這也是一個問題。 ““監管捕獲”,即行業中較大的權力參與者採取積極措施來討論和製定風險和保護措施,一直是人工智慧美麗新世界的另一個大主題,本週的峰會也是如此。
「要警惕那些舉起雙手說『管我吧,管我吧』的人工智慧技術領導者。」人工智慧晶片製造商Graphcore 的執行長Nigel Toon 在自己撰寫的一篇關於本週即將召開的峰會的文章中敏銳地指出:「政府可能會貿然介入,對他們的話信以為真。」(不過,他本人並不完全是邊緣人:他將親自參加此次峰會)。
同時,許多人仍在爭論目前所謂的生存風險是否是有用的思考練習。
Stability AI 的公共政策負責人Ben Brooks 在英國皇家學會的一個小組討論會上說:「我認為,過去一年裡,前沿和人工智慧的修辭讓我們陷入了對技術感到恐懼的境地,」他引用了「回形針最大化」思想實驗——人工智慧在不考慮人類需求或安全的情況下創造回形針,可能會毀滅世界——作為這種有意限制方法的一個例子。 “他們沒有考慮到在什麼情況下可以部署人工智慧。但你可以安全地開發它。我們希望每個人都能從中得到啟發,認識到人工智慧是可以實現的,而且是可以安全實現的。”
而其他人則不那麼肯定。
阿波羅研究公司的Hobbhahn 說:「公平地說,我認為生存風險並不準確。」「我們姑且稱之為災難性風險。」從近年來的發展速度來看,生成式人工智慧應用已經將大型語言模型帶入主流應用,他認為最大的擔憂仍將是使用人工智慧的不良行為者,而不是人工智慧自身的暴動:將其用於生物戰、國家安全局勢以及可能改變民主進程的錯誤訊息。他說,所有這些都是他認為人工智慧很可能發揮災難性作用的領域。
「圖靈獎得主在公開場合對生存和災難性風險憂心忡忡……我們真的應該好好想想,」他補充道。
商業前景
雖然有嚴重的風險,但英國也希望透過舉辦人工智慧的大型對話,將本國打造為人工智慧企業的天然家園。然而,一些分析師認為,投資人工智慧的道路可能並不像某些人預測的那樣平坦。
「我認為現實已經開始顯現,企業開始明白他們需要為生成式人工智慧專案分配多少時間和資金,才能獲得可靠的產出,從而真正提高生產力和收入,」Gartner 公司副總裁分析師Avivah Litan 說。 「即使他們對專案進行反覆調整和工程設計,他們仍然需要人工對營運和產出進行監督。簡而言之,GenAI 的輸出還不夠可靠,需要大量資源才能使其可靠。當然,模型一直在改進,但這就是市場的現狀。儘管如此,與此同時,我們也確實看到越來越多的項目進入了生產階段。”
她認為,人工智慧投資「肯定會減緩使用人工智慧的企業和政府組織的發展速度。供應商正在推動他們的人工智慧應用和產品,但企業無法像被推動的那樣快速採用它們。此外,GenAI 應用程序還存在許多風險,例如,即使在組織內部也能民主化地輕鬆獲取機密信息。“
正如」數位轉型「在現實中更像是一個慢熱的概念一樣,企業的人工智慧投資策略也需要更多的時間。 「企業需要時間來鎖定其結構化和非結構化資料集,並正確有效地設定權限。企業中存在太多的過度共享,而在此之前,這些共享其實並不重要。「Litan 補充說:”現在,任何人都可以使用簡單的母語(如英語)命令訪問任何他人未受到充分保護的文件。“
如何平衡人工智慧的商業利益與布萊切利公園將討論的安全和風險問題是很大的難題,這一事實說明了未來的任務,同時也凸顯了局勢的緊張。據報道,在會議後期,布萊切利的組織者已經努力將討論範圍從高層次的安全問題擴展到風險可能真正出現的領域,例如醫療保健領域,儘管目前公佈的議程中並未詳細說明這一轉變。
「將有100 名左右的專家參加圓桌會議,規模並不小。我是一個批評家,但這聽起來並不是一個壞主意,」劍橋大學教授Neff 說。 「現在,全球監管會成為一個討論話題嗎?絕對不會。我們是否要讓東西方關係正常化?可能也不會。但我們將迎來我們的峰會。我認為,此時此刻可能會出現一些非常有趣的機會。”
資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載