比爾・蓋茨:人工智能的風險真實存在,但也是可控的


撰文:比爾・蓋茨

來源:Gatesnotes

圖片來源:由無界AI工俱生成

在處理突破性創新帶來的問題方面,我們已經學到了很多。

人工智能帶來的風險似乎難以承受。被智能機器奪走工作的人會怎樣?人工智能會影響選舉結果嗎?如果未來的人工智能決定不再需要人類,並想要擺脫我們該怎麼辦?

這些都是合理的問題,它們所引發的擔憂需要認真對待。但我們有充分的理由相信,我們能夠解決這些問題:這並不是重大創新首次帶來必須加以控制的新威脅,我們以前也遇到過。

無論是汽車的問世,還是個人電腦和互聯網的興起,人們都曾經歷過其他變革時刻,儘管經歷了許多動盪,但最終都獲得了更好的發展。第一輛汽車上路後不久,就發生了第一起車禍。但我們並沒有禁止汽車,而是採用了限速、安全標準、駕照要求、酒駕法以及其他道路規則。

現在的我們正處於另一場深刻變革的初期階段,即人工智能時代。這類似於限速和安全帶之前的不確定時代。人工智能的變化如此之快,我們還不清楚下一步會發生什麼。我們正面臨著由當前技術的工作方式、人們將如何惡意使用該技術以及人工智能將如何改變社會和個人所引發的重大問題。

在這樣的時刻,感到不安是很自然的。但歷史表明,解決新技術帶來的挑戰是可能的。

我曾經寫過一篇文章,談到人工智能將如何徹底改變我們的生活。它將幫助解決健康、教育、氣候變化等方面的問題,而這些問題在過去似乎是難以解決的。蓋茨基金會將其作為優先事項,我們的首席執行官Mark Suzman 最近也分享了他對人工智能在減少不平等方面的作用的看法。

將來我會更多地談論人工智能的好處,但在這篇文章中,我想談談我經常聽到和讀到的一些擔憂,其中許多我也有同感,並解釋一下我是如何看待這些擔憂的。

到目前為止,從所有關於人工智能風險的文章可以清楚地看出一件事,那就是沒有人知道所有答案。另一個清楚的點是,人工智能的未來並不像某些人想像的那樣嚴峻,也不像其他人想像的那樣美好。風險是真實存在的,但我Optimism地認為這些風險是可以控制的。當我逐一闡述這些擔憂時,我將回到以下幾個主題:

人工智能引發的許多問題都有歷史先例。例如,它將對教育產生巨大影響,但幾十年前的手持計算器以及最近的允許計算機進入課堂也是如此。我們可以藉鑑過去的成功經驗。人工智能帶來的許多問題也可以在人工智能的幫助下得到解決。我們需要調整舊的法律並採用新的法律— 就像現有的反欺詐法律必須適應網絡世界一樣。

在這篇文章中,我將重點關注已經存在或即將存在的風險。我不會討論當我們開發一個可以學習任何主題或任務的人工智能時會發生什麼,這與今天的專用人工智能不同。無論我們是在未來十年還是一個世紀內到達這一時刻,社會都需要考慮深刻的問題。如果超級人工智能設定了自己的目標怎麼辦?如果它們與人類發生衝突怎麼辦?我們是否應該製造一個超級人工智能?

然而,對這些長期風險的思考不應以眼前更直接的風險為代價。

AI 生成的深度造假和錯誤信息可能會破壞選舉和民主

利用技術傳播謊言和不實信息並不是什麼新鮮事。幾個世紀以來,人們一直通過書籍和傳單這麼做。隨著文字處理器、激光打印機、電子郵件和社交網絡的出現,這一切變得更加容易。

人工智能解決了偽造文本的問題,並對其進行了擴展,使幾乎任何人都可以製作偽造的音頻和視頻,即所謂的深度偽造(Deepfake)。如果你收到一條語音消息,聽起來像是你的孩子在說“我被綁架了,請在接下來的10 分鐘內向此銀行帳戶發送1,000 美元,並且不要報警”,它所產生的可怕情感衝擊力將遠遠超過一封說著同樣內容的電子郵件。

從更大的範圍看,人工智能生成的深度造假可能被用來試圖影響選舉。當然,對選舉的合法獲勝者產生懷疑並不需要復雜的技術,但人工智能將使其變得更加容易。

現在已經出現了偽造知名政客鏡頭的虛假視頻。試想一下,在大選當天早上,一段顯示某位候選人搶劫銀行的視頻在網上瘋傳。這是假的,但新聞機構和競選團隊花了幾個小時才證明這一點。有多少人會看到這段視頻並在最後一刻改變投票?這可能會使天平傾斜,尤其是在選情膠著的情況下。

最近,OpenAI 聯合創始人Sam Altman 在美國參議院委員會作證時,兩黨參議員都談到了人工智能對選舉和民主的影響。我希望這個話題能繼續被提上每個人的議程。

我們當然還沒有解決錯誤信息和深度造假的問題。但有兩件事讓我持謹慎樂觀的態度。一是人們有能力學會不輕信一切表面價值。多年來,電子郵件用戶深陷詐騙風波,有人會冒充尼日利亞王子許諾分享信用卡號碼,以換取巨額回報。但最終,大多數人學會了三思而後行。隨著詐騙手段越來越高明,許多目標也變得越來越狡猾。我們需要為深度偽造建立同樣的能力。

另一件讓我覺得充滿希望的事情是,人工智能可以幫助識別深度偽造以及製造深度偽造。例如,英特爾已經開發出一種深度偽造檢測器,而政府機構DARPA 也正在研發識別視頻或音頻是否被篡改的技術。

這將是一個循環往復的過程:有人會找到檢測造假的方法,有人會想出對付造假的辦法,有人會開發出反制措施,如此循環往復。這不會是完美的,但我們也不至於束手無策。

AI 將使攻擊人類和政府變得更加容易

如今,當黑客希望找到軟件中的可利用漏洞時,他們會通過“蠻力”來實現— 編寫代碼,對潛在的弱點進行攻擊,直到發現漏洞為止。這需要走很多彎路,因此需要時間和耐心。

想要對抗黑客的安全專家也必須這麼做。你在手機或筆記本電腦上安裝的每一個軟件補丁,都像徵著大量時間的搜索。

AI 模型將通過幫助黑客編寫更有效的代碼來加速這一過程。他們還能夠利用個人的公共信息,如工作地點和朋友等,開發出比現在更先進的網絡釣魚攻擊。

好消息是,人工智能是把雙刃劍。政府和私營部門的安全團隊需要擁有最新的工具,以便在犯罪分子利用安全漏洞之前發現並修復它們。我希望軟件安全行業能夠擴大他們在這方面已經開展的工作,這應該是他們最關心的問題。

當然,這也是為什麼我們不應該像某些人建議的那樣,試圖暫時阻止人們實施人工智能的新發展。網絡犯罪分子不會停止製造新工具。想要利用人工智能設計核武器和生物恐怖襲擊的人也不會停止。阻止他們的努力需要以同樣的速度繼續下去。

在全球層面還有一個相關的風險:人工智能的軍備競賽,這種人工智能可以用來設計和發動針對其他國家的網絡攻擊。每個國家的政府都希望擁有最強大的技術,以阻止對手的攻擊。這種“不讓任何人搶先”的動機可能會引發一場製造日益危險的網絡武器的競賽。每個人的處境都會變得更糟。

這是一個可怕的想法,但我們有歷史為鑑。儘管世界核不擴散機制存在缺陷,但它阻止了我們這一代人在成長過程中非常害怕的全面核戰爭。各國政府應考慮建立一個類似於國際Atom能機構的全球人工智能機構。

AI 將奪走人們的工作

未來幾年,人工智能對工作的主要影響將是幫助人們更高效地完成工作。無論是在工廠工作,還是在辦公室處理銷售電話和應付賬款,都將如此。最終,人工智能將能夠很好地表達自己的想法,為你撰寫電子郵件並管理收件箱。通過簡單的英語或任何其他語言撰寫請求,你就可以得到你想要的PPT。

正如我在二月份的文章中所說,生產力提高對社會有益。它讓人們有更多的時間在工作和家庭中做其他事情。對助人為樂者的需求永遠不會消失— 比如教書育人、照顧病人和贍養老人。但是,在我們向人工智能驅動的工作場所過渡的過程中,一些工人確實需要支持和再培訓。這是政府和企業的職責所在,它們需要妥善管理,以免工人被拋在時代之後— 避免出現美國製造業工作崗位減少時發生的對人們生活的干擾。

此外,請記住,這並不是新技術第一次導致勞動力市場發生重大變化。我不認為人工智能的影響會像工業革命那樣巨大,但它肯定與個人電腦引入時期的影響類似。文字處理應用軟件並沒有消除辦公室工作,但卻永遠地改變了辦公室工作。雇主和員工必須適應,他們也確實做到了。人工智能帶來的轉變將是一個崎嶇的過渡,但我們完全有理由相信,我們能夠減少對人們生活和生計的干擾。

AI 會繼承我們的偏見,並胡編亂造

幻覺——指的是人工智能自信地提出一些根本不符合事實的主張——通常是因為機器不了解你的請求而發生的。讓AI 寫一個去月球度假的小故事,它可能會給你一個富有想像力的答案。但如果讓AI 幫你撰寫坦桑尼亞的旅行計劃,它可能會把你送到一家根本不存在的酒店。

人工智能的另一個風險是,它反映甚至加劇了人們對某些性別、種族、民族等的偏見。

要理解為什麼會出現幻覺和偏見,重要的是要知道當今最常見的人工智能模型是如何工作的。它們本質上是非常複雜的代碼版本,可以讓你的電子郵件應用程序預測你將要鍵入的下一個單詞:它們掃描海量文本— 在某些情況下,幾乎是網上所有可用的文本— 然後進行分析,找出人類語言中的模式。

當你向人工智能提出一個問題時,它會查看你使用的單詞,然後搜索經常與這些單詞相關聯的文本塊。如果你寫下“列出PancakeSwap的配料”,人工智能可能會注意到“麵粉、糖、SALT、發酵粉、牛奶和雞蛋”等詞經常與該短語一起出現。然後,根據它所知道的這些單詞通常出現的順序,它會生成一個答案。 (以這種方式工作的人工智能模型使用了所謂的Transformer。GPT-4 就是這樣的模型之一)。

這個過程解釋了為什麼人工智能可能會產生幻覺或出現偏差。它沒有你提出的問題或你所說的內容的上下文。如果你告訴AI 它犯了一個錯誤,它可能會說“對不起,我打錯了”。但這只是幻覺,實際上它什麼也沒輸入。它之所以這麼說,是因為它已經掃描了足夠多的文本,知道“對不起,我打錯了”是人們在別人糾正他們之後經常寫的一句話。

同樣,AI 模型也會繼承它們所訓練的文本中蘊含的偏見。如果一個人讀了很多關於醫生的文章,而文章大多提到男性醫生,那麼它的答案就會假定大多數醫生都是男性。

儘管一些研究人員認為幻覺是一個固有的問題,但我並不同意。我很Optimism地認為,隨著時間的推移,AI 模型可以學會區分事實與虛構。例如,OpenAI 就在這方面做了很有前途的研究。

包括艾倫圖靈研究所(Alan Turing Institute)和美國國家標準與技術研究院(National Institute of Standards and Technology)在內的其他組織也在致力於解決偏見問題。一種方法是在人工智能中構建人類價值觀和更高層次的推理。這類似於有自我意識的人類的工作方式:也許你認為大多數醫生都是男性,但你對這一假設有足夠的意識,知道你必須有意識地與之鬥爭。人工智能也可以以類似的方式運行,特別是如果模型是由來自不同背景的人設計的。

最後,每個使用人工智能的人都需要意識到偏見問題,並成為知情的用戶。你要求人工智能起草的論文可能會充滿偏見和事實錯誤。你需要檢查人工智能的偏見以及你自己的偏見。

學生不會學習寫作,因為AI 會替他們完成寫作

許多教師擔心AI 會破壞他們與學生的合作。在一個只要能上網,任何人都能用AI 寫出一篇可圈可點的論文初稿的時代,有什麼能阻止學生將其作為自己的作品上交呢?

已經有AI 工具能夠學會分辨文章是由人所寫還是由電腦所寫,這樣教師就能分辨出學生是否在自己做作業。但一些老師並沒有試圖阻止學生在寫作中使用人工智能——他們實際上鼓勵這麼做。

今年1 月,一位名叫Cherie Shields 的資深英語教師在《教育周刊》(Education Week)上撰文,介紹了她如何在課堂上使用ChatGPT。 ChatGPT 幫助她的學生完成了從開始寫作到撰寫提綱的所有任務,甚至還為他們的作業提供了反饋。

“教師必須接受人工智能技術,將其作為學生可以使用的另一種工具,”她寫道。 “就像我們曾經教學生如何進行正確的Google 搜索一樣,教師應該圍繞ChatGPT 機器人如何協助論文寫作設計清晰的價格。承認人工智能的存在並幫助學生使用它可以徹底改變我們的教學方式。”並不是每位教師都有時間學習和使用新工具,但像Cherie Shields 這樣的教育工作者提出了一個很好的論點,即那些有時間的教師將受益匪淺。

這讓我想起了上世紀七八十年代電子計算器開始普及的時候。一些數學老師擔心學生會停止學習基本算術,但另一些老師則接受了這項新技術,並將重點放在了算術背後的思維能力上。

AI 還可以幫助寫作和批判性思維。特別是在早期,當幻覺和偏見仍然是一個問題時,教育工作者可以讓AI 生成文章,然後與學生一起檢查事實。我資助的可汗學院(Khan Academy)和開放教育資源項目(OER Project)等非營利性教育機構為教師和學生提供免費的在線工具,這些工具非常強調對論斷的檢驗。沒什麼技能比知道如何辨別真假更重要了。

我們確實需要確保教育軟件有助於縮小成績差距,而不是使其變得更糟。如今的軟件主要面向那些已經有學習動力的學生。它可以為你制定學習計劃,為你指出好的資源,並測試你的知識。但是,它還不知道如何吸引你去學習你還不感興趣的科目。這是開發人員需要解決的一個問題,以便讓所有類型的學生都能從人工智能中受益。

下一步是什麼?

我相信,我們有更多的理由Optimism地認為,我們可以管理人工智能的風險,同時最大限度地發揮其效益。但我們需要快速行動。

各國政府需要增持人工智能方面的專業知識,以便制定應對這一新技術的知情法律法規。他們需要應對錯誤信息和深度偽造、安全威脅、就業市場的變化以及對教育的影響。僅舉一例:法律需要明確哪些使用深度偽造是合法的,以及如何標註深度偽造,以便每個人都能了解他們所看到或聽到的是假的。

政治領導人需要具備與選民進行知情的、深思熟慮的對話的能力。他們還需要決定在這些問題上與其他國家合作的程度,而不是單打獨鬥。

在私營領域,人工智能公司需要安全、負責任地開展工作。這包括保護人們的隱私,確保AI 模型反映人類的基本價值觀,最大限度地減少偏見,讓盡可能多的人受益,並防止技術被犯罪分子或恐怖分子利用。許多經濟領域的公司都需要幫助其員工過渡到以AI 為中心的工作場所,這樣就不會有人掉隊。客戶應始終知道他們是在與AI 而非人類互動。

最後,我鼓勵大家盡可能關注人工智能的發展。這是我們有生之年將看到的最具變革性的創新,健康的公共辯論將取決於每個人對這項技術、其好處和風險的了解。人工智能將帶來巨大的效益,而相信我們能夠控制風險的最好理由就是我們曾經做到過。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts