輕鬆盜走2,500 萬美元我們該如何防範人工智慧造假危機?


近幾個月來,人工智慧接連浮現,我們頻繁在新聞標題中看到如下字眼:AI 洩露了公司代碼,還根本就刪不掉;AI 軟體侵犯了用戶的人臉資訊隱私;某大模型產品被曝洩漏私密對話…等等。

然而,更為深刻的問題或許早在大型模型熱潮爆發之前就已經悄然存在:名為Deepfake 的深度造假技術嶄露頭角,透過深度學習將世界上的任何人無縫拼接到他們從未真正參與過的視頻或照片中,導致了」AI 換臉」這個詞彙在2018 年的火爆。

直至2024 年的今天,Deepfake 的潛在威脅仍未被有效遏制。

人工智慧詐騙已成現實,引人憂慮。

1995 年上映的動畫電影《攻殼機動隊》描繪過這麼一段劇情:名為「傀儡師」的人工智慧懂得冒充其他身份,迷惑和控制人類的思想和行為,這種能力使得它在網路和虛擬空間中變得無跡可尋。雖然這種情節只出現在電影中,但倘若你長久以來深受埃隆·馬斯克(Elon Musk)或薩姆·奧爾特曼(Sam Altman)等人的警告影響,難免會設想一旦人工智能放任自流,便能演變成對人類的「天網」式威脅。

《攻殼機動隊》傀儡師

慶幸的是,這項擔憂並未得到廣大人工智慧開發者們的普遍認同。許多學術界的人工智慧巨頭,如圖靈獎得主Joseph Sifakis 就曾在訪談中透露自己對這種想法的嗤之以鼻。目前,我們尚不具備能在馬路上安全行駛的人工智慧,更不必說與人類智慧相匹敵了。

但這絕不意味人工智慧無害。

AI 完全有可能成為迄今為止人類所創造出的最具破壞力的工具之一。關於這一點,近期一名不幸遭遇人工智慧詐騙的財務主管深有體會,其損失高達2500 萬美元,案發地不是在大洋彼岸,而是在離我們很近的香港特別行政區。面對這類人工智慧犯罪,我們是否有應對之策?

偷天換日

2 月5 日消息,根據港媒香港電台報道,某匿名財務總監接收到一封自稱源自其英國同僚的郵件,提出一項隱秘交易。這位財務總監並非輕信之人,初見即疑其為網路釣魚行為。

然而,寄件者堅持安排一場Zoom 視訊會議,當這位香港財務總監接入會議時,他看到並聽到了幾位熟識同事的面容與聲音。疑慮消除後,他們開始籌備交易,並按英國同僚指示,最終分15 次匯款2 億港幣(目前約1.84 億元人民幣),轉帳至5 個本地戶口。

直到另一位員工與總部核實時才發現異常,原來英國辦公室未曾發起此項交易,亦未收到任何款項。試想該財務長得知被騙後的極度懊悔與愧疚之情。調查後發現,該次視訊會議中唯一真實的參與者正是那位香港財務總監,其餘人員皆是由Deepfake 人工智慧技術模擬的英國財務總監及其他同事形象。

僅憑公開可獲取的少量數據、一套基礎的人工智慧程式以及狡猾的騙術,這群騙子就成功騙取了足以購置一艘豪華超級遊艇的巨額現金。

此刻或許有人會對這個故事嗤之以鼻,斷言這位財務總監過於馬虎,畢竟我們平時在抖音、b 站上看到的Deepfake “整活視頻”都易辨真假,很難做到以假亂真。

然而,實際情況可能並不如此簡單,最新研究表明,人們實際上無法可靠地識別Deepfake,這意味著大多數人在許多場合僅憑直覺判斷自己看到和聽到的東西。更令人不安的是,研究也揭示了人們更容易誤將Deepfake 影片當作真實情況而非虛假。換言之,如今的Deepfake 技術已十分高明,足以輕易欺騙觀眾。

深度學習+假

Deepfake 這個字是「深度學習」(Deep-learning)和「假冒」(Fake)兩個字的組合。

因此,Deepfake 技術的核心要素是機器學習,這使得以更低的成本快速製作出深度偽造內容成為可能。若要製作某人的 Deepfake 視頻,創作者首先會利用大量該人的真實視頻片段對神經網絡進行訓練,使其獲得對該人從多個角度和不同光照條件下外觀的逼真“理解”。隨後,創作者將訓練好的網路與電腦圖形技術結合,將此人的複製品疊加到另一人身上。

許多人認為,一類稱為生成對抗網路(GANs)的深度學習演算法將在未來成為Deepfake 技術發展的主要推動力。 GAN 產生的臉部影像幾乎無法與真人臉區分開來。首次針對Deepfake 領域的調查報告專門用一個章節討論了GANs,預示著它們將使任何人都能製作出精巧的Deepfake 內容。

2017 年底,名為「deepfakes」的Reddit 用戶將許多知名影星甚至政要的面孔用於色情影片轉換生成,並將其發佈到網路上。這類造假影片瞬間傳遍社群網絡,此後大量新的Deepfake 影片開始出現,對應的偵測技術直到幾年後才逐漸出現。

不過,也有正面例子。 Deepfake 第一次在銀幕上被觀眾所熟知是因為已故演員保羅沃克在《玩命關頭7》中的「復活」。 2023 年的賀歲電影《流浪地球2》也用CG 技術復現了廣受大眾喜愛的《達叔》吳孟達。但在以前,需要一整個工作室的專家們耗費一年的時間才能創造出這些效果。

如今,這個過程比以前更快,即使是對技術一竅不通的普通人,也可以在幾分鐘之內創造一個「AI 換臉」的影片。

對Deepfake 的擔憂導致了對策的大幅上漲。早在2020 年,包括Meta 和X 在內的社群媒體平台都禁止在其網路中使用類似的Deepfake 產品。各大電腦視覺和圖形會議上也邀請專家上台演講防禦方法。

既然Deepfake 犯罪者已經開始大規模地蒙蔽世人,我們又該如何反擊?

多重手段,防禦Deepfake 風險

首要策略是對人工智慧進行「投毒」。要製造逼真的Deepfake,攻擊者需要大量數據,包括目標人物眾多的照片、展示其面部表情變化的大量視訊片段及清晰的語音樣本。大部分Deepfake 技術利用個人或企業在社群媒體上公開分享的資料作為素材。

不過,現在已有諸如Nightshade 和PhotoGuard 之類的程序,能夠在不影響人類感知的情況下修改這些文件,從而讓Deepfake 失效。例如,Nightshade 透過誤導性處理,使得人工智慧誤判照片中的臉部區域,這種錯誤辨識恰恰能擾亂建構Deepfake 背後的人工智慧學習機制。

其次,對自身或所在企業在網路上發布的所有照片和影片進行此類防護處理,可有效阻止Deepfake 克隆。然而,這種方法並非萬無一失,它更像是一場持久戰。隨著人工智慧逐漸提高對篡改文件的辨識能力,反Deepfake 程式也需要不斷研發新的方法以維持其效能。

想建立起更堅固的防線,我們需要不再單一依賴易於被攻破的身份驗證方式。在本文的案例中,涉事的財務長將視訊通話視為確認身分的絕對依據,卻未能採取如撥打總部或英國分公司其他人員電話進行二次驗證等額外措施。實際上,已有部分程式利用私鑰加密貨幣技術來確保線上身分驗證的可靠性。採用多重身分驗證步驟,大幅降低此類詐欺的可能性,是所有企業應立即著手實施的措施。

因此,下次你身處視訊會議之中,或是接到同事、親友的來電時,請務必謹記,螢幕對面可能並非真人。特別是當對方要求你將2,500 萬美元秘密轉帳至一組聞所未聞的陌生銀行帳戶時,我們至少可以先打個電話給上司。

Total
0
Shares
Related Posts