Deepfakes 威脅企業:為人工智慧產生的攻擊做好準備


《華爾街日報》 (WSJ) 於2024 年4 月3 日發表的一篇文章揭示了深度造假的驚人崛起及其對企業和金融機構造成破壞的潛力。隨著人工智慧(AI) 的快速發展,使語音和圖像的生成比以往任何時候都更加真實,惡意行為者現在將目標瞄準了擁有複雜深度偽造技術的企業。

紐約人壽首席資訊長比爾卡西迪表示,詐騙電話一直是一個令人擔憂的問題,但人工智慧模型模仿個人語音模式並透過電話發出指令的能力帶來了全新的風險。 《華爾街日報》的報告強調,銀行和金融服務供應商是最早面臨這些威脅的國家之一,畢馬威美國網路主管凱爾·卡佩爾(Kyle Kappel) 強調了這一領域的快速發展。

卡西迪告訴《華爾街日報》:

「總是有詐騙電話打進來。但是這些電話的能力 [AI] 現在模型可以模仿一個人的實際聲音模式,向用電話的人發出指示做某事——這類風險是全新的。 」

文章引用了OpenAI 最近的一次演示,展示了可以從短短15 秒的剪輯中重現人聲的技術(語音引擎)。儘管OpenAI 選擇在更好地理解潛在的濫用風險之前不公開發布該技術,但其影響是顯而易見的。不良行為者可以利用人工智慧產生的音訊來操縱金融機構使用的語音身份驗證軟體來驗證客戶並授予帳戶存取權限。 《華爾街日報》的報導提到,大通銀行在一次實驗中成為人工智慧生成聲音的受害者,儘管該銀行表示需要額外資訊才能完成交易和財務請求。

身分驗證平台Sumsub 的報告顯示了Deepfake 問題的嚴重性,該報告顯示2023 年金融科技領域的Deepfake 事件與前一年相比增加了700%,令人震驚。為此,各公司正努力實施更強大的安全措施,以應對即將到來的人工智慧生成攻擊浪潮。

例如,紐約人壽的卡西迪正在與該公司的創投集團合作,尋找專門用於打擊深度造假的新創公司和新興技術。他認為,應對生成式人工智慧威脅的最佳防禦措施可能是生成式人工智慧本身的一種形式。

《華爾街日報》的文章也強調了人工智慧可能被濫用來產生假駕照照片以建立線上帳戶的情況。作為回應,西蒙斯銀行首席數位長亞歷克斯·卡里爾斯(Alex Carriles)調整了身份驗證協議。客戶現在必須透過銀行的應用程式拍攝駕駛執照,並在按照提示朝不同方向看時自拍,而不是上傳預先存在的照片。這種方法旨在阻止使用可能無法模仿這些特定動作的通用人工智慧深度偽造品。

卡里爾斯承認,在提供無縫用戶體驗和實施強大的安全措施以防止攻擊者利用系統之間取得平衡是一項挑戰。有趣的是,並非所有銀行都同樣擔心深度造假威脅。 KeyBank 資訊長Amy Brady 認為,考慮到目前與深度造假相關的風險,該銀行推遲採用語音認證軟體是一種幸運。布雷迪表示,在更有效的偵測冒充工具出現之前,她不會追求語音身分驗證軟體的實施。

資訊來源:由0x資訊編譯自CRYPTOGLOBE。版權所有,未經許可,不得轉載

Total
0
Shares
Related Posts