和AI網聊10分鐘被騙430萬,真實詐騙案震驚全網,官方:AI詐騙成功率接近100%


來源:量子位

防不勝防,10分鐘就被AI騙走430萬

這是這兩天震驚全網的真實詐騙案件。

據包頭警方發布,一公司老闆接到朋友的微信視頻電話,由於長相和聲音確認都是“本人”,他絲毫沒有懷疑就把錢打了過去。

結果一問朋友,對方根本不知道此事。這人才知道,原來詐騙者DeepFake了他朋友的面部和聲音。

消息一出,直接衝上熱搜第一。網友們紛紛表示:離大譜啊不敢接電話了。

也有人提出質疑:AI這麼好訓練?這需要掌握個人的大量信息吧。

不過,雖說是看上去離譜的小概率事件,但據相關統計,AI技術新騙局來襲後,詐騙成功率竟接近100%。

畢竟連那些直播賣貨“楊冪”“迪麗熱巴”、B站歌手“孫燕姿”“林俊傑”都不是真的。

△圖源抖音@娛樂日爆社,疑似直播間用楊冪的AI換臉帶貨

10分鐘被AI騙走430萬

據微信號平安包頭介紹,一個月前,福州市一科技公司法人代表郭某,突然接到好友的微信視頻。

聊天過程中,這個“好友”透露,自己朋友在外地投標,需要430萬保證金,且公對公賬戶過賬,所以想用郭某公司的賬戶走一下賬。

背景介紹之後,“好友”就找郭某要了銀行卡號,而後甩出一張銀行轉賬底單的截圖告訴郭某,已經把錢打到了郭某的賬戶上。

結果因為已經視頻聊天以及各種“物證”,郭某並沒有過多懷疑,甚至也沒去核實錢款是否到賬。

幾分鐘之後郭某就分兩筆將錢打了個過去,本想去跟好友報備一下:“事情已經辦妥”。

然而,好友緩緩打出來一個問號。

好在郭某反應比較快,第一時間報警。於是在警方和銀行聯動下,僅用時10分鐘就成功攔截了330多萬元被騙資金。

有網友表示,AI正成為騙子高手新一代工具。

還有網友調侃道,我沒錢,哪個都騙不了我。 (等等,好友有錢也不行doge)

而在這起案件背後,核心涉及了AI換臉以及語音合成這兩個技術。

大眾所熟知的AI換臉方面,現在即便一張2D照片,就能讓口型動起來。據此前新華每日電訊消息,合成一個動態視頻,成本也僅在2元至10元。

當時涉案嫌疑人表示:“客戶”往往是成百上千購買,牟利空間巨大。

至於面向更精準、更實時的大型直播平台,視頻實時換臉的全套模型購買價格在3.5萬元,而且不存在延遲、也不會有bug。

至於像語音合成方面,技術效果也是越來越逼真,新模型和開源項目湧現。

前段時間,微軟新模型VALL·E炸場學術圈:只需3秒,就可以復制任何人的聲音,甚至連環境背景音都能模仿。

而具備語音合成功能的工具Bark,更是曾登頂GitHub榜首,除了聲色接近真人,還能加入背景噪音和高度擬真的笑聲、嘆息和哭泣聲等。

在各類社交網絡上,各種小白教程也層出不窮。

要是結合虛擬攝像頭,可能就更加防不勝防。

只需一個軟件應用程序,就可以在視頻通話中使用任意視頻資源。

△圖源微博@啞巴

點擊接通後,對方完全不會看到播放、暫停視頻等具體操作,只會看到視頻播放的效果,“接通後看到的就是美女了”:

△圖源微博@啞巴

這樣一來,不僅視頻可以通過虛擬攝像頭,隨意拍攝甚至更換,甚至連說話方式都可以真人定制:

△圖源微博@啞巴

核心技術門檻的降低,也就給了犯罪分子可乘之機。

AI新騙局成功率接近100%

事實上,AI加持下的新型網絡詐騙,並不止這一種操作。

無論是國內還是國外,都有不少用AI換臉的詐騙案例,小到在網絡購物、兼職刷單等方面騙點小錢,大到冒充客服、投資理財人員等身份,獲取銀行卡賬號密碼直接轉一大筆賬,都有出現。

在國內,據南京警方消息,此前就出現過一起被QQ視頻AI詐騙3000元的案例。

當事人小李表示,自己的大學同學小王通過QQ跟自己借3800元,稱自己很著急,因為表姐住院了。

小李懷疑了小王的身份,而小王很快給她傳來了一個4~5秒左右的動態QQ視頻,不僅背景在醫院,而且還打了聲招呼。

這讓小李打消了疑慮並轉了3000元,然而隨後發現對方已經將她刪除拉黑,發現視頻原來是AI偽造的。

目前包括北京反詐、武漢市反電信網絡詐騙中心等官方公眾號平台,都警告了AI技術新騙局的嚴重性,甚至表示“詐騙成功率接近100%”。

可別以為這些詐騙現像只在國內出現,國外的語音詐騙同樣花樣百出。

一種方式是用AI合成語音騙取電話轉賬。

據Gizmodo介紹,英國最近就同樣發生了一起涉及金額高達22萬英鎊(折合人民幣約192.4萬元)的詐騙案件。

一位當地能源公司的CEO,在不知情的情況下被騙子“DeepFake”了自己的聲音。隨後,騙子用他這段聲音,電話轉賬了22萬英鎊到自己的匈牙利賬戶。

據CEO表示,他後來自己聽到這段AI合成語音時都驚訝了,因為這段語音不僅模仿出了他平時說話的語調,甚至還帶有一點他的口癖,有點像是某種“微妙的德國口音”。

另一種則是用合成語音冒充親友身份。

據nbc15報導,美國一位名叫Jennifer DeStefano的母親,最近接到了一個自稱是“綁匪”的詐騙電話,對方稱劫持了她15歲的女兒,要求這位母親交出100萬美元的贖金。

電話那頭傳來了女兒的“呼救聲”,不僅聲音、就連哭聲都非常相似。幸運的是她的丈夫及時證明了女兒是安全的,這次詐騙才沒能成功。

現在,不僅是詐騙,在AI技術加持下,就連楊冪、迪麗熱巴們都在今天引發了熱議。

原來,這是商家們想出的新“搞錢之道”,那就是在直播的時候,用AI換臉等技術“Deepfake”一下楊冪、迪麗熱巴、Angelababy等明星的臉,這樣大家就會誤以為是明星本人在帶貨,從而拉升直播流量。

然而,這類行為目前還不能被直接判定為侵權。據21世紀經濟報導,北京云嘉律師事務所律師趙占領表示:

平台對於平台內商家的侵權行為不承擔直接侵權的責任,而是否構成幫助侵權,主要是看平台對於商家的侵權行為是否屬於明知或應知。
但對於如何判定平台對用戶、權利人的投訴是否明知或應知,在一般情況下很難認定。

顯然,在AI技術越來越火熱的當下,相關法律也還需要進一步完善。

One More Thing

就在昨天夜裡,最近火爆全網的“AI孫燕姿”本人,也就是歌手孫燕姿,出來回應了。

她發布了一篇名為《我的AI》的英文版文章,這是她團隊的中文翻譯全文:

然後,網友們看到後的評測是醬嬸的:

△圖源微信@南方都市報

參考鏈接:
[1]https://mp.weixin.qq.com/s/Ije3MyQxN-kkw4jCE5Wieg
[2]https://mp.weixin.qq.com/s/kcbNlaFe_-ebYNlfoGcIoA
[3]https://gizmodo.com/deepfake-ai-scammer-money-wiring-china-1850461160
[4]https://www.nbc15.com/2023/04/10/ive-got-your-daughter-mom-warns-terrifying-ai-voice-cloning-scam-that-faked-kidnapping/
[5]https://weibo.com/1796087453/JEaCeaOK6
[6]https://weibo.com/1420862042/4904325194975650

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts