利用人工智慧進行詐欺:打擊類型與方法


遊客警告使用AI網路釣魚AI 2

人工智慧顯著簡化了工作流程並提高了生產力。 然而,它也常常成為詐騙者的工具,因為它可以讓你廉價而有效率地創建音訊、視訊、訊息和深度偽造品,TechCrunch 寫道。

我們討論使用人工智慧進行欺騙的流行方法以及打擊攻擊者的選項。

複製家人和朋友的聲音

語音合成已經存在了幾十年,但由於生成式人工智慧的發展,詐欺者可以僅用幾秒鐘的音訊來偽造。 任何公開廣播的人的聲音(例如新聞報導或YouTube 影片中的聲音)都可以被複製。

欺詐者有能力偽造潛在受害者的朋友或親戚的令人信服的虛假版本。 該出版物指出,經常使用尋求幫助的方式。 例如,父母可能會收到來自「兒子」的未知號碼的語音郵件,兒子談論在旅行時偷東西並要求他們匯款。

今年一月,一名身份不明的人克隆了美國總統拜登的聲音,並向新罕布夏州的選民發出了一系列呼籲,呼籲抵制投票。 因此,聯邦通訊委員會提議對虛假電話處以600 萬美元的罰款。

又如:在美國,一名體育老師被指控使用深度偽造聲音陷害學校校長並導致校長被解僱。 然而,獨立專家認定該音訊是捏造的,因為它具有「平淡的音調、異常清晰的背景,並且沒有一致的呼吸聲或停頓」。

如何應對語音克隆?

科技已經發展到如此程度,辨識假聲音變得極為困難。 有時即使是專家也無法做到這一點。

TechCrunch 建議,任何來自未知號碼、電子郵件地址或帳戶的內容都應自動被視為可疑。 如果有人自我介紹為朋友或親戚,則值得透過其他溝通管道聯繫此人。

個人化網路釣魚和垃圾郵件

人工智慧可讓您更快地產生不同語言的文本,包括適合特定人員的文本。 安全公司SlashNext 指出,電子郵件網路釣魚攻擊在過去一年增加了856%,自2022 年推出ChatGPT 以來增加了4,151%。

據該出版物稱,個性化信件尤其危險。 由於個人資料外洩經常發生,其中大多數都是公開的。 詐欺者可以利用有關最近位置、購買或習慣的信息,並且語言模型將在幾秒鐘內編寫數千封電子郵件。 記者舉了一個可能的例子:

“嗨,多麗絲我來自Etsy 推廣團隊。 您最近感興趣的產品有50% 折扣當您使用此鏈接時,可以免費送貨到您的貝靈厄姆地址。”

文章稱,這樣的信件看起來似乎很有道理,而且神經網路可以為不同的人大量創建它們。

如何處理垃圾郵件?

不要點擊可疑連結或下載奇怪的檔案。 如果您無法100% 確定寄件者的真實性和身份,最好不要打開信件或其中的連結。

身分欺騙攻擊

利用個人資料洩露,詐騙者可以登入某些資源/交易所的帳戶。 該出版物表明,神經網路能夠創建用戶身份的虛假副本,並使用個人資訊聯繫支援服務,請求恢復帳戶。

通常,要恢復訪問,需要出生日期和電話號碼等資料。 TechCrunch 強調,有時你需要自拍,但人工智慧可以完成這項任務。

如何面對身分冒充詐騙?

使用多重身份驗證。 您帳戶上的任何可疑活動都會廣播到您的電子郵件或直接發送到您的手機。

深度造假和勒索

人工智慧允許您將任何人的臉部疊加到另一個人的身體上,從而製作出可信的照片(或影片)。 此類詐欺用於勒索或傳播假新聞。

例如,今年1 月,香港一家跨國公司的一名員工在打電話給「同事」後,發現對方是Deepfake,然後將2,500 萬美元轉給了詐騙者。 受害者收到了一份據稱來自該公司財務總監的邀請,參加一次線上視訊會議,計劃在會議上討論某項機密交易。

所有參加電話會議的「公司高層」都是Deepfake 模仿的。 他們說服該員工將2,550 萬美元從公司資金轉入五個銀行帳戶。

如何應對Deepfake 和勒索?

與其滿足勒索者的要求,不如聯絡警方和託管公司,要求刪除照片。

讓我們回想一下,六月,Elliptic 專家注意到人工智慧在加密貨幣犯罪中的使用有所增加。

6 月初,一位綽號為DogeDesigner 的狗狗幣圖形設計師在YouTube 上發現了一段直播,其中包含特斯拉和SpaceX 首席執行官 Elon Musk 的Deepfake 內容,宣傳加密貨幣騙局。

資訊來源:由0x資訊編譯自FORKLOG。版權歸作者ForkLog所有,未經許可,不得轉載

Total
0
Shares
Related Posts