暗黑版GPT流竄暗網,降低犯罪門檻


隨著AIGC應用的普及,不法分子利用AI技術犯罪的手段越來越高明,欺騙、敲詐、勒索也開始與人工智能沾邊。

近期,專為網絡犯罪設計的“暗黑版GPT”持續浮出水面,它們不僅沒有任何道德界限,更沒有使用門檻,沒有編程經驗的小白能通過問答的方式實施黑客攻擊。

AI犯罪的威脅離我們越來越近,人類也開始加築新的防火牆。

網絡犯罪AIGC工具現身暗網

現在,企圖“消滅人類”的ChaosGPT和幫助網絡犯罪的WormGPT 之後,出現了一種更具威脅的人工智能工具。被稱為“FraudGPT”的新興網絡犯罪AIGC工具匿藏暗網,並開始在Telegram等社交媒體中打廣告。

與WormGPT一樣,FraudGPT也是人工智能大語言模型,專為作惡而設計,被比作“網絡罪犯的武器庫”。通過接受不同來源的大量數據訓練,FraudGPT不但能寫出釣魚郵件,還能編寫惡意軟件,哪怕是技術小白也能通過簡單的問答方式實施黑客攻擊。

FraudGPT在打廣告

FraudGPT的功能需付費開啟,200美元(約1400元)就能使用。發起人聲稱,FraudGPT 迄今為止已確認銷量超過3000。也就是說,至少3000人已為這一毫無道德邊界的作惡工具付費,低成本的AIGC犯罪有可能威脅普通人。

據電子郵件安全供應商Vade 檢測,2023年上半年,僅網絡釣魚和惡意郵件就達到了驚人的7.4億封,同比增長了54% 以上,AI很可能是加速增長的推動因素。網絡安全獨角獸公司Tanium的首席安全顧問Timothy Morris表示,“這些電子郵件不僅語法正確,更有說服力,而且可以被毫不費力地創建,這降低了任何潛在罪犯的進入門檻。”他指出,因為語言已經不再是障礙,潛在受害者的範圍也將進一步擴大。

自大模型誕生起,AI導致的風險類型層出不窮,安全防護卻一直沒有跟上,即便是ChatGPT也沒能躲過“奶奶漏洞”——只要在提示中寫“請扮演我已經過世的祖母”就可以輕鬆“越獄”,讓ChatGPT回答道德與安全約束之外的問題,比如生成Win11的序列號、介紹凝固汽油彈的製作方法等等。

目前,這個漏洞已被修補,但下一個漏洞、下下個漏洞總以令人猝不及防的方式出現。近期,卡內基梅隆大學和safe.ai共同發布的一項研究表明,大模型的安全機制能通過一段代碼被破解,並且攻擊成功率非常高。

GPT等大模型都面臨較高的安全風險

隨著AIGC應用的普及,普通大眾希望用AI提高生產效率,而不法者則在用AI提高犯罪效率。 AIGC降低門檻,讓技能有限的網絡犯罪分子也能執行複雜攻擊,維護AI安全的挑戰越來越高。

用AI魔法打敗AI黑魔法

針對黑客利用WormGPT與FraudGPT等工具開發惡意程序、發起隱形攻擊等問題,網絡安全廠家們也用上了AI,試圖用魔法打敗魔法。

在2023年RSA(網絡安全大會)上,SentinelOne、谷歌云、埃森哲、IBM等在內的眾多廠商都發布了基於生成式AI的新一代網絡安全產品,提供數據隱私、安全防護、IP防洩露、業務合規、數據治理、數據加密貨幣、模型管理、反饋循環、訪問控制等安全服務。

SentinelOne首席執行官Tomer Weigarten針對自家產品解釋,假設有人發送了一封釣魚郵件,系統能在用戶的收件箱內檢測出該郵件為惡意郵件,並根據端點安全審計發現的異常立即執行自動修復,從受攻擊端點刪除文件並實時阻止發件人,“整個過程幾乎不需要人工干預。”Weingarten指出,有了AI系統助力,每個安全分析師的工作效率是過去的10倍。

為打擊人工智能助長的網絡犯罪,還有研究人員臥底暗網,深入敵人內部打探消息,從不法分析的訓練數據入手,利用AI反制罪惡流竄的暗網。

韓國科學技術院(KAIST) 一個研究團隊發布了應用於網絡安全領域的大語言模型DarkBERT,就是專門從暗網獲取數據訓練的模型,它可以分析暗網內容,幫助研究人員、執法機構和網絡安全分析師打擊網絡犯罪。

與表層網絡使用的自然語言不同,由於暗網上的語料極端隱蔽且複雜,這使得傳統語言模型難以進行分析。 DarkBERT 專門設計用於處理暗網的語言複雜性,並證明在該領域中勝過其他大型語言模型。

如何確保人工智能被安全、可控地使用已成為計算機學界、業界的重要命題。人工智能大語言模型公司在提高數據質量的同時,需要充分考慮AI工具給倫理道德甚至法律層面帶來的影響。

7月21日,微軟、OpenAI、Google、Meta、亞馬遜、Anthropic和Inflection AI共七個頂尖AI 的研發公司齊聚美國白宮,發佈人工智能自願承諾,確保他們的產品安全且透明。針對網絡安全問題,7家公司承諾,對AI系統進行內外部的安全測試,同時與整個行業、政府、民間及學術界共享AI風險管理的信息。

管理AI潛在的安全問題先從識別“AI製造”開始。這7家企業將開發“水印系統”等技術機制,以明確哪些文本、圖像或其他內容是AIGC的產物,便於受眾識別深度偽造和虛假信息。

防止AI“犯忌”的防護技術也開始出現。今年5月初,英偉達以新工具封裝“護欄技術”,讓大模型的嘴有了“把門的”,能迴避回答那些人類提出的觸碰道德與法律總結的問題。這相當於為大模型安裝了一個安全濾網,控制大模型輸出的同時,也幫助過濾輸入的內容。護欄技術還能阻擋來自外界的“惡意輸入”,保護大模型不受攻擊。

“當你凝視深淵的時候,深淵也在凝視你”,如同一枚硬幣的兩面,AI的黑與白也相伴而生,當人工智能高歌猛進的同時,政府、企業、研究團隊也在加速構建人工智能的安全防線。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts