總長DR
ChatGPT 的流行吸引了網路犯罪分子,導致惡意軟體和網路釣魚攻擊。 2023 年,ChatGPT 面臨資料洩露,暴露了其安全漏洞。用戶無意中洩露敏感數據,凸顯了防止濫用的挑戰。
在不斷發展的技術領域,ChatGPT 迅速崛起,自2023 年1 月推出以來僅兩個月內就擁有破億活躍用戶記錄。但是,隨著組織越來越多地將這種強大的工具整合到他們的營運中,安全風險的陰影變得越來越大。從威脅行為者的微妙操縱到重大資料外洩和員工無意中的濫用,潛在的陷阱多種多樣且影響深遠。
ChatGPT 安全風險和不可預見的危險
作為歷史上成長最快的應用程序,ChatGPT 不可避免地引起了尋求利用其功能的網路犯罪分子的注意。雖然平臺本身仍然安全,但越來越多的證據表明威脅行為者正在利用ChatGPT 進行惡意目的。 Check Point Research 發現網路犯罪分子利用該平台開發資訊竊取惡意軟體並以前所未有的複雜性製作魚叉式網路釣魚電子郵件。
固有的挑戰在於,旨在發現製作不當的電子郵件中的異常情況的傳統安全意識培訓在涉及ChatGPT 時變得不太有效。該平台可以將一封寫得不好的電子郵件轉變成令人信服的郵件,消除常見的危險信號。威脅參與者可以跨語言無縫翻譯網路釣魚電子郵件,從而逃避基於語言的過濾器。其影響是深遠的,因為組織現在必須調整其安全措施,以應對這種新的、人工智慧驅動的網路威脅途徑。
ChatGPT 核心漏洞
令人震驚的是,ChatGPT 本身也成為2023 年資料外洩的受害者,事件源自於開源庫中的錯誤。 OpenAI 透露,此次洩漏在特定的9 小時視窗內無意中暴露了1.2% 的活躍ChatGPT 訂閱者的付款相關資訊。鑑於該平台擁有龐大的用戶群,它已成為潛在「水坑」攻擊的一個有吸引力的目標,網路犯罪分子試圖利用隱藏的漏洞。
這事件強調了審查廣泛使用的人工智慧平台安全架構的重要性。組織應該保持警惕,認識到此類平台的漏洞可能會產生區塊鏈反應,影響數百萬用戶。為了保護敏感資料和維持用戶信任,加強ChatGPT 抵禦潛在漏洞的緊迫性變得至關重要。
ChatGPT 的運作前提類似於社群媒體——一旦輸入訊息,它就會成為平台知識庫的一部分。這項特性在防止員工濫用方面提出了獨特的挑戰,他們可能會透過將敏感資料貼到ChatGPT 來尋求幫助而無意中暴露敏感資料。至關重要的是,ChatGPT 保留用戶輸入,為意外資料外洩創造了潛在途徑。
為了降低這種風險,OpenAI 推出了ChatGPT Enterprise,這是一項付費訂閱服務,可確保客戶提示和公司資料不用於訓練模型。無法保證這項服務的採用,組織必須應對確保員工堅持正確使用的挑戰。
如何以安全的方式利用ChatGPT
為了應對這些新出現的風險,一些組織選擇徹底阻止ChatGPT 的使用,從長遠來看,這可能會阻礙企業的整體績效。但是,透過正確的方法,可以安全地利用ChatGPT 來釋放其潛在優勢。人工智慧擅長挑戰人類效率的任務,特別是在處理大型資料集以提取相關性和主題方面。
敦促組織採用多層安全策略,而不是阻止該平台。 OpenAI 的訂閱服務是朝著正確方向邁出的一步,但組織也應該考慮其他工具。 Menlo Security 建議隔離技術,不僅作為DLP 工具,還用於記錄會話數據,確保遵守ChatGPT 等平台上的最終用戶策略。這種基於雲端的方法可防止惡意負載到達最終用戶設備,從而提供針對潛在威脅的強大保護層。
當組織探索人工智慧整合的前景時,理解和解決與ChatGPT 相關的安全風險至關重要。透過認識到威脅行為者帶來的看不見的危險、防禦潛在的違規行為以及實施防止員工濫用的策略,組織可以安全地利用ChatGPT,釋放其變革潛力,同時保護敏感資訊並維持用戶信任。
免責聲明。所提供的資訊並非交易建議。 Cryptopolitan.com 對根據本頁提供的資訊進行的任何投資不承擔任何責任。我們強烈建議在做出任何投資決定之前進行獨立研究和/或諮詢合格的專業人士。
資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權歸作者Aamir Sheikh所有,未經許可,不得轉載