當使用更了解人口多樣性的算法時,深膜檢測會有所改善


Deepfakes – 本質上以非常可信的方式將單詞放在別人的嘴裡– 隨著白天而變得越來越複雜,並且越來越難以發現。最近的幕後例子包括泰勒·Swift(Taylor Swift)裸體圖像,總統喬·拜登(Joe Biden)的錄音告訴新罕布什爾州居民不要投票,以及烏克蘭總統沃羅迪米爾·澤倫斯基(Volodymyr Zelenskyy)的錄像帶,呼籲他的部隊放下手臂。

儘管公司創建了探測器來幫助發現深層攝影,但研究發現,用於訓練這些工具的數據中的偏見可能導致某些人口統計組是不公平的。

一隻手在屏幕前握著帶有文字的智能手機,一個男人在講台前2022年,烏克蘭總統沃羅迪米爾·澤倫斯基(Volodymyr Zelensky)的深層表現呼籲他呼籲他的部隊放下手臂。
Olivier Douliery/AFP通過Getty Images

我和我的團隊發現了新的方法,可以提高用於檢測深擊的算法的公平性和準確性。

為此,我們使用了大量的面部偽造數據集,使像我們這樣的研究人員訓練我們的深入學習方法。我們圍繞了最先進的X受檢測算法建立了我們的工作,該算法是深層檢測系統的廣泛使用的基礎,並且可以準確地檢測到91.5%的Deepfakes。

我們創建了兩種旨在鼓勵公平的獨立深泡檢測方法。

人們專注於通過通過性別和種族標記數據集來使算法更加了解人口多樣性,以最大程度地減少代表性不足的群體中的錯誤。

另一個目的是通過將注意力中心化在人眼看不到的特徵上,而不依賴人口標籤。

事實證明,第一種方法最有效。它的準確率從91.5%的基線提高到94.17%,這比我們的第二種方法以及我們測試的其他幾種方法更大。此外,它提高了準確性的同時增強公平性,這是我們的主要重點。

我們認為,如果公眾要接受人工智能技術,公平和準確性至關重要。當諸如chatgpt“幻覺”之類的大型語言模型時,它們可以使錯誤的信息永存。這會影響公眾的信任和安全。

同樣,如果無法快速,準確地檢測到DeepFake圖像和視頻,則可能會破壞AI的採用。改善這些檢測算法的公平性,以使某些人群群體不會受到不成比例的傷害,這是對此的關鍵方面。

我們的研究解決了DeepFake檢測算法的公平性,而不僅僅是試圖平衡數據。它提供了一種新的算法設計方法,將人口公平視為核心方面。對話

計算機科學與工程學教授Siwei Lyu; UB Media Forensic Lab主任,布法羅大學和Yan JU博士。布法羅大學計算機科學與工程學候選人

本文根據創意共享許可證從對話中重新出版。閱讀原始文章。

資訊來源:由0x資訊編譯自THENEXTWEB。版權歸原作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts