作者Victoria Lyapota 閱讀時間2 分鐘發布日期12/10/2023 更新日期12/10/2023
社群媒體分析公司Graphika 表示,「AI 剝離」的使用正在成長。
該做法涉及使用經過微調的生成人工智慧(AI)工具,以從用戶提供的圖像中排除服裝。
報告稱,Graphika 統計了Reddit 和X 上包含34 個提供NCII 綜合服務的網站和52 個Telegram 頻道推薦連結的評測和貼文數量,2022 年這一數字為1,280 條,高於今年的32,100 條,相當於與去年相比,數量增加了2408.%。
NCII 的合成服務涉及使用人工智慧工具創建非自願親密圖像(NCII),通常涉及在未經描繪個人同意的情況下創建露骨內容。
Graphika 表示,這些人工智慧工具使許多供應商能夠輕鬆且經濟高效地大規模創建真實的露骨內容。
如果沒有這些提供者,客戶將面臨管理自己的圖像分發模型的負擔,這既耗時又可能昂貴。
Graphika 警告說,人工智慧剝離工具的日益使用可能會導致虛假露骨內容的產生,並導致針對性追蹤、性勒索和製作兒童性虐待材料(CSAM) 等問題。
雖然人工智慧脫衣舞孃傾向於關注圖像,但人工智慧也被用來使用名人的圖像創建深度偽造視頻,包括YouTube 角色野獸先生和好萊塢演員湯姆漢克斯。
相關:微軟因OpenAI 交易結構面臨英國反壟斷調查
英國網路觀察基金會(IWF) 在10 月發布的另一份報告中指出,僅一個月時間就在一個暗網論壇上發現了超過20,254 張虐待兒童的圖片。 IWF 警告稱,人工智慧生成的兒童色情內容可能會「淹沒」網路。
IWF 警告說,使用人工智慧生成圖像的進步使得區分假色情內容和真實圖像變得更加困難。
在6 月12 日的一份報告中,聯合國稱人工智慧媒體對資訊完整性構成「嚴重且緊迫」的威脅,尤其是在社群媒體上。歐洲議會和理事會談判代表於12 月8 日星期五就歐盟人工智慧使用規則達成協議。
資訊來源:由0x資訊編譯自CRYPTOHAMSTER。版權歸作者Victoria Lyapota所有,未經許可,不得轉載