人工智能可以提取敏感圖像並暴露我們的私生活


有許多激發奇蹟的尖端技術,並且有人正在起訴它們。在這種情況下,StableDiffusion 模型的開發者被起訴。 StableDiffusion 是一種完全開源且免費使用的AI,可以根據文本請求生成圖形。你可以使用它來創建逼真的圖像或受其他藝術家風格啟發的圖像。

人工智能可以提取敏感圖像並揭示你的私生活人工智能有可能從數字媒體(例如社交媒體帳戶)中提取個人圖像和信息,從而揭示一個人的私生活

但是,很明顯,藝術家們並不欣賞這種立場; ArtStation,一種藝術家的Instagram,甚至發起了一場“禁止人工智能”的罷工。他們提出的關鍵論點是,圖像上的模型訓練不是StabilityAI 的財產。想像一下,有人在與朋友聚會時為你拍了一張快照並將其上傳到Instagram。然後,人工智能會處理它,照片會被模型分析並用於訓練。

模型可能會學習並記住某些數據和特定圖像,這是一個問題。換句話說,勒索者可以查詢有關與朋友聚會的信息,並從中合成你上傳的圖像。這已經有點令人擔憂了,尤其是考慮到StableDiffusion 的訓練集包含來自互聯網的超過50 億張圖片,其中包括曾經公開的私人圖片。不幸的是,私人圖像的濫用確實發生了。 2013 年,一名醫生拍下了一名患者的照片,照片出現在診所的網站上。

原始照片和創建的照片比較中的輪廓是相同的。

這是一篇文章,演示瞭如何使用各種AI 模型獲取圖像以及它們與訓練圖像的匹配程度(劇透:有一些噪音,但通常非常相似)。這些辯護適用於上述行為,在這種情況下,陪審團將以不同方式看待這些模型,因為我們可以聲稱他們記住並複制了東西(但無權這樣做)。

然而,現在斷言“模型學習但什麼都沒有”還為時過早,因為正如我之前提到的,50 億次訓練只產生了100 張圖像(作者用手標記了前1000 個最相似的圖像最常見提示的幾代人,但大多沒有重複)。

閱讀有關人工智能的更多信息:

資訊來源:由0x資訊編譯自出MPOST。版權歸作者Damir Yalalov所有,未經許可,不得轉載

Total
0
Shares
Related Posts