有許多激發奇蹟的尖端技術,並且有人正在起訴它們。在這種情況下,StableDiffusion 模型的開發者被起訴。 StableDiffusion 是一種完全開源且免費使用的AI,可以根據文本請求生成圖形。你可以使用它來創建逼真的圖像或受其他藝術家風格啟發的圖像。
人工智能有可能從數字媒體(例如社交媒體帳戶)中提取個人圖像和信息,從而揭示一個人的私生活
但是,很明顯,藝術家們並不欣賞這種立場; ArtStation,一種藝術家的Instagram,甚至發起了一場“禁止人工智能”的罷工。他們提出的關鍵論點是,圖像上的模型訓練不是StabilityAI 的財產。想像一下,有人在與朋友聚會時為你拍了一張快照並將其上傳到Instagram。然後,人工智能會處理它,照片會被模型分析並用於訓練。
模型可能會學習並記住某些數據和特定圖像,這是一個問題。換句話說,勒索者可以查詢有關與朋友聚會的信息,並從中合成你上傳的圖像。這已經有點令人擔憂了,尤其是考慮到StableDiffusion 的訓練集包含來自互聯網的超過50 億張圖片,其中包括曾經公開的私人圖片。不幸的是,私人圖像的濫用確實發生了。 2013 年,一名醫生拍下了一名患者的照片,照片出現在診所的網站上。
原始照片和創建的照片比較中的輪廓是相同的。
這是一篇文章,演示瞭如何使用各種AI 模型獲取圖像以及它們與訓練圖像的匹配程度(劇透:有一些噪音,但通常非常相似)。這些辯護適用於上述行為,在這種情況下,陪審團將以不同方式看待這些模型,因為我們可以聲稱他們記住並複制了東西(但無權這樣做)。
然而,現在斷言“模型學習但什麼都沒有”還為時過早,因為正如我之前提到的,50 億次訓練只產生了100 張圖像(作者用手標記了前1000 個最相似的圖像最常見提示的幾代人,但大多沒有重複)。
閱讀有關人工智能的更多信息:
資訊來源:由0x資訊編譯自出MPOST。版權歸作者Damir Yalalov所有,未經許可,不得轉載