3年內90%網絡內容或由AI編制,科技大公司如何阻止虛假信息?


來源:澎湃新聞

記者方曉實習生陳曉銳

·元數據或與數字圖像文件相關的信息,可以提供內容的基本細節,例如照片的拍攝時間和地點等。目前,許多科技公司都支持使用這項技術在其產品中對AI生成內容進行某種形式的標記。但在找到一個可靠的解決方案之前,事實核查只能靠人工審核來彌補不足。

·Witness的執行主任薩姆·格雷戈里認為,解決AI虛假信息的責任“需要落在那些設計這些工具、構建這些模型並發布它們的人身上。”目前社交媒體平台關於AI生成內容的條例還不夠詳細。

圖片來源:由無界AI工俱生成

主流的AI生成工具如ChatGPT、DALL-E、Midjourney降低了創建虛假圖像、視頻和文本的難度和成本,使網絡上的AI生成內容氾濫且難以分辨。為了讓用戶和平台區分內容真假及來源,谷歌、Adobe、微軟等科技公司正在探索如何應對這個問題。

截至目前,微軟將在兩款應用中添加水印和元數據功能;Adobe開發了一種可以跟踪AI編輯的內容憑據工具;谷歌將在圖片和文件中標記AI生成,並與Midjourney等合作。

然而,這些技術手段仍處於起步階段,在找到可靠的解決方案之前,事實核查只能靠人工審核來彌補不足。隨著AI生成內容產生的速度不斷加快,許多專業事實核查者要審核的內容已經遠遠超過人類可能處理的範圍。

為內容打上AI標籤

歐盟執法機構“歐洲刑警組織(Europol)”的一份報告預測,到2026年,互聯網上多達90%的內容可能是由AI創建或編輯的。反虛假信息平台NewsGuard表示,目前,已經有一些完全由AI生成的新聞信息網站出現,這些網站的數量比幾週前增加了近三倍。

一個人工智能生成的標題出現在TNewsNetwork.com上,這是一個匿名運營的新聞網站,於2023年2月註冊。

專家認為,一種使用元數據、水印等技術系統的新方法或許能夠幫助用戶辨別真假。元數據或與數字圖像文件相關的信息,可以提供內容的基本細節,例如照片的拍攝時間和地點等。目前,許多科技公司都支持使用這項技術在其產品中對AI生成內容進行某種形式的標記,並努力讓這些信息更加公開,以幫助用戶判斷內容的真實性。

例如,微軟在其年度Build大會上發布了給AI生成的圖片和視頻添加水印和元數據的新功能,旨在標記內容的來源和生成方式。這項功能將在未來幾個月內在微軟的Designer和Image Creator兩款應用中推出。

此外,設計工具開發者Adobe的內容真實性倡議組開發了一種名為內容憑據的工具,可以跟踪圖像何時被AI編輯。 Adobe將其描述為一個標籤,無論文件發布或存儲在哪裡,該標籤都會隨文件一起保存。例如,Photoshop的最新功能Generative Fill使用AI在現有圖像中快速創建新內容,內容憑據可以跟踪這些更改。

Adobe內容真實性倡議組高級主管安迪·帕森斯(Andy Parsons)說,“首先要知道這是什麼,在有意義的情況下,誰製造了它或它來自哪裡。”

谷歌在其I/O 2023開發者大會上也表示,未來幾個月內,谷歌圖片的AI生成結果下方將會附上類似於版權聲明的書面披露。此外,谷歌還將在其AI系統生成的圖像文件中標記元數據。即用戶在谷歌搜索中看到一個由谷歌AI系統生成的圖像時,它會在下方顯示類似於“由谷歌AI生成”的字樣。與此同時,該公司宣布,它將與Midjourney和攝影圖片網站Shutterstock等合作,讓他們自行標記谷歌搜索中的AI生成圖像。

此外,谷歌還在圖像搜索結果旁邊添加了一個“關於此圖像(About this image)”的功能,無論它們是否有AI標籤。用戶只需點擊即可看到谷歌首次索引這張圖片的時間,它可能首次出現的地方,以及它在網上出現過的其他地方。谷歌搜索公共聯絡員丹尼·沙利文(Danny Sullivan)指出,“這些工具未來將整合到谷歌搜索產品中,幫助人們更好地獲取和理解相關信息。”

谷歌演示人們如何使用“關於此圖像”獲得更多的背景信息。

建立統一的開放標準

除了推出AI產品的科技公司之外,其他行業巨頭也致力於如何給AI生成的內容貼上標籤。 2021年,包括微軟、Adobe、BBC和英特爾在內的一些大公司共同創建了名為C2PA(Coalition for Content Provenance and Authenticity)的聯盟,並製定了一個互操作的開放標準,讓各個公司能夠共享媒體的來源或所有權歷史。

例如,一個新聞媒體的攝影師可以標記一張特定圖片拍攝的時間、拍攝者,並讓出版商對其進行數字簽名。之後,編輯可以對照片進行修改,再次簽名並蓋上經過C2PA 標準驗證的真實性印章。這樣,你就知道這張照片是由一個人拍攝的,而不是由AI生成的,並且知道誰在何時對其進行了編輯。該技術使用密碼學來保護敏感信息的隱私。

C2PA於去年1月發布了第一個開放標準,此後,Adobe和微軟相應宣布將C2PA標準集成到其產品中,比如微軟的Image Generator和Designer,而Adobe則在其新的AI Firefly產品的內容憑證中使用C2PA標準。

“你現在能夠了解一件數字內容從始至終的來源和變化。”數字內容信任平台Truepic也是C2PA的成員之一,該公司的公共事務和影響力執行副總裁穆尼爾·易卜拉欣(Munir Ibrahim)表示。

易卜拉欣稱,C2PA組織正在探討是否要對內容證明的顯示方式進行統一規範。未來,C2PA證明可能像瀏覽器窗口裡URL旁證明鏈接安全的小鎖標誌一樣,用戶在看到擬定的C2PA圖標時,就能知道他們看到的圖像已經通過了來源驗證。

目前,是否採用C2PA標準由公司自行決定,並按照他們的意願標記經過驗證的內容。 “最大的挑戰是我們需要更多的公司加入這個標準。”易卜拉欣說。

除了元數據標籤之外,另一種方法是讓AI系統在內容上添加可見的水印。例如OpenAI在DALL-E圖像底部添加彩虹條。該公司表示,它也正在為文字生成工具ChatGPT開發一種水印版本。然而,相較於元數據標籤,水印很容易被移除。

此外,許多公司也採用事後檢測AI生成內容的技術。今年1月,OpenAI發布了一個工具,讓用戶交叉檢查一段文本,確定它是否由AI生成。但根據OpenAI自己的評估,這個工具並不完全可靠,只能正確識別評估中26%的AI生成文本。

面臨艱鉅挑戰

對於自動識別AI生成內容的技術平台來說,這只是起步階段。在找到一個可靠的解決方案之前,事實核查只能靠人工審核來彌補不足。例如,5月30日,推特曾發表公告稱採用眾包事實核查的方法鑑別AI生成的虛假信息。

人權與公民新聞網站Witness的執行主任薩姆·格雷戈里(Sam Gregory)稱,雖然像添加水印這樣的AI識別技術方案很有前途,但許多事實核查者仍然擔心在此期間AI可能帶來的虛假信息的猛烈襲擊。事實上,許多專業事實核查者要審核的內容已經遠遠超過人類可能處理的範圍。

“一個人是否會因為他無法識別一張AI生成的圖片而受到指責?或者一個事實核查者是否會被這種巨大的審核內容數量壓垮?”格雷戈里認為,解決AI虛假信息的責任“需要落在那些設計這些工具、構建這些模型並發布它們的人身上。”

此外,格雷戈里認為,目前社交媒體平台關於AI生成內容的條例還不夠詳細。

TikTok於2023年3月修訂了關於“合成內容”的最新規定,稱平台允許AI合成內容,但如果它顯示了真實場景,圖像必須用字幕、貼紙或其他方式明確披露。但該平台不允許合成內容包含任何非公共人物或18歲以下人士的肖像。 TikTok表示,它與行業非營利組織Partnership on AI等外部組織合作,就遵守負責任的AI實踐框架提供反饋。

“雖然我們對AI為創作者提供的創意機會感到興奮,但我們也堅定地致力於為其安全和透明使用制定保護措施。”TikTok發言人在一份聲明中說,“與我們行業中的大多數人一樣,我們將繼續與專家合作,監測AI識別技術的進展,並不斷調整我們的方法。”

除了TikTok,許多其他平台的政策可能也需要一些更新。目前,Meta(擁有Facebook和Instagram)和YouTube都只有關於防止AI生成內容誤導用戶的一般規則,但沒有澄清哪些用途是可以接受或不可以接受的。

“AI超越了任何個人、公司或國家的範疇,需要所有利益相關者的協作。”Meta在一份聲明中說,“我們正在積極監測新的趨勢,並努力調整現有的監管方法。”

完全鑑別AI生成內容的方法可能不會很快到來。目前,這些標記AI生成內容的新工具仍處於早期階段,但可以幫助降低風險。從技術上講,水印或元數據能夠被篡改。而且並非所有AI生成系統都願意披露它是AI生成的。此外,人們往往會忽視事實真相,而選擇相信符合他們個人信仰的謊言。

因此,要知道這些AI標籤能否改變人們的想法,需要更多的研究。 “有時,標籤並不像預期的那樣起作用。”紐約大學的約書亞·A·塔克(Joshua A. Tucker)認為,“我們需要測試這些解決方案,看看它們在遇到誤導性的AI內容時是否能夠改變人們的想法,以及披露什麼內容才能產生影響。”

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts