人們很難區分攝影機拍攝的影片和OpenAI Sora 產生的影片。各種報道。
在人工智慧模型公佈幾週後進行的HarrisX 調查中,大多數受訪者錯誤地識別了影片的作者。
調查結果。數據:HarrsX/Vareity。
調查參與者表示,美國當局應該通過一項法律,要求對人工智慧創建的內容進行標記。他們還表示需要規範所有格式,包括影片、圖像、文字、音樂、字幕和聲音。
此外,由於深度造假的潛在危險,人工智慧影片引發了許多問題。
「隨著生成人工智慧的複雜性不斷增加,人們對其影響的擔憂也在增加。 人們越來越多地呼籲對該技術進行適當的標記和監管。 該行業必須採取更多措施來防範詐騙者,並向受眾正確傳達其行為和目標,」HarrisX 研究主管Dritan Nesho 表示。
當受訪者被告知哪些影片是由神經網路創建時,他們被要求描述自己的情緒。反應分佈如下:
好奇心– 28%; 不確定性– 27%; 焦慮– 18%; 靈感– 18%; 恐懼– 2%。
儘管Sora的商業版本尚未推出,但已經引起了用戶的注意。研究人員表示,娛樂業的員工最擔心,因為該工具可能會影響就業人數。
回想一下,OpenAI 在二月推出了一種新的生成式人工智慧模型Sora,它能夠將文字轉換為影片。
在社群網路上訂閱ForkLog
發現文本中有錯誤?選擇它並按CTRL+ENTER
ForkLog 電子報:隨時掌握比特幣產業的脈動
資訊來源:由0x資訊編譯自FORKLOG。版權歸作者ForkLog所有,未經許可,不得轉載