了解《紐約時報》與OpenAI 的法律糾紛


原因

當產生人工智慧(AI)系統產生與其訓練資料非常相似的結果時,這是侵犯版權還是系統有缺陷?繼這個問題之後,《紐約時報》最近對ChatGPT 的所有者OpenAI 提起了訴訟。

根據《紐約時報》報道,除了維基百科和包含美國專利記錄的資料集外,OpenAI 使用其網站上的內容比任何其他專有來源都多地訓練其人工智慧模型。然而,OpenAI 辯稱,《紐約時報》的投訴“毫無根據”,使用受版權保護的材料進行培訓是“合理使用”。

利害攸關的是什麼

分析家認為,這起訴訟可能會達成庭外和解,導致損害賠償、解僱或其他可能的結果。除了金錢補救措施或禁令(可以是臨時的、等待上訴的或上訴不成功後激活的)之外,對社會的影響可能是巨大的。

首先,如果法院的裁決有利於OpenAI,並指出在受版權保護的內容上教授人工智慧系統屬於合理使用,美國法律體係可能會遭受重大損失。國王學院的高級講師麥克·庫克用一個假設的場景進行了解釋。

他說,如果你使用人工智慧回覆電子郵件或為你撰寫任務,ChatGPT 本身就是實現目標的一種手段。然而,如果實現這一目標的唯一方法是使特定公司實體免受適用於其他所有人的法規的約束,那麼這應該引起我們的警惕。

《紐約時報》認為,這種豁免將威脅其經濟模式。這家流行媒體聲稱,如果OpenAI 繼續不受任何限制地對受保護資訊進行培訓,那麼對其和其他可用於訓練人工智慧系統的新聞組織的長期影響可能是災難性的。

這同樣適用於其他行業,例如電影、電視、音樂、文學和其他印刷媒體,受保護的內容在這些行業中是有利可圖的。相反,OpenAI 在發送給英國上議院通信和數位委員會的文件中表示,“如果不使用受版權保護的材料,就不可能訓練當今的頂級人工智慧模型。”

這家人工智慧公司也提到,雖然它可能會進行一項有趣的實驗,但將訓練資料限制在一個多世紀前的公共領域資源中不會產生滿足當前需求的人工智慧系統。

版權問題和“黑盒子”系統

雖然OpenAI 已採取行動阻止ChatGPT 及其其他產品輸出的受版權保護的內容,但沒有技術保證這種情況不會發生。 ChatGPT 和其他人工智慧模型被稱為「黑盒子」系統,因為工程師無法準確理解系統輸出生成背後的動機。

一旦人工智慧模型訓練完成,由於這種「黑盒子」系統以及ChatGPT 等頂級語言模型的教學方式,就無法從《紐約時報》或任何其他版權所有者那裡刪除資料。鑑於目前的技術和程序,如果ChatGPT 被禁止使用受版權保護的內容,OpenAI 將不得不從頭開始。

最終,這可能成本太高且效率低下,無法帶來好處。因此,OpenAI 承諾繼續努力消除反流“錯誤”,同時擴大與新聞業和媒體組織的關係。

可能的情況

對於人工智慧公司來說,最糟糕的情況將是受版權材料訓練的模型收入潛力的損失。此外,進行超級電腦模擬的人工智慧系統可能會使ChatGPT 等生成產品的商業發布變得非法。

儘管如此,對版權持有者來說最不利的結果將是法院判決允許不受限制地使用受版權保護的資料來訓練人工智慧系統。這樣的決定可以讓人工智慧企業自由傳播幾乎沒有改變的受版權保護的資料。同時,當最終使用者未達到法律規定的防止版權侵權的要求時,他們將承擔修改這些資料的法律責任。

貼文導航

資訊來源:0x資訊編譯自HERALDSHEETS。版權歸作者George Ward所有,未經許可,不得轉載!

Total
0
Shares
Related Posts