ChatGPT熱潮之下虛假新聞、算法歧視、信息洩露的法律風險你了解嗎?

文:趙志東蔡佳雯

2022年底,美國科技初創公司OpenAI發布的智能聊天工具ChatGPT一夜火爆。與過去一些AI聊天機器人對話時明顯的機械感或內容複製粘貼感相比,ChatGPT給出的答復往往邏輯清晰,切中要點,並能與用戶進行自然流暢的對話。出於對AI技術究竟發展到何程度的好奇,各行各業的人都開始用ChatGPT進行花式測評,從寫代碼到做高考數學題,從翻譯學術論文到寫命題小作文。而ChatGPT的完成度也確實令人感慨,過去僅能由人類完成的創造性工作,一定程度上可以由ChatGPT取代,完成相應內容生產。

ChatGPT的出現,也掀起了人工智能內容生產賽道(Artificial Intelligence Generated Content)的熱潮。微軟已正式將ChatGPT技術接入必應搜索和Edge瀏覽器。百度(中國)有限公司也表示,將在今年3月完成類似ChatGPT的項目“文心一言”(ERNIE Bot)的內部測試後向公眾開放。

對於ChatGPT展現的“超能力”,不少人對技術發展感到振奮的同時,也對人工智能內容生產及其背後的道德倫理、社會責任和法律風險存在一絲擔憂。本文將從算法、數據和內容三個層面,詳述ChatGPT背後的法律風險和合規建議。

一、ChatGPT生成虛假信息,誰來為答案質量負責?

ChatGPT的技術原理是在算法和數據基礎上,利用自然語言處理生成相應回答。具體來說,ChatGPT使用了基於人類偏好的強化學習的機器訓練模型(Reinforcement Learning from Human Feedback),由技術人員預先給ChatGPT輸入海量語言數據,並根據人工標註的高質量回答對ChatGPT生成的回答建立打分和獎勵模型,引導訓練ChatGPT模型對輸出結果不斷進行校正和優化,並向高分方向完善輸出答案,最終使得ChatGPT能夠學習人類語言的特徵和結構,實現用自然語言進行人機交流。

當前,ChatGPT被認為能夠處理多種相對複雜的語言類工作,包括自動文本生成、自動問答、延續上下文的連續對話等,並被嘗試用於新聞、營銷、客服等行業領域。但是,人工智能內容生產並不能保證其內容的準確性,ChatGPT也在用戶協議中對此做出了免責聲明。比起ChatGPT輸出一些“正確的廢話”,其“一本正經地胡說八道”帶來的危害更是令各國監管機構都十分警覺。

今年1月,OpenAI首席技術官米拉·穆拉蒂(Mira Murati)表示,ChatGPT可能會被“危險分子”使用於編造事實,這是當下大型語言模型共同面臨的挑戰。

一方面,在法律、醫學等專業領域,用戶需要一定的專業知識才能辨別ChatGPT生成內容的真假。如有用戶依賴不准確的答案做出判斷和決策,可能會危害用戶的人身和財產安全。

另一方面,不排除一些別有用心的不法分子,通過向ChatGPT輸入虛假或誤導性的信息來“訓練”其產生虛假信息,嚴重者可能導致影響政治輿論或政治生態、煽動暴力和犯罪等破壞公共利益等嚴重後果。

我國出台的《互聯網信息服務深度合成管理規定》,也是旨在應對深度合成技術給法律、社會秩序、公共安全帶來的衝擊。根據《互聯網信息服務深度合成管理規定》給出的定義,深度合成技術是指利用深度學習、虛擬現實等生成合成類算法製作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術,其中包括篇章生成、文本風格轉換、問答對話等生成或者編輯文本內容的技術。 ChatGPT這類人工智能內容生產產品,顯然應受該法的規制。

按照《互聯網信息服務深度合成管理規定》要求,深度合成服務提供者應當落實信息安全主體責任,建立健全用戶註冊、算法機制機理審核、科技倫理審查、信息發布審核、數據安全、個人信息保護、反電信網絡詐騙、應急處置等管理制度。

首先,深度合成服務提供者應當以顯著方式提示深度合成服務技術支持者和使用者承擔信息安全義務。對於使用其服務生成的可能導致公眾混淆或者誤認的信息內容,應當在該信息內容的合理位置、區域進行顯著標識,向公眾提示該內容為深度合成,並在生成疑似違法信息時提示用戶存在虛假信息的安全風險。

其次,深度合成服務提供者應當加強深度合成內容管理,建立健全用於識別違法和不良信息的特徵庫,採取技術或者人工方式對深度合成服務使用者的輸入數據和合成結果進行審核。如果發現用戶利用深度合成服務製作、複製、發布、傳播虛假信息的,應當及時採取闢謠措施,保存有關記錄,並向網信部門和有關主管部門報告。

與此同時,對發布違法和不良信息的相關深度合成服務使用者,要依法依約採取警示、限制功能、暫停服務、關閉賬號等處置措施。

二、ChatGPT生成歧視性文本,算法盲盒如何監管?

除了《互聯網信息服務深度合成管理規定》,ChatGPT等人工智能內容生產產品也受《互聯網信息服務算法推薦管理規定》規制。 《互聯網信息服務算法推薦管理規定》中所稱算法推薦技術,就包括利用生成合成類算法技術向用戶提供信息。該法規的要點,是防止出現算法歧視或算法偏見,生成負面有害信息或低俗劣質信息等不符合主流價值導向的內容。

根據《互聯網信息服務算法推薦管理規定》第七條規定,算法推薦服務提供者應當建立健全算法機制機理審核、科技倫理審查、用戶註冊、信息發布審核、數據安全和個人信息保護、反電信網絡詐騙、安全評估監測、安全事件應急處置等管理制度和技術措施。

具體來講,算法服務提供者應當定期審核、評估、驗證算法機制機理、模型、數據和應用結果,確保算法模型不違背倫理道德。在此基礎上,算法服務提供者同樣應以顯著方式告知用戶其提供算法推薦服務的情況,並以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。

此外,如果是具有輿論屬性或者社會動員能力的產品,算法推薦服務提供者應當在提供服務之日起十個工作日內通過互聯網信息服務算法備案系統填報服務提供者的名稱、服務形式、應用領域、算法類型、算法自評估報告、擬公示內容等信息,履行備案手續。

以ChatGPT為例,儘管OpenAI在官網上聲明,ChatGPT已通過算法設置和訓練,能在一定程度上拒絕用戶不合理的請求,例如生成可能包含種族歧視或性別歧視、暴力、血腥、色情等違反法律以及公序良俗的內容。但事實上,這樣的違法信息傳播風險仍然存在,其引發的法律責任和社會輿論,可能會對公司形象及商譽產生負面影響。

三年前在韓國十分火爆的人工智能聊天機器人Lee Luda,由於一些用戶在對話交互時,故意輸入污穢和暴力言語,導致Lee Luda在接收這些不符合主流價值觀的內容後,開始輸出一些涉嫌性別歧視、種族歧視、對弱勢群體的歧視的內容,該產品因此廣為詬病而於上線不到一個月就中斷了服務。

三、用戶的輸入信息被用來訓練ChatGPT,個人信息處理合規要點何在?

ChatGPT的前期訓練、後期迭代和強化學習都需要海量的數據,最新開放版本GPT-3.5預訓練數據量已達到45TB,其中就包括北京智源人工智能研究院建構的中文語料庫WuDaoCorpora中約3TB的中文語料。

《互聯網信息服務算法推薦管理規定》第十四條明確規定,深度合成服務提供者和技術支持者應當加強訓練數據管理,採取必要措施保障訓練數據安全;訓練數據包含個人信息的,應當遵守個人信息保護的有關規定。

我國《個人信息保護法》明確了處理個人信息應當遵循的公開原則、誠信原則和最小限度原則,即個人信息處理者應當公開個人信息處理規則,明示處理的目的、方式和範圍,不得過度收集個人信息,不得通過誤導、欺詐、脅迫等方式處理個人信息。以ChatGPT為例, OpenAI公司為模型訓練而收集或處理個人信息的,還需要取得用戶個人的同意。

在OpenAI公司就ChatGPT使用常見問題的答復中,OpenAI明確承認,用戶與ChatGPT的對話數據,將會被用於ChatGPT的迭代模型訓練。並且,OpenAI特別提示,OpenAI暫時無法從輸入歷史中刪除特定某條內容;如果想要刪除數據,必須以註銷此OpenAI賬號的方式,而該賬號所有的相關數據會被一起刪除,故用戶不要在使用ChatGPT時輸入敏感信息或機密內容。

因此,在類似ChatGPT的人工智能內容生產產品開發和後期升級過程中,盡可能使用公開的非個人信息,或對收集的個人信息進行匿名化的處理。如果必須要使用個人信息,應當明確向用戶告知並取得其個人同意,避免違法使用個人信息造成的侵權或損害。

Total
0
Shares
Related Posts