全球AI巨頭被訴,ChatGPT被按下“休止符”?


作者:肖颯團隊

圖片來源:由無界AI生成

引言

近日,總部位於加州的克拉克森律師事務所(Clarkson Law Firm)向加州北部地區巡迴法院提交了一份長達157頁的起訴書,對Open AI以及其投資方之一的微軟公司發起集體訴訟。一時間,圍繞生成式人工智能的技術風險以及監管此類顛覆性技術的必要性又引發了巨大的爭論。今天颯姐團隊就對原告在起訴書中所主張的事實及指控進行介紹,與大家一起探討該案的走向,以及生成式AI發展背後的風險和規制理念。

基本案情

(一)原告的指控事實

該集體訴訟的原告認為,為了贏得“人工智能軍備競賽”,OpenAI從ChatGPT的交互對話以及集成Chat GPT的應用程序中“收集、存儲、跟踪、共享和披露”數百萬人的個人信息,包括產品詳細信息、賬戶信息、姓名、聯繫方式等。除了直接在網絡上抓取信息外,被告還對用戶使用ChatGPT等產品的過程中產生的數據進行蒐集,在起訴書中,原告將其稱為第二類盜竊行為。此外,該集體訴訟將微軟也列為被告的理由是,微軟作為OpenAI的最重要合作者,在推廣OpenAI產品的過程中起到了至關重要的作用,從而大幅加速了潛在風險的擴散。

(二)侵犯隱私權等多項法律指控

在起訴書中,原告針對OpenAI發起了多項指控,涉及對原告隱私權和財產權的侵犯。關於侵犯隱私權的主張,原告聲稱,生成式人工智能係統通過對數據進行聚合和分析可以揭示個人不願被公開的信息。比如,通過個人公開的推文,可以分析出他的心理健康狀況。除此之外,它還秘密爬取了大量的個人數據,包括個人信息、聊天記錄、在線客戶服務互動、社交媒體對話和從互聯網上抓取的圖片等。

除了主張被告侵犯了隱私權外,原告還主張其構成了對原告財產權益的侵犯。起訴書指出,在過去的案例當中,法院已經確立了互聯網用戶對其個人信息和數據擁有財產權益的原則,因此,OpenAI的非法抓取數據行為首先就對原告的財產權益構成了侵犯。在數據市場上,一個互聯網用戶的信息價值在15美元到40美元之間,甚至更多。另外有調查表明,一個人的在線身份在暗網上可以以1200美元的價格出售。如果按照此估價,OpenAI非法侵犯的財產價值將是十分驚人的。

(三)原告提出的法律救濟方案

該方案包括:請求法院發布禁止令,讓被告臨時凍結對產品的商業訪問和商業開發,直到完成一系列整改,並符合法院要求為止。同時,起訴書中還要求被告對原告進行賠償——包括由審判確定的實際賠償,三倍的懲罰性損害賠償,以及法律允許的示範性賠償。

該案結局可能會如何?

作為Open AI侵權的代表性訴訟,加州北區法院作出正式的判決必將經歷一個漫長的過程。在此之前,颯姐團隊想預測一下案件的結局將該如何。

為了維持自身在人工智能領域國際領先地位的需要,以及考慮到ChatGPT等生成式人工智能的巨大影響,美國在生成式人工智能監管方面保持著相對開放的監管策略。早在2019年,美國就曾推出行政令《保持美國在人工智能領域的領導地位》,這奠定了其在人工智能治理方面以強化全球領導地位為核心的總基調。儘管在2022年10月美國白宮發布了《人工智能權利法案藍圖》(Blueprint for an AI Bill of Rights),提出了包括安全有效的系統原則、算法歧視保護原則、數據隱私原則、通知和解釋原則、人工替代、考慮和退出原則的五項基本原則,但該藍圖不具約束力,也不構成美國政府的政策。可以說,直至今日,美國對於大模型訓練數據的立法仍沒有通過。因此,在國會立法程序給出明確規定之前,在沒有明確法律規則的背景之下,法官很有可能會參考已有的隱私權和著作權的案例以及《電子通信隱私法》、《計算機欺詐和濫用法》在內的多項法律,在這個案件中做出對原告有利的認定。

但從美國集體訴訟制度的實踐來看,本案很可能以雙方和解結案。集體訴訟制度作為一種救濟制度,其旨在救濟廣泛而去中心化的損害,剝奪權勢者的不當利益並防止其繼續實施違法行為。由於集體訴訟原告方過於去中心化,數量過於龐大,一旦集體勝訴,企業可能將面臨巨額賠償,甚至導致破產,有悖於鼓勵交易、保護市場運行的原則,巨大的社會影響可能會在一定程度上增加法官的審判困難。而對於作為被告的Open AI和微軟公司來說,其擁有強大的法律團隊,還有雄厚的財力支持,是有能力支撐一場曠日持久的訴訟的。因此,根據慣例,這個案件最有可能的終結方式就是原被告雙方達成和解,OpenAI和微軟接受原告的部分訴求,並支付一筆比較大數額的賠償。

生成式AI發展背後的風險及規制理念

從2022年開始,生成式AI迎來了爆發,中國企業目前已經發布了超70個基礎大模型。隨著這些雨後春筍般大模型的迅速普及,相關風險已經越來越難以忽視,其實這不是第一例Open AI成為被告的例子,也絕對不會是最後一次。儘管此類集體訴訟的結果將極大可能以和解結案,但這個案件本身依然是非常有意義的,將有助於我們思考AI發展背後的風險及規制路徑。

面對生成式AI引發的侵權問題,颯姐團隊認為,在價值取向方面,法律首先應當秉持鼓勵創新、預防風險的立場。我們要看到風險,但技術落後才是最大的風險。如果要像原告在起訴中所主張的那樣,立即停止使用這些模型,將會造成非常巨大的損失,這是不現實的。事實上,起訴書中所提出的很多問題雖在實踐中確實存在,卻是可以通過技術優化的方式解決的,例如在註冊過程中加強驗證,就可以解決未成年人偽造年齡的問題;借助於區塊鍊等技術,就可以追踪數據的流向。具體到侵權責任制度的價值取向,不能太過於強調製裁功能。例如,對於生成式AI虛假信息侵權,AI服務提供者承擔責任可以藉鑑“避風港規則”。因為其與網絡侵權具有類似性,這並非服務提供者所能完全避免和控制。即原則上,諸如Chat GPT等服務提供者對信息沒有事先審查的義務,但是相對人向服務商提示網絡中存在虛假信息後,服務商應採取必要措施進行修正。

在立法規制層面,儘管在現階段,生成式人工智能引發的侵權還沒有完全超出《民法典》和《個人信息保護法》等法律的射程範圍,但是這並不意味著法律應對的依據就已經足夠了。為了人工智能治理的體系化佈局,立法機構可以考慮制定專門針對人工智能治理的專門性法律,並為相關的風險問責構建一套完整的責任機制,從而預防和處理生成式人工智能所可能引發的各種風險,有效保障公民的合法權益,促進人工智能產業的健康發展。

寫在最後

不論該案的判決結果是何走向,生成式人工智能等AI應用的腳步不會就此停歇。儘管生成式人工智能係統中算法隱私、數據隱私、透明度等政策和道德問題將無法被消除,但應當通過技術的迭代升級和政策法規的合理引導,盡力降低其風險,進而使權利與技術之間的張力達至平衡。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts