圖片來源:由無界AI工俱生成
引言
早在ChatGPT盛行的日子裡,便有AI遲早取代人類工作的言論。一時之間,各行業人員都談AI色變,生怕其發展過快直接頂替了他們的工作,讓他們無處可去。律師行業人員亦在其中。事實上,律師這個活,也有許多行政上的事務,即便是專業領域上亦有不少重複性的、枯燥的、操作難度低的工作,因此,不少業內人員也紛紛猜測,是否有某天某日,服務大家的變成了AI律師,在AI的高效率處理下,咱們只能提前下崗。
這個問題確實很難回答,AI技術的高度可成長性令人側目。但現在,颯姐團隊還是能給一個明確的答案:不能。關於這件事,就在今年,遠在美國的Levidow,Levidow &Oberman律師事務所的同仁們便以其親身經歷,告訴了大家答案:至少今天,AI還遠不能取代律師的工作,使用AI反而可能會給律師朋友帶來不少麻煩。
一樁“趣事”——使用ChatGPT起草文書被罰
事情的起因得追溯到今年三月份,Roberto Mata因2019年與一家航空公司發生的糾紛向法院提起了訴訟,而航空公司認為案件已經過了訴訟時效,建議法官撤銷此案。對此,Roberto Mata所聘請的Levidow,Levidow &Oberman律師事務所的律師Peter LoDuca和Steven Schwartz認為該案並沒有超過訴訟時效,應當被審理,故向法院提交了意見書。而正是這份文書,給他們帶來了大麻煩。
眾所周知,美國作為判例法國家極其重視判例的援用,Peter LoDuca和Steven Schwartz便援引了大量案例,試圖證明他們的觀點。本來這事辦的不錯,意見書寫的也挺好的,奈何遇上了一個知識儲備豐富、認真負責的法官Kevin Castel。 Kevin Castel法官在閱讀了這份法律意見書後覺得十分困惑,在仔細檢索後,最終確認其中所引用的部分判例實際並不存在。面對這一情況,Steven Schwartz律師辯稱,其只是利用AI輔助了文書撰寫工作,他們信任AI,因此沒有進一步確認案例的真實性,反而認為只是因為AI找到了自己不知曉的案例。他們表示自己並非故意捏造案例欺騙法庭。
即便如此,6月22日,法院仍然作出判決,認定Peter LoDuca、Steven Schwartz及其所在律所因向法院提供虛假信息,行為惡劣,處以5000美元的罰款。此後,律所隨後也發布聲明,稱“我們犯了一個善意的錯誤,未能料想ChatGPT可能會捏造判例。”
律師虛假陳述的責任承擔——我國的處理
“AI會一本正經地胡說八道”,這是颯姐團隊很早就提出的觀點,其核心在於,現階段AI並不具備價值判斷、真假辨析的能力,其回答完全取決於給它“投餵”了哪些材料,如果這些材料中存在虛假信息,那麼AI輸出的結果就會有虛假信息,如果這些材料存在價值傾向,那麼AI輸出的結果就會有價值傾向。由此導致的後果,便是對於一些需要真假辨析和價值判斷的問題上,AI並不能提升我們的效率,反而會導致我們花費更多的時間去辨別“AI究竟有沒有寫錯”。這便是前述案例中,ChatGPT為何會錯誤地撰寫出幾個不存在的案例並且堅稱案例存在的原因。
前述案例發生在國外,因此似乎離我們還比較遠。於是乎,一個問題在於,如果在中國,有律師使用AI進行法律意見書的撰寫,並且提交給了法院,那麼他(她)會面臨怎樣的責任?
根據《律師法》第三條的規定,“律師執業必須遵守憲法和法律,恪守律師職業道德和執業紀律。律師執業必須以事實為根據,以法律為準繩。”因此,遵循事實,是律師執業的一個重要原則。在此基礎上,針對律師提供虛假信息、做出虛假陳述或者提供虛假證據材料的行為,以《律師法》為核心的律師執業規則進行了嚴格的限制。
根據《律師法》第四十條的規定,“律師在執業活動中不得有下列行為:(一)私自接受委託、收取費用,接受委託人的財物或者其他利益;(二)利用提供法律服務的便利牟取當事人爭議的權益;(三)接受對方當事人的財物或者其他利益,與對方當事人或者第三人惡意串通,侵害委託人的權益;(四)違反規定會見法官、檢察官、Arbitrum員以及其他有關工作人員;(五)向法官、檢察官、Arbitrum員以及其他有關工作人員行賄,介紹賄賂或者指使、誘導當事人行賄,或者以其他不正當方式影響法官、檢察官、Arbitrum員以及其他有關工作人員依法辦理案件;(六)故意提供虛假證據或者威脅、利誘他人提供虛假證據,妨礙對方當事人合法取得證據;(七)煽動、教唆當事人採取擾亂公共秩序、危害公共安全等非法手段解決爭議;(八)擾亂法庭、Arbitrum庭秩序,干擾訴訟、Arbitrum活動的正常進行。”同時根據第四十九條的規定,有前述行為的,“由設區的市級或者直轄市的區人民政府司法行政部門給予停止執業六個月以上一年以下的處罰,可以處五萬元以下的罰款;有違法所得的,沒收違法所得;情節嚴重的,由省、自治區、直轄市人民政府司法行政部門吊銷其律師執業證書;構成犯罪的,依法追究刑事責任”。此外,《律師職業道德和執業紀律規範》第二十二條規定,“律師應依法取證,不得偽造證據,不得慫恿委託人偽造證據、提供虛假證詞,不得暗示、誘導、威脅他人提供虛假證據。 ”
因此,前述行為的關鍵在於是否能夠認定為屬於“故意提供虛假證據”,換言之,即提供該材料或是信息的律師本人是否知道或者應當知道該證據材料屬於虛假證據。由於律師在提交陳述時,明顯知道該材料系應用AI作出,因此,其本身在一定程度上負有審查該證據是否真實的義務,加之如果該證據存在明顯不合理之處,那麼很可能會使得法官或者有關部門認定律師本人主觀上的明知,從而認為該行為屬於“故意提供虛假證據”之行為,嚴重者甚至可能構成《刑法》第三百零六條規定的“辯護人、訴訟代理人毀滅證據、偽造證據、妨害作證罪”。
綜上所述,對於律師而言,使用AI進行文書書寫,未必是一件“省時省力”的事。
不只是律師——提供虛假材料、信息的危害
事實上,不只是律師,對於一般的民眾而言,在某些場合下使用AI製作的虛假材料,也會承擔一定的責任,其中嚴重者亦會存在刑事責任風險。
舉例而言,如行為人在藥品申請註冊中偷懶,使用AI製作所要求提供的證明、數據、材料等,最終卻導致該證明、數據、材料虛假,那麼在滿足其他要件的情況下,行為人可能構成《刑法》第一百四十二條之一的“妨害藥品管理罪”。又如行為人為了省時間使用AI製作招股說明書、認股書、公司、企業債券募集辦法等發行文件,其中存在部分虛假信息,那麼亦可能構成第一百六十條的“欺詐發行證券罪” 。再如行為人利用AI收集信息並進行傳播,而該等信息屬於影響證券、期貨交易的虛假信息或是虛假的險情、疫情、災情、警情,那麼行為人的行為就可能構成第一百八十一條第一款的“編造並傳播證券、期貨交易虛假信息罪”或第二百九十一條之一第二款的“編造、故意傳播虛假信息罪”。
此外,對於一些特定主體而言,如承擔資產評估、驗資、驗證、會計、審計、法律服務、保薦、安全評價、環境影響評價、環境監測等職責的中介組織的人員,如果其使用AI進行書寫而成的文件被認定為是虛假證明文件,那麼其就可能涉嫌“提供虛假證明文件罪”,需要注意的是,即便不能證明其主觀上的故意,如果其被認為屬於嚴重不負責任,存在重大過失,那麼仍然可能構成“出具證明文件重大失實罪”,進而受到處罰。
可見,使用AI進行文書撰寫,不僅對律師不是好事,對於一般人可能也不是好事。
如何維權
於是,新的問題出現了,如果AI服務的使用者遇到了生成式AI胡說八道,卻沒有辨別出並且因此造成了損失,其是否能夠向AI服務提供者追償呢?
根據《消費者權益保護法》第七條第一款的規定,“消費者在購買、使用商品和接受服務時享有人身、財產安全不受損害的權利。”同時,目前AI服務提供者往往是電子商務經營者,因此根據《電子商務法》第七十四條的規定,“電子商務經營者銷售商品或者提供服務,不履行合約義務或者履行合約義務不符合約定,或者造成他人損害的,依法承擔民事責任。”換言之,用戶可以依據此兩條法律的規定向AI服務提供者追償。
但需要注意的是,AI服務提供者們也不全是“傻子”,其完全可能在用戶協議或是相關文本中對此類情況進行約定,如不保證輸出內容的真實性等,在AI技術確實不能保證內容真實性的前提下,這種約定是完全合理的,換言之,商家在提供服務前已經對用戶進行了風險提示,用戶進行使用的行為便在一定程度上落入了“責任自負”的範疇。
即便如此,應當明確的是,該等約定實際上屬於格式條款,根據《民法典》和《消費者權益保護法》的規定,服務提供者必須“以顯著方式提請消費者註意商品或者服務的數量和質量、價款或者費用、履行期限和方式、安全注意事項和風險警示、售後服務、民事責任等與消費者有重大利害關係的內容,並按照消費者的要求予以說明”,否則用戶有權主張該條款不屬於合約的內容。
寫在最後
AI技術盛行的背後,是看不見的法律風險。該等法律風險因為缺乏具體而富有針對性的規範而擴大,提供服務需謹慎,使用服務亦需謹慎,各位讀者朋友們一定需要把合規牢記心頭,對AI產出秉持慎重之態度,如此才能免於風險。
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載