若AI有“過失” Web3時代何以追責?

毫無疑問,科技的進步往往是最受人關注的。這不僅是因為科技進步本身代表著人類不斷向前躍進的步伐,還因為科技進步往往會促進人類社會和時代的發展,極大地改善人類的生活。於是,AI、Web3.0、區塊鏈、元宇宙等成了當下最為火熱的話題,究其根本在於這些概念代表著科技的進步,代表著新的科技正在被投入使用。

這無疑是令人欣喜的,但同樣也是令人擔憂的。與快速成長的科技相對的,是法律的滯後和人類認知的滯後,前者使得科技所帶來的法律風險越發難以解決,後者使得科技所帶來的法律風險越發難以預防。由此,除去那些故意利用科技進行違法犯罪的情況,不得不考慮的一個問題是,如果一種科學技術在實用過程中,由於某種過失性的原因導致了風險的發生,是否都應當進行追責?

颯姐團隊今日文章便以AI系統為例,為大家分析一下新時代下科技所引發的過失犯罪的追責問題。

一、AI與“過失犯罪”

所謂AI,即人工智能(Artificial Intelligence),根據《網絡安全標準實踐指南——人工智能倫理安全風險防範指引》的規定,是指利用計算機或其控制的設備,通過感知環境、獲取知識、推導演繹等方法,對人類智能的模擬、延伸或擴展。在學界中,根據學者高銘暄、王紅的觀點,AI即“人工”和“智能”,前者是指由人類製造的機器或開發的程序系統,後者是指模擬人腦能動性的思維和智慧,簡言之,即“智慧機器”,人工智能本身旨在研究和開發可以模擬人腦智慧的機器應用或程序系統。

而對於AI所引發的“過失犯罪”,筆者認為應當從兩個視角來進行解讀。

(一)作為技術的AI

AI本身作為一種技術,為人類所運用,因此在運用過程中,很可能存在由於相關人員的過失而導致相應風險的發生。考慮到AI行業暫時缺乏相關的法律法規進行明確的規範,因此現階段對於該領域的規制仍然要以現有的法律體係為主,從而在過失犯罪領域,相關人員可能構成過失致人死亡罪、過失致人重傷罪以及過失以危險方法危害公共安全罪等。

同時應當注意的是,針對不同的人群,過失犯罪的體現可能不同。

(1)針對AI系統的所有者、使用者

對於AI的直接所有者、直接使用者而言,他們本身應當嚴格遵守AI產品的安全操作規範,以保障AI產品的安全、有序運行。這是因為AI的智能係統是有嚴格的編制程序的,其啟動與運行有賴於相關的操作規範,因此未遵循AI產品的安全操作規範很可能會導致AI產品出現異常的情形。如因違反安全管理義務而過失性引發嚴重的危害後果,此時當然應當由所有者、使用者或者管理者承擔相應的過失責任。

(2)針對AI系統的生產者

如前所述,考慮到相關的標準尚未建立完備,因此,對於生產者而言,仍然應當從傳統過失犯的角度出發,判斷其有無觸犯刑法。

因此,如果生產者已經知道或者應當知道其生產的產品可能因為缺陷發生致人損害的結果,應當採取必要的召回措施以防止損害結果的進一步擴大,從而保護其他社會民眾免受缺陷產品的再次或者繼續侵害,那麼當生產者未履行結果迴避義務,造成擴大的結果發生,生產者對損害結果的擴大至少應當承擔過失責任。

(3)針對企業中所屬集體的監督者、管理者

在滿足責任事故類犯罪如刑法第一百三十四條規定的重大責任事故罪的構成要件的基礎上,因為使用AI而導致他人損害的行為人的監督者和管理者,需要承擔監督過失或管理過失而導致的刑事責任。

(二)作為產品的AI

以上是從使用AI的行為人本身存在過失從而導致損害出現的角度對涉及的過失類犯罪以及可能的責任主體進行的說明,這是作為技術的AI,是行為人手中的工具。但實際上,由於AI目前仍然較多地具有產品屬性,因而在考慮AI的過失時還得考慮作為產品的AI的過失。這種情況下的AI所造成的損害,更多的是因為AI算法或者程序或其他設置設備上存在缺陷。事實上,在AI產品存在缺陷時,便可能導致AI系統運行故障,進而導致嚴重危害社會的結果發生。

而此時,一旦此種過失性因素使得AI產品構成缺陷產品,便可以從產品缺陷的角度追究生產者或者銷售者的刑事責任。具體而言,生產或銷售有缺陷的AI產品的行為可能構成第146條規定的生產、銷售不符合安全標準的產品罪。

刑法第一百四十六條的規定,生產不符合保障人身、財產安全的國家標準、行業標準的電器、壓力容器、易燃易爆產品或者其他不符合保障人身、財產安全的國家標準、行業標準的產品,或者銷售明知是以上不符合保障人身、財產安全的國家標準、行業標準的產品,造成嚴重後果的,處五年以下有期徒刑,並處銷售金額百分之五十以上二倍以下罰金;後果特別嚴重的,處五年以上有期徒刑,並處銷售金額百分之五十以上二倍以下罰金。

雖然本罪屬於故意犯罪,似乎不能被歸類為AI所引發的“過失犯罪”之中,但筆者認為,只要AI本身的缺陷是過失所致,而生產者或銷售者在明知的情況下仍然銷售,那麼仍然可以被認定為是AI所引發的“過失犯罪”之中。事實上,大多數高新科技的缺陷往往一開始便是因人類的認知滯後而未有發現,由此帶來了一定的實際損害,儘管生產者或銷售者可能並不因此承擔責任,但若在其明知該缺陷之後仍然為銷售,那麼就應當受到刑法處罰。

因此,根據本條規定,只要行為人生產的商品或者銷售的商品是不符合保障人身、財產安全的國家標準、行業標準的產品而行為人對此明知,那么生產者和銷售者也會承擔刑事責任。 AI當然也屬於其中。

綜上,這就需要生產者和銷售者們時刻關注AI產品領域相關的國家標準、行業標準。考慮到現在我國的國家標準和行業標準尚在製定之中,因此,應當結合國外已經出現過的國際標準以及我國有關政策的要求,合理確定企業自身的標準,以此預防可能發生的犯罪結果。

二、被允許的風險

如此看來,在過失犯罪領域,似乎AI所帶來的風險和以往的傳統過失犯罪並無區別。但實際上,隨著科技的發展,越來越多技術上的不可預測性使得這種過失犯罪的判斷極為困難,我們應當去思考,如何衡量這種技術上的過失,換言之,僅在過失犯罪的領域,AI所造成的所有風險是否最後都應當進行追責?

關於這個問題的答案我們可以從被允許的風險的理論出發來解答。

所謂被允許的風險(或被允許的危險),是指隨著科學技術的發展,社會生活中不可避免地存在的具有侵害法益的危險行為,基於其對社會的有用性,即使發生了法益侵害結果,也應當在一定範圍內允許。

該理論起源於19世紀末的德國產業革命時期。在19世紀後半葉,隨著科學技術的發展,工業化進程加快,德國的礦山、煤氣、鐵道等企業發展迅速,但同時一些技術發展帶來的損害也隨之而來。學者巴爾意識到,社會生活中不可避免地存在一定的危險行為。如果為了完全防止實害發生而要求採取過度的預防措施,就排除了所有企業活動的可能性,這是不合理的。因此,他提出,即使行為人懈怠了過度的預防措施,也不成立犯罪。此後,學者米里卡也提出,與社會目的相適應的危險是“正常危險”,超出了“正常危險”的危險,才具有刑法意義。艾克斯勒也指出,如果要求人們迴避一切可能預見的損害,就會否定所有科學技術的進步。而最後確立被允許的危險的法理的是賓丁,他承認日常性的法益侵害的不可避免性,提倡“適度的危險”概念,還提出了危險與不可缺少的行為的法的價值之間的比例關係。

隨著討論的不斷進行,在刑法領域,被允許的風險理論最先在過失犯領域發揮了作用,由此催生出了所謂的新過失論。新過失論認為隨著產業革命的發展,許多危險行為對社會的發展具有有用性與必要性;只要行為人遵守了相關的行為規則,即使造成了法益侵害結果,也不能認定為過失犯。

而AI系統實際上也是科技發展的產物,雖然它的過失可能會導致一定風險的發生,但是同時也需要考慮到它所代表的技術革新性以及為生活所帶來的便利性。因此,在涉及AI系統的過失犯罪上,我們應當在一定程度上允許一定風險的存在,從而允許AI系統、AI技術乃至於其他科技的運用,從而在實踐中不斷進步和完善。故而就AI的過失犯罪領域,考慮被允許的風險理論並適用新過失論是未來的一種可行的途徑。

寫在最後

科技的發展必然會給法律帶來諸多挑戰,但這並不意味法律應當予以排斥予以否定,也不意味著滯後的法律無法應對科技所帶來的風險。除了盡快完善有關立法外,法律工作者在這時候真正需要去做的,是在權衡利弊中不斷完善相關的理論,並在實踐中予以運用,讓科技真正成為推動人類社會發展的良好動力。

Total
0
Shares
Related Posts