人工智能監管難題:如何“用魔法打敗魔法”


原文來源:中國新聞周刊

作者:哈力克

圖片來源:由無界AI‌ 生成

全球AI立法進程明顯提速,世界各國的監管都在追趕AI的演化速度。

當地時間6月14日,歐洲議會以499票贊成、28票反對和93票棄權,高票通過了《人工智能法案》(AI Act)談判授權草案。按照歐盟立法程序,歐洲議會、歐盟成員國和歐盟委員會將開始“三方談判”,以確定法案的最終條款。

歐洲議會稱“已經為製定史上首部人工智能法案做好談判準備”。美國總統拜登釋放管控AI信號,有美國國會議員提交了AI監管立法提案。美國參議院民主黨領袖查克·舒默展示了他的“人工智能安全創新框架”,併計劃在短短“幾個月”內製定聯邦層面的人工智能法案。

我國相關立法也已提上日程,人工智能法草案預備在今年內提請全國人大常委會審議。 6月20日,首批境內深度合成服務算法備案清單也已經出爐,百度、阿里巴巴、騰訊等26家公司、共計41個算法榜上有名。

儘管中國、美國、歐盟都倡導準確、安全、透明度等原則性的AI監管理念,但在具體思路和方式上,存在許多不同。頒布全面的AI法律,背後是對自身規則的輸出,欲掌握規則優勢。

國內一些專家呼籲盡快開展人工智能法律規制,但目前面臨的現實難題不容忽視。此外還有一個重要的考慮是:要監管還是要發展。這並不是一個二元對立的選擇,但在數字領域,平衡兩者卻頗為不易。

歐盟衝刺,中美提速

如果一切順利,歐洲議會通過的《人工智能法案》有望在今年年底前獲批。全球首部綜合性人工智能監管法律很有可能落地歐盟。

“該草案會影響其他處於觀望的國家加速立法。一直以來,人工智能技術是否應當納入法治監管範疇始終爭議不斷。現在來看,《人工智能法案》落地後,相關網絡平台,如業務內容以用戶信息生成為主的平台,勢必會承擔更高的審核義務。”北京航空航天大學法學院副教授趙精武告訴《中國新聞周刊》。

作為數字戰略的一部分,歐盟希望通過《人工智能法案》全面監管人工智能,其背後的戰略佈局也已擺到檯面。

北京万商天勤(杭州)律師事務所執行主任彭曉燕告訴《中國新聞周刊》,《人工智能法案》除適用於歐盟境內,還規範位於歐盟之外、但係統輸出數據在歐盟使用的系統提供方或使用者。極大擴展了法案的管轄適用範圍,也可以窺見搶占數據要素管轄範圍的端倪。

中國國際問題研究院歐洲研究所副所長、研究員金玲在《全球首部人工智能立法:創新和規範之間的艱難平衡》一文中也寫道,《人工智能法案》突出歐盟人工智能治理的道德優勢,是歐盟又一次欲發揮其規範性力量,通過規則優勢彌補技術短板的嘗試。反映了歐盟欲搶占人工智能領域道德製高點的戰略意圖。

《人工智能法案》已醞釀兩年。 2021年4月,歐盟委員會提出基於“風險分級”框架的人工智能立法提案,後經多輪討論和修訂。在ChatGPT等生成式AI風靡後,歐盟立法者又緊急添“補丁”。

一個新變化是,《人工智能法案》最新草案加強了對通用人工智能(general purpose AI)的透明度要求。例如,基於基礎模型的生成式AI必須要對生成的內容進行標註,幫助用戶區分深度偽造和真實信息,並確保防止生成非法內容。像OpenAI、Google等基礎模型的提供者,若是在培訓模型期間使用了受版權保護的數據,也需要公開訓練數據的詳細信息。

此外,公共場所的實時遠程生物識別技術從“高風險”級別調整為“被禁止”級別,即不得利用AI技術,在歐盟國家的公共場合進行人臉識別。

最新草案也進一步提高了違法處罰數額,將最高3000萬歐元或侵權公司上一財政年度全球營業額的6%,修改為最高4000萬歐元或侵權公司上一年度全球年營業額的7%。這比歐洲的標誌性數據安全法律《通用數據保護條例》所規定的,最高可處以全球收入的4%或2000萬歐元罰款高出不少。

彭曉燕告訴《中國新聞周刊》,處罰數額的提高,側面反映了歐盟當局對人工智能監管決心與力度。對於谷歌、微軟、蘋果等營收數千億美元的科技巨頭而言,若違反《人工智能法案》規定,罰款可能達到上百億美元。

而在大洋彼岸的美國,華盛頓忙於回應馬斯克等人呼籲加強AI管控之際,6月20日,美國總統拜登在舊金山會見了一群人工智能專家和研究人員,討論如何管理這項新技術的風險。拜登當時稱,在抓住AI巨大潛力的同時,需要管理其對社會、經濟和國家安全帶來的風險。

風險管控成為AI熱門話題的背景是,美國並未對AI技術採取像反壟斷那般嚴厲措施,尚未出台聯邦層面、綜合性的AI監管法律。

美國聯邦政府首次正式涉足人工智能監管領域是在2020年1月,當時發布了《人工智能應用監管指南》,為新出現的人工智能問題提供監管和非監管措施指引。 2021年出台的《2020年國家人工智能倡議法案》更多算是在AI領域的政策佈局,與人工智能治理和強監管還有一定距離。一年後,白宮於2022年10月發布的《人工智能權利法案藍圖》(簡稱“《藍圖》”)為人工智能治理提供了支持框架,但並不是美國官方政策,不具備約束力。

美國AI立法進展甚微,已招致許多不滿。不少人批評,在數字經濟的規則制定方面,美國已落後歐盟和中國。不過,或許是看到歐盟《人工智能法案》即將走過最後“關卡”,美國國會近期出現了立法加速跡象。

拜登舉行AI會議當天,民主黨眾議員泰德·劉(Ted W.Lieu)、安娜·埃舒(Anna Eshoo),以及共和黨眾議員肯·巴克(Ken Buck)一同提交了《國家人工智能委員會法案》提案。同時,民主黨參議員布萊恩·夏茲(Brian Schatz)將在參議院提出配套立法,一同專注於人工智能監管問題。

根據法案內容,人工智能委員會將由來自政府、行業、民間社會和計算機科學領域的共20名專家組成,將審查美國當前的人工智能監管方法,共同製定全面的監管框架。

“AI正在社會上做出令人驚嘆的事情。如果不受控制和監管,會造成重大傷害。國會絕不能袖手旁觀。”泰德·劉在一份聲明中說。

一天后,6月21日,參議院民主黨領袖查克·舒默(Chuck Schumer)在戰略和國際研究中心(CSIS)發表演講,揭示他的“人工智能安全創新框架”(簡稱“AI框架”)——鼓勵創新,同時推進安全、問責制、基礎和可解釋性,呼應了包括《藍圖》在內的宏觀規劃。他曾在4月提出過該框架,但當時基本沒有透露細節。

AI框架背後是查克·舒默的一項立法戰略。他在此次演講中表示,要在短短“幾個月”內製定聯邦層面的人工智能法案。不過,美國立法程序繁瑣,不僅要經過參眾兩院投票,還需經過多輪聽證會,耗時長久。

為了拉快進度,作為AI框架的組成部分,查克·舒默計劃從今年9月起舉辦一系列人工智能洞察力論壇,涵蓋創新、知識產權、國家安全和隱私在內的10個主題。他告訴外界,洞察論壇不會取代國會關於人工智能的聽證會,而是同步進行,以便立法機構可以在幾個月而不是幾年內推出有關該技術的政策。他預計,美國的AI立法可能要到秋天“才能開始看到一些具體的東西”。

雖進度並未趕上歐盟,但我國相關立法也已提上日程。 6月初,國務院辦公廳印發《國務院2023年度立法工作計劃》,其中提到,人工智能法草案等預備提請全國人大常委會審議。

按照我國《立法法》的規定,國務院向全國人大常務委員會提出法律草案後,由委員長會議決定列入常務委員會會議議程,或者先交有關的專門委員會審議、提出報告,再決定列入常務委員會會議議程,後續一般需經曆三次審議後再交付表決。

今年以來,不少國家AI立法提速,彭曉燕認為這是競爭和技術發展一同催熱的結果。

“數據要素越來越成為國家戰略要素,各國也希望通過立法確立管轄權,搶占人工智能話語權。同時,ChatGPT等人工智能技術的迭代更新,讓社會看見了強人工智能發展的新希望。新技術的發展勢必會帶來新的社會問題與社會矛盾,需要規範介入調整,技術的發展某種程度上推動了立法的更新。”彭曉燕說。

分歧遠多於趨同

中國、美國、歐盟是全球AI發展的主要驅動力,但三者在AI立法方面也存在一些不同。

歐盟《人工智能法案》從用途、功能等角度將人工智能應用風險分為4個層級,無論草案經過幾輪修改,“風險分級”仍然是歐盟治理AI的核心理念。

金字塔頂端對應對人類安全造成“不可接受”的風險。例如,根據人們的社會行為或個人特徵對其進行分類的打分系統等,這些將被完全禁止使用。

在最新草案中,歐洲議會擴大了“不可接受的風險”清單,防止人工智能係統出現侵入性和歧視性。全面禁止公共空間生物識別、情感識別、預測性警務(基於側寫、地點或過去的犯罪行為),以及從網絡隨意抓取面部圖像等六類人工智能係統。

第二類是對人類安全或基本權利產生負面影響的人工智能係統,會被視為“高風險”。例如,航空、汽車、醫療設備等產品中使用的AI系統,以及必須在歐盟數據庫中註冊的八個特定領域,涵蓋關鍵基礎設施、教育、培訓、執法等。在符合人工智能規定和事先合格評定的情況下,各種“高風險”人工智能係統將獲得授權,遵守一系列要求和義務才能進入歐盟市場。

另外,影響選民和選舉結果的人工智能係統,以及根據歐盟《數字服務法》,擁有超過4500萬用戶的社交媒體平台所使用的推薦系統也將被列入高風險名單,例如Facebook、Twitter和Instagram。

處在金字塔底部的是有限風險、風險很小或沒有風險的人工智能係統。前者俱有特定透明度義務,需要告知用戶正在與AI系統互動,後者無強制性規定,基本上不受監管,如垃圾郵件過濾器等應用。

因有著嚴格的監管條款,《人工智能法案》被很多業內人士視為長了許多尖銳的“牙齒”。不過,該法案也試圖在強監管和創新之間尋求平衡。

例如,最新草案要求成員國至少建立一個可供中小企業和初創企業免費使用的“監管沙盒”,在一個受監督和安全可控的場景中,對創新性人工智能係統在投入使用前進行測試,直到滿足合規要求。歐盟普遍認為,該提議不僅可以讓當局實時關注技術變化,也幫助AI企業減輕監管壓力的同時能繼續創新。

金玲在前述文章中稱,歐盟的上游治理方法一方面要求企業承擔更多的前置成本,另一方面也因為風險評估不確定性影響企業投資熱情。因此,儘管委員會一再強調人工智能立法將支持歐洲數字經濟的創新和增長,但現實的經濟分析似乎並不認同這個結論。法案反映了歐盟在促進創新和權利保護之間難以有效平衡的內在衝突。

美國同歐盟、中國一樣,都支持主要基於風險的人工智能監管方法,倡導準確、安全、透明度。不過,在趙精武看來,美國監管思路更注重利用AI,推動AI行業的創新和發展,最終是為了保持美國的領導地位和競爭力。

“不同於中國和歐盟秉持的’風險預防和技術安全’監管理念,美國則側重商業發展優先。中國和歐盟均側重人工智能技術應用安全保障,避免人工智能技術濫用侵害個體權利,美國則是以產業發展作為監管重心。”趙精武說。

有研究發現,美國國會立法主要中心化在鼓勵和指導政府使用人工智能。例如,美國參議院曾於2021年推出一項人工智能創新法案,要求美國國防部實施一項試點計劃,以確保其能夠獲得最佳的人工智能和機器學習軟件能力。

查克·舒默在前述演講中就將創新視為北極星,其AI框架就是要釋放人工智能的巨大潛力,支持美國主導的人工智能技術創新。 《人工智能應用監管指南》在開篇就明確應繼續促進技術和創新的進步。 《2020年國家人工智能倡議法案》最終目標也是要通過增加研究投入、建立勞動力系統等手段確保美國在全球AI技術領域保持領先地位。

彭曉燕表示,從指導性的規範設計角度來看,美國立法及製度層面上對人工智能發展尚且處在弱監管的態勢,社會層面以開放的態度積極鼓勵人工智能技術的創新與拓展。

與歐盟具有更加明確的調查權和全面的監管覆蓋範圍相比,美國採取了一種去中心化的人工智能監管方式,部分州和機構以較小程度推進AI治理。這樣導致的結果是,全國性的AI監管倡議都非常地寬泛和原則化。

例如,《藍圖》作為美國人工智能治理政策里程碑事件,制定了安全有效的系統、防止算法歧視、保護數據隱私、通知及說明、人類參與決策制定等五項基本原則,並無更加細緻條款。

彭曉燕認為,《藍圖》未制定具體的實施措施,而是以原則性規定的方式搭建人工智能發展基本框架,旨在指導人工智能係統設計、使用及部署。

“像這類規範,不具有強制性,這是美國出於對人工智能產業扶持發展的考慮。目前,人工智能尚處於新興發展階段,高強度監管勢必會一定程度上限制產業發展與創新,因而美國在立法上保持相對謙抑態度。”彭曉燕說。

“如果沒有法律賦予各機構新的權力,它們就只能根據已有權力規範人工智能的使用。另一方面,對人工智能相關的道德原則保持較少規定,各機構可以自行決定如何監管,保留哪些使用權利。”卡內基分析師哈德里恩·普格(Hadrien Pouget)認為,這使得以白宮為首的聯邦機構既受限制又自由。

以利用和創新為主導的AI治理理念,注定美國的“拳頭”不會太硬。美國著名智庫布魯金斯學會研究員亞歷克斯·恩格勒(Alex Engler)指出,對於教育、金融、就業等具有社會影響力的人工智能,歐盟和美國正採取不同的監管方法。

在對具體AI應用上,歐盟《人工智能法案》對聊天機器人有透明度要求,而在美國還沒有聯邦層面的規定。面部識別被歐盟視為“不可接受的風險”,美國則是通過美國國家標準與技術研究院(NIST)人臉識別供應商測試計劃提供公共信息,但不強制制定規則。

“歐盟的監管範圍不僅涵蓋了更廣泛的應用,而且為這些人工智能應用制定了更多規則。而美國的做法更狹隘地局限於調整當前的機構監管機構來嘗試治理人工智能,人工智能的範圍也有限得多。”亞歷克斯·恩格勒說,儘管存在寬泛的相同原則,但在AI風險管理中,分歧遠多於趨同。

趙精武總結中國、歐盟、美國的AI監管模式,發現中國以人工智能技術應用場景為限,專門針對人臉識別技術、深度合成、自動化推薦等應用場景制定專門監管規則。歐盟是以風險水平為導向,根據人工智能應用的風險水平是否屬於可接受水平。美國則是在既有的傳統法律制度框架判斷人工智能技術應用的合法性。

此外,美國也將更多注意力中心化在人工智能研究上面,為其投入更多資金。就在5月初,美國白宮宣布投資約1.4億美元,建立七個新的國家級人工智能研究所。有研究者認為,美國此舉是希望能更加了解AI,從而減輕監管過程中產生的擔憂。

彭曉燕則表示,我國採取鼓勵人工智能技術發展同時有限規範相關領域管理的措施,以調和的政策與管理要求引導人工智能技術發展。

我國立法面臨諸多現實難題

歐盟正加速落地全球首部AI監管法案,趙精武告訴《中國新聞周刊》,歐盟的“風險等級制”人工智能監管措施,《人工智能法案》提出的“通用模型”監管概念,以及專門針對ChatGPT這類生成式人工智能應用的披露義務、數據版權合規義務,都對我國人工智能立法有參考價值。

事實上,我國對於人工智能的立法早已起步,2017年國務院發布的《新一代人工智能發展規劃》提出,到2025年,初步建立人工智能法律法規、倫理規範和政策體系,形成人工智能安全評估和管控能力。

地方上,2022年,深圳市出台《深圳經濟特區人工智能產業促進條例》,被看作我國首部人工智能產業專項立法。 《條例》提到,完善人工智能領域監管機制,防範人工智能產品和服務可能出現的倫理安全風險和合規風險。

當前,我國人工智能規制主要由幾大部委共同推進,分別從不同領域推動人工智能領域的規範和發展。 《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理辦法(徵求意見稿)》等規範性文件也相繼出台。

“綜合歷來管理規範來看,我國關於人工智能領域的規定採用區分業務領域、區分技術方向的措施,管理規範趨於去中心化。在規範出台上,往往具有應時性特徵,在特定技術出現後作出專門性管理規定。規範由行政部門主導頒布,側重監管,在規範層級上未上漲為法律。”彭曉燕說。

值得注意的是,6月20日,首批境內深度合成服務算法備案清單出爐,百度、阿里巴巴、騰訊、字節跳動、美團等26家公司、共計41個算法榜上有名。

隨著AI立法熱度升溫,國內開始有專家呼籲盡快開展人工智能法律規制。不過,在趙精武看來,我國人工智能專門立法具有一定的可行性,但是也面臨著諸多現實難題。

“一是立法文件之間的體系銜接問題,人工智能專門立法與其他規範性文件之間的適用關係尚未解決,尤其是專門立法與現行立法在內容層面的重疊問題亟待解決。二是人工智能技術更新迭代速度加快,保障法律與技術的同步發展存在一定的難度;三是人工智能監管規則缺乏整體性,數據、算法和算力三大核心要素的監管規則仍處於探索階段;四是人工智能立法的重心究竟是以安全風險治理為主,還是以產業發展保障為主爭議較大。”趙精武說。

無論是歐盟的《人工智能法案》,還是中國、美國等國家針對AI的規定、倡議、規劃,都在試圖構建一個完善的監管框架:既能確保安全,又能為AI創造更好條件。

基於這種普適性原則,彭曉燕告訴《中國新聞周刊》,我國建立的人工智能法律,首先應當建立在積極鼓勵發展創新的基礎上,使得人工智能在相對開放的空間領域進行規範發展,劃定發展紅線。

“此外,還需要解決現下大家中心化關心的人工智能領域法律問題,包括但不限於人工智能違法違規內容的禁止、人工智能數據安全保護、人工智能倫理安全的保障、知識產權侵權的防範等等。”彭曉燕說。

趙精武認為,我國應當建立以產業發展保障為導向的人工智能法律。

“現行立法在一定程度已經可以基本滿足人工智能技術應用監管的需求。預防技術風險,保障技術安全只是治理過程,其最終目的仍然還是需要回歸到人工智能產業發展層面。畢竟人工智能法律不是限制產業發展,而是引導和保障相關產業的良性發展。”趙精武說。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts