人工智慧法案-探索放鬆管制的灰色地帶


經過緊張的三方談判,歐盟機構在週五晚些時候就備受期待的《人工智慧法案》達成了臨時協議。然而,在慶祝這一重大進步的同時,人們擔心潛在的漏洞可能會將這一監管里程碑變成放鬆管制的幌子。

《人工智慧法案》旨在建立負責任地開發和使用人工智慧的框架,預計將在創新和社會保護之間取得平衡。然而,該協議的複雜性,尤其是最後一刻談判中出現的複雜性,引發了人們對這項看似全面的立法背後的真實意圖的質疑。

《人工智慧法案》的關鍵組成部分

最初由歐盟委員會提出的基於風險的方法的核心原則仍然完好無損。對健康、安全、基本權利、環境、民主和法治構成威脅的「高風險」人工智慧系統需要滿足特定要求。但是,添加過濾條件引起了人們對潛在漏洞的擔憂,這些漏洞可能會免除某些高風險應用程式的風險。

《人工智慧法案》禁止人工智慧系統造成不可接受的風險,包括操縱人類行為、利用漏洞以及進行無針對性的臉部影像抓取。雖然禁令是全面的,但出於安全原因的例外情況,例如工作場所的情緒識別,會帶來模糊性和潛在的漏洞。

引入了基金會模型的透明度義務,特別是具有系統性風險的「高影響力」模型。更嚴格的規則需要模型評估、系統風險評估、對抗性測試、網路安全措施和事件報告。然而,在建立統一的歐盟標準之前依賴實踐守則可能會造成合規的不確定性。

納入基本權利影響評估(FRIA)解決了人們對執法中歧視性國家監控和人工智慧的擔憂。然而,執法機構的豁免引發了人們對FRIA 在防止高風險人工智慧工具的有害部署方面的有效性的質疑。

違反《人工智慧法案》將被處以3,500 萬歐元或全球年營業額7% 至750 萬歐元或全球年營業額1.5%(較輕違規行為)的罰款。雖然罰款的目的是強制合規,但人們擔心可能會繞過“比例上限”,有利於大公司並鼓勵它們將有風險的人工智慧專案委託給新創公司。

人工智慧辦公室和董事會的設立構成了治理結構。該委員會內的辦公室負責監督先進的人工智慧模型,而由成員國代表組成的董事會則充當協調平台。社會利益相關者作為技術專家的參與有限可能會削弱民間社會在製定人工智慧法規方面的聲音。

《人工智慧法案》中未探討的差距與擔憂

儘管蒂埃里·布雷頓(Thierry Breton)等關鍵人物表示對創新與保護之間的平衡充滿信心,但對《人工智慧法案》潛在漏洞的擔憂仍然存在。在周五深夜的新聞發布會上,官員們承認過濾條件和例外可能會讓高風險應用程式逃避審查。禁止生物辨識系統以及在緊急情況下部署高風險人工智慧工具等問題引發了對該法律效力的質疑。

布雷頓(Thierry Breton) 斷言,《人工智慧法案》不僅僅是一本規則手冊,而是為歐盟新創公司和研究人員在全球人工智慧競賽中取得領先地位的平台,這意味著將歐盟打造成人工智慧領域的一股重要力量的內在野心。智力。批評者認為,這反映了一種放鬆管制的做法,優先考慮對歐盟人工智慧公司的支持和進步,而不是嚴格的監管。

隨著《人工智慧法案》逐漸成為現實,圍繞其有效性和潛在漏洞的爭論也愈演愈烈。該立法能否真正在促進創新和維護社會之間取得平衡,還是一種精心偽裝的放鬆管制策略?未來幾個月將揭曉《人工智慧法案》對歐盟及其他地區人工智慧格局的真正影響。

資訊來源:由0x資訊編譯自CRYPTOPOLITAN。版權歸作者Aamir Sheikh所有,未經許可,不得轉載

Total
0
Shares
Related Posts