歐洲議會批准《人工智能法案》,要求披露生成式AI訓練數據版權

當地時間6月14日,歐盟《人工智能法案(AI Act)》朝著成為法律的方向邁出重要一步:歐洲議會投票通過了該法案,禁止實時面部識別,並對ChatGPT等生成式人工智能工具提出了新的透明度要求。

記者方曉

  • 基礎模型的供應商將被要求聲明是否使用受版權保護的材料來訓練AI。對於谷歌和微軟等科技公司,若違反規定,罰款可能高達數十億美元。

  • 下一步是涉及成員國、議會和歐盟委員會的三方談判。爭論的一個主要領域是面部識別的使用。歐洲議會投票禁止使用實時面部識別,但仍存在是否應出於國家安全和其他執法目的而允許豁免的問題。

當地時間6月14日,在法國斯特拉斯堡舉行的歐洲議會全體會議上,議員參加了關於《人工智能法案》的投票會議。

當地時間6月14日,歐盟《人工智能法案(AI Act)》朝著成為法律的方向邁出重要一步:歐洲議會投票通過了該法案,禁止實時面部識別,並對ChatGPT等生成式人工智能工具提出了新的透明度要求。

《人工智能法案》現在將進入歐盟啟動監管前的最後階段。官員們將嘗試就這一法律草案與歐盟行政部門和成員國達成妥協,他們之間目前仍存分歧。如果該法案要在歐盟明年的選舉前生效,則必須在明年1月完成立法程序。

“這一刻非常重要。”Access Now布魯塞爾辦事處專注於人工智能的高級政策分析師丹尼爾·魯弗(Daniel Leufer)告訴《時代》,“歐盟所說的對人權構成不可接受的風險將被視為全世界的藍圖。”

歐盟批准的法律版本提出,任何應用於就業、邊境管制和教育等“高風險”用例的人工智能都必須遵守一系列安全要求,包括風險評估、確保透明度和提交日誌記錄。該法案不會自動將ChatGPT等“通用”AI視為高風險,但對“基礎模型”或經過大量數據訓練的強大AI系統施加了透明度和風險評估要求。例如,基礎模型的供應商,包括OpenAI、谷歌和微軟,將被要求聲明是否使用受版權保護的材料來訓練AI。但是,沒有類似的規定要求聲明是否在訓練期間使用了個人數據。

這些規則如何運作?

歐盟《人工智能法案》於2021年被首次提出,將適用於任何使用人工智能係統的產品或服務。

該法案根據4個級別的風險對人工智能係統進行分類,從最小到不可接受。風險較高的應用程序,例如招聘和針對兒童的技術將面臨更嚴格要求,包括更加透明和使用準確的數據。

歐盟的主要目標之一是防範任何人工智能對健康和安全構成威脅,並保護基本權利和價值觀。

這意味著某些AI用途是絕對禁止的,例如根據人們的行為來判斷他們的“社會評分”系統,以及利用弱勢群體(包括兒童)或使用可能導致傷害的操縱潛意識的AI,比如鼓勵危險行為的交互式對話工具。用於預測誰犯罪的預測性警務工具也將被禁止。

此外,用於就業和教育等類別的人工智能係統會影響一個人的生活進程,將面臨嚴格要求,例如對用戶保持透明,並採取措施評估和減少算法帶來的偏見風險。

歐盟委員會表示,大多數人工智能係統,如視頻遊戲或垃圾郵件過濾器,都屬於低風險或無風險類別。

爭論的一個主要領域是面部識別的使用。歐洲議會投票禁止使用實時面部識別,但仍存在是否應出於國家安全和其他執法目的而允許豁免的問題。另一項規定將禁止公司從社交媒體上抓取生物識別數據來建立數據庫。

當天,歐洲議會的一群右翼立法者在最後一刻試圖取消法案提議的實時面部識別禁令,但遭到立法者否決。

這些規則的執行將取決於歐盟的27個成員國。監管機構可能會迫使企業從市場上撤回應用程序。在極端情況下,違規行為可能會被處以高達3000萬歐元(約合3300萬美元)或公司全球年收入6%的罰款,對於谷歌和微軟等科技公司而言,罰款可能高達數十億美元。

和ChatGPT有什麼關係?

法案最初的措施幾乎沒有提到聊天機器人,僅要求對其進行標記,以便用戶知道他們正在與機器進行交互。談判人員後來增加了條款,以涵蓋像ChatGPT這樣廣受歡迎的通用人工智能,使該技術滿足一些與高風險系統相同的要求。

一個關鍵的補充是,法案要求徹底記錄任何用於訓練AI系統如何生成類似於人類作品的文本、圖像、視頻和音樂的版權材料。這將使內容創作者知道,他們的博客文章、電子書、科學論文或歌曲是否已被用於訓練為ChatGPT等系統提供動力的算法。然後他們可以決定其作品是否可以被複製並尋求補償。

一些擔心人工智能模型帶來安全風險的專家認為,該法案沒有對人工智能係統可以使用的計算能力進行限制。隨著每個新版本的發布,像ChatGPT這樣的大型語言模型使用的計算量呈指數級增長,這將極大提高其能力和表現。 “用於訓練人工智能係統的計算越多,人工智能就會越強大。能力越大,風險和危險的可能性就越大。”人工智能安全初創公司Conjecture的戰略和治理主管安德里亞·米奧蒂(Andrea Miotti)告訴《時代》。

米奧蒂指出,研究人員衡量系統總計算能力相對容易,因為用於訓練大多數尖端AI的芯片是一種物理資源。

為什麼歐盟的監管很重要?

《時代》指出,歐盟並不是尖端人工智能開發的重要參與者,這個角色由美國和中國扮演,但歐盟經常扮演引導潮水的角色,其法規往往成為事實上的全球標準,並已成為針對大型科技公司力量的先驅。

專家表示,歐盟單一市場規模龐大,擁有4.5億消費者,這使得公司更容易遵守規定,而不是為不同地區開發不同的產品。通過為人工智能製定通用規則,歐盟還試圖通過在用戶中灌輸信心來發展市場。

“這是可以強制執行的法規,公司將被追究責任這一事實意義重大”,因為美國、新加坡和英國等地僅提供了“指導和建議”,愛爾蘭公民自由委員會的高級研究員克里斯·施里薩克(Kris Shrisak)說,“其他國家可能想要適應和復制”歐盟規則。

其他一些國家也在加緊監管步伐。比如,英國首相蘇納克(Rishi Sunak)計劃在今年秋天舉辦人工智能安全世界峰會。 “我想讓英國不僅成為知識的家園,而且成為全球人工智能安全監管的地理家園。”蘇納克在本週的一次技術會議上說,英國峰會將匯集“來自世界各地的學術界、商界和政府”人士,共同致力於“多邊框架”。

艾達·洛芙萊斯研究所(Ada Lovelace Institute)的代理主任弗朗辛·貝內特(Francine Bennett)告訴《紐約時報》:“快速發展和可迅速轉用的技術當然很難監管,因為即使是開發該技術的公司也不清楚事情將如何發展。但如果在沒有充分監管的情況下繼續運營,對我們所有人來說肯定會更糟。”

然而,美國計算機與通信行業協會認為,歐盟應避免過於寬泛的監管,否則會抑制創新。該機構歐洲政策經理博尼法斯·德·尚普里斯( Boniface de Champris )說,“歐洲的新AI規則需要有效化解被明確定義的風險,同時為開發人員提供足夠的靈活性來交付為所有歐洲人謀福利的人工智能應用。”

下一步是什麼?

法案完全生效可能需要數年時間。下一步是涉及成員國、議會和歐盟委員會的三方談判,在他們試圖就措辭達成一致前可能面臨更多變化。

魯弗分析,在即將到來的三方對話階段,代表成員國政府的歐洲理事會預計將強烈主張執法和邊境部隊使用的人工智能工具免於對“高風險”系統的要求。

法案預計將在今年年底獲得最終批准,隨後是企業和組織適應的寬限期,通常約為兩年。但領導該法案工作的歐洲議會意大利議員布蘭多·貝尼菲(Brando Benifei)表示,他們將推動更快地採用生成式AI等快速發展技術的規則。

為了在立法生效前填補空白,歐洲和美國正在起草一份自願行為準則,官員們在5月底承諾將在幾週內起草該準則,並可能擴大到其他“志同道合的國家”。

展開全文打開碳鏈價值APP 查看更多精彩資訊

Total
0
Shares
Related Posts