來源:澎湃新聞
記者方曉
圖片來源:由無界AI工俱生成
·歐盟擬要求開發ChatGPT等生成式人工智能工具的公司披露是否在系統中使用了受版權保護的材料。該協議為世界上第一部綜合性人工智能法律《人工智能法》鋪平道路,預計將產生全球性影響。
當地時間4月27日,經過幾個月的緊張談判,歐洲議會成員已經彌合分歧,就《人工智能法(The AI Act)》提案達成臨時政治協議,要求部署ChatGPT等生成式人工智能工具的公司披露用於開發其係統的受版權保護的材料。該協議為世界上第一部綜合性人工智能法律鋪平道路。
在定於5月11日進行的關鍵委員會投票前,提案文本可能仍需在技術層面上進行細微調整,6月中旬預計將進行全體投票。
最後一刻的變化:生成式人工智能監管
《人工智能法》預計將成為歐盟一項具有里程碑意義的立法,已經醞釀了兩年多。立法者提議根據他們認為的風險級別對不同的人工智能工具進行分類,從最低到有限、高和不可接受。使用這些工具的政府和公司將根據風險級別承擔不同的義務。
該法案範圍廣泛,將管轄所有人工智能產品或服務的提供方,涵蓋可以生成內容、預測、建議或影響環境的決策的系統。
除了企業對人工智能的使用外,法案還將研究公共部門和執法部門使用的人工智能,並與《通用數據保護條例(GDPR)》等法律協同工作。與人類互動、用於監視目的或生成“深度偽造”內容的人工智能係統的使用者將面臨嚴格的透明度義務。
直到最後一刻,歐盟立法者還在對提案中一些最具爭議的部分進行討論。
“通用目的人工智能係統(General Purpose AI System)”是立法者提出的一個類別,用於解釋具有多個應用程序的人工智能工具,例如ChatGPT這樣的生成式人工智能模型。如何處理“通用目的人工智能係統”一直是討論中爭論激烈的話題。歐洲議會確認了之前的提案,即對“通用目的人工智能係統”的一個子類別——基礎模型施加更嚴格的要求。根據要求,開發ChatGPT等生成式人工智能工具的公司必須披露他們是否在系統中使用了受版權保護的材料。
協議達成前夕唯一重要的變化就是關於生成式人工智能模型,“這些模型的設計和開發必須符合歐盟法律和基本權利,包括表達自由。”
《人工智能法》還禁止“有目的的”操縱。 “有目的的”這個詞有爭議,因為可能難以證明故意性,但仍被保留下來。
另外,在執法、邊境管理、工作場所和教育領域,法案要求禁止使用AI驅動的情緒識別軟件。
歐盟立法者對預測性警務(predictive policing)的禁令從刑事犯罪擴展到了行政犯罪,其依據是荷蘭兒童福利醜聞,該醜聞中成千上萬的家庭因有缺陷的算法而被誤判為欺詐。
高風險分類變化
許多人工智能工具可能被認為是高風險的,例如用於關鍵基礎設施、執法或教育的工具。它們比“不可接受”低一級,因此不會被完全禁止,但需要在操作中保持高度透明。高風險人工智能的使用者可能需要完成嚴格的風險評估,記錄他們的活動,並向當局提供數據以供審查。這可能會增加公司的合規成本。
最初的提案將某些關鍵領域和用例的人工智能解決方案自動歸類為高風險,這意味著供應商必須遵守更嚴格的製度,包括對風險管理、透明度和數據治理的要求。歐洲議會引入了一個額外的層次,使這些類別的人工智能模型只有在對健康、安全或基本權利構成重大風險的情況下才會被視為高風險。
重大風險被定義為“由於其嚴重性、強度、發生的概率和影響的持續時間而具有重大意義的風險,並且能夠影響一個人、多個人或一個特定群體”。
根據綠黨的要求,用於管理能源網或水系統等關鍵基礎設施的人工智能,如果帶來嚴重的環境風險,也將被歸類為高風險。
此外,中左翼立法者還爭取到了一個規定:根據《數字服務法》(DSA)的定義,超大型在線平台的推薦系統將被視為高風險。
歐洲議會議員為高風險人工智能模型的提供者處理敏感數據(如性取向或宗教信仰)以檢測負面偏見的過程,納入了額外的保障措施。此外,評估必鬚髮生在受控環境中。敏感數據不能被傳輸給其他方,並且必須在偏見評估後被刪除。提供者還必須記錄數據處理髮生的原因。
《國家法律評測》4月26日報導稱:“《人工智能法案》將產生全球性的影響,因為它將適用於在歐盟提供或使用人工智能係統的組織;以及位於第三國(包括英國和美國)的人工智能係統的提供者或使用者,如果這些人工智能係統產生的輸出在歐盟使用。”
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載