歐盟考慮對大規模人工智慧模型實施更嚴格的監管


根據彭博社報道,據報道,歐盟代表正在計劃就OpenAI 的GPT-4 等最大的人工智慧(AI) 系統的額外限制進行談判,作為即將出台的人工智慧法案的一部分。

在同一份報告中,彭博社提到,知情人士表示,目標是控制更大的模型,同時不給新創公司帶來過多的監管負擔。

消息人士稱,談判人員就該主題達成的協議仍處於初步階段。

目前,歐盟委員會、歐洲議會和各個歐盟成員國正在就大型語言模型(LLM) 的潛在影響進行討論,其中包括Meta 的Llama 2 和OpenAI 的GPT-4。此外,作為即將出台的人工智慧法案的一部分,可能會對它們施加額外的限制。

《人工智慧法案》監管大語言模型(LLM) 的方法可能類似於歐盟《數位服務法案》(DSA) 所採取的方法。

歐盟立法者最近實施了《數位服務法》(DSA),使平台和網站能夠制定保護用戶資料和掃描非法活動的標準。然而,最大的線上平台受到DSA 更嚴格的規則和監督。

Alphabet Inc. 和Meta Inc. 等此類公司必須在8 月28 日之前透過更新其服務實踐來遵守新的歐盟標準。

繼中國於2023 年8 月通過法規後,歐盟的《人工智慧法案》將成為西方政府針對人工智慧制定的第一套強制規則。開發和部署人工智慧系統的公司需要遵循新的歐盟人工智慧法規,透過執行風險評估和標記人工智慧產生的內容。除此之外,他們還被完全禁止使用生物識別監視。

然而,由於立法尚未頒布,成員國仍有可能不同意議會提出的任何提案。

據報道,自人工智慧法在中國實施以來,已有70多個新的人工智慧模型發布。

另請閱讀:Vitalik 提供了以太坊質押模型中心化風險的解決方案

資訊來源:0x資訊編譯自CRYPTOTVPLUS,版權歸作者Samuel Ikperu所有,未經許可,不得轉載

Total
0
Shares
Related Posts