歐盟敦促人工智能工具的透明度措施打擊虛假信息


為了打擊假新聞的氾濫,歐盟官員呼籲採取額外措施來提高人工智能(AI) 工具的透明度,包括OpenAI 的ChatGPT。歐盟委員會負責價值觀和透明度的副主席Vera Jourova 強調了標記由AI 工俱生成的可能傳播虛假信息的內容的重要性。

Jourova 表示,“擁有可能產生AI 虛假信息的服務的簽署方應該採用技術來識別並向用戶明確標記此類內容。” 該指令旨在確保用戶了解他們在網上遇到的信息的來源,從而降低無意中接觸誤導性或虛假內容的風險。

此外,Jourova 強調了將生成人工智能集成到其服務中的公司(例如微軟的Bing Chat 和谷歌的Bard)需要建立保護措施,以防止惡意行為者利用這些技術進行虛假信息傳播。歐盟的虛假信息行為準則於2018 年制定,是科技行業打擊虛假信息傳播的協議和自我監管工具。

包括谷歌、微軟和Meta Platforms(前身為Facebook)在內的知名科技公司已經承諾遵守歐盟2022 年虛假信息行為準則。 Jourova 強調,這些公司以及其他公司應該在7 月之前報告AI 新保障措施的實施情況。然而,Twitter 退出該行為準則的做法引起了審查,Jourova 警告說,該公司預計將對其遵守歐盟法律的情況進行更嚴格的監管審查。

這些發展與即將出台的歐盟人工智能法案相吻合,這是一套全面的指導方針,將規範人工智能的公眾使用和部署它的公司。雖然官方法律預計將在未來兩到三年內生效,但歐洲官員已敦促生成人工智能開發人員在此期間採用自願行為準則。

歐盟的積極立場反映了其致力於確保負責任地使用人工智能技術,並採取充分的保障措施來打擊虛假信息的傳播。通過讓公司有責任標記AI 生成的內容,歐盟旨在使用戶能夠在瀏覽在線平台時做出明智的決定。

人工智能工具透明度措施的實施對全球科技行業具有更廣泛的影響。由於歐洲在監管人工智能方面處於領先地位,其他司法管轄區可能會受到影響而採用類似的指導方針。這種轉變可以在全球範圍內促進人工智能發展的更負責任和透明的方法,促進數字時代的信任和問責制。

資訊來源:由0x資訊編譯自TODAYQ。版權歸作者Om Labde所有,未經許可,不得轉載

Total
0
Shares
Related Posts