人工智能監管:歐洲對人工智能倫理的態度


拇指1

著名技術戰略家Clara Durodié 討論了歐盟提出的關於人工智能(AI) 技術的新道德法規。

幾十年來,人工智能的倫理問題一直備受爭議。但隨著AI 工具在許多行業中變得司空見慣,對“對”和“錯”缺乏明確性可能讓創新者和企業都想知道下一步該怎麼做。歐盟最近宣布了一套擬議的法規,以解決各種人工智能技術的風險。技術策略師Clara Durodié 分享了她對歐盟計劃及其對金融服務等高度監管行業的影響的見解。

對人工智能倫理影響的擔憂並不是什麼新鮮事。艾薩克·阿西莫夫(Isaac Asimov) 在1940 年至1950 年間在科幻雜誌上發表了後來成為經典小說《我,機器人》的故事。從那時起,人工智能橫行的未來繼續吸引著大眾的想像。

然而,機器學習技術的日常現實已經存在。當然,在道德和法律之間通常會有明顯的曙光。

數據科學家們自己也經常就合乎道德地使用人工智能的適當協議產生分歧。但矽谷的遠見者(和風險投資家)傾向於認為政府應該允許公司開發不受監管約束的新興技術。消費者權益保護者通常不同意。

這一切對於金融服務和其他高度監管行業的人工智能應用意味著什麼?讓我們進行一次佈魯塞爾的虛擬旅行,了解歐盟計劃如何應對道德AI 的挑戰。

歐盟4 月21 日的一項提案提出了一個細緻入微的監管結構,其中包括徹底禁止某些人工智能以及對其認為“高風險”的其他人工智能技術進行嚴格監管。

“歸根結底,我們生產的數據,包括金融數據,是我們的財產,”返回的客人克拉拉杜羅迪說,他是《金融服務中的人工智能解碼》的作者,牛津大學的人工智能導師和英國非執行董事委員會人工智能採用最佳實踐特別委員會的前任主席。

所以任何從我們的數據中學習的系統都應該接受審查,對嗎?

在Tech on Reg 的一中心化,Clara 分享了她對擬議法規的看法以及它們對金融科技和相關業務的影響。

空白的

兩年走向“清晰”

歐盟希望概括歐洲價值觀:人權、數據隱私和公民“做自己並擁有私密空間的權利”,克拉拉說,他認為擬議的法規是受歡迎和必要的,“以澄清許多灰色地帶和困惑。”

預計歐洲成員國將在2023 年或2024 年左右最終確定和批准這些法規。它們允許有24 個月的過渡期,讓公司有時間調整和調整其內部政策以實現合規性。

但我想知道:24 個月夠嗎?

“坦率地說,這永遠不夠,”克拉拉承認。 “無論你給人們15 個月還是150 個月,不知何故,事情都會留到最後一刻。 這是一個領導力問題——提前計劃,預防而不是應對危機。”

這些法規雖然是由歐盟發布的,但適用於所有希望向歐洲公民銷售使用人工智能技術的產品的人。所以美國公司應該注意——因為有很多,克拉拉補充道。

“雖然它們看起來很多,但它們為這些技術和系統的構建、部署和維護方式帶來了急需的清晰度和結構。”

不可接受的風險業務

歐盟監管機構採取了一種基於風險的方法,將人工智能用戶分為四個風險組:“最小”、“有限”、“高”和“不可接受”。

克拉拉解釋說,後兩者是擬議法規的主要重點。

“不可接受”的技術包括數據主體(人)的遠程生物特徵識別,以及可能通過使用潛意識技術造成身體或心理傷害的系統,或利用受保護人群(如處於或超過特定年齡或有殘疾的人) 。根據這些計劃,他們將被徹底禁止。

歐盟並不認為這些新規則是一成不變的。將持續審查、修訂和/或擴展有關高風險人工智能係統的法規。

她說,這“為人們總是說的話提供了一些空間”。 “對於任何一項監管,都會有計劃外的副作用。”

金融三大高風險

擬議的歐盟法規中有三個領域與金融服務公司以及為金融業提供服務的技術公司直接相關。

允許使用以下系統——但公司必須遵守嚴格、詳細的義務,“圍繞風險管理、數據質量、技術文檔、人工監督、透明度、穩健性、準確性和安全性,”克拉拉說。

招聘

旨在宣傳空缺職位的人工智能應用程序; 屏幕應用程序; 和評估候選人都被證明包含一些社會經濟、文化、種族、民族或性別偏見。

信用價值或信用評分

克拉拉指出,“在將信用評分列為高風險人工智能係統時,即使在歐洲也有很多阻力”。 “但顯而易見的是,當信用評分系統運行時,其中一些包含’替代數據’,這些數據已被證明是對隱私和數據保護法的公然侵犯。”

現金流數據和公用事業賬單支付等所謂的“替代數據”在美國被吹捧為解決信用評分中種族偏見的方法,但克拉拉認為,在歐洲,它可能與“社會我們在中國看到,像亂穿馬路這樣的輕微違規行為會影響公民獲得信貸甚至就業的能力。

監控/評估工作績效和行為

Clara 將此類別稱為“出於合規目的或算法管理的員工監控”。

幾年前,當Clara 在寫她的書時,當她看到當時的IBM 首席執行官Ginni Rometty 在達沃斯發表演講時,她被“觸發”進一步研究了這一點。

“她非常熱衷於向世界解釋其最新的人工智能係統如何使公司能夠預測員工何時可能離開他們的組織,”克拉拉說。 “這只是盤點成員工保留政策的監控。”

作為一名在企業環境中工作的老手,她發現在工作中“感覺自己被監控非常有壓力”。雖然美國的大多數工人基本上都希望情況如此,但她說歐洲人的想法不同。

“在歐洲的任何地方,沒有人會因為受到這種程度的監視而感到自在,”她說。這就是為什麼這種人工智能技術正是歐盟尋求監管的東西——因為它與“歐洲價值觀”背道而馳。

參考“框架”

批評者會讓我們相信,像歐盟提出的那些法規會扼殺創新。但克拉拉斷然不同意。

“我不反對創新,”她說。 “離得很遠。 但我提出了一種不同的方式來構建敘述。 有時,當我們受到限制時,創新就會發生。”

這就是“Framers”的論文,這是經濟學家Kenneth Cukier 和大數據專家Viktor Mayer-Schönberger 和Francis de Véricourt 的新書,克拉拉向她的客戶和任何對認知心理學感興趣的人推薦。

他們的想法是,人類的觀點和偏見——我們的“框架”——可以用作幫助我們做出更好決策的工具。 (在其他主題中,作者討論了#MeToo 標籤如何重新定義對性侵犯的看法,以及新西蘭將Covid-19 定義為類似於SARS(而不是季節性流感)如何使該國在很大程度上遠離大流行。

進一步打個比方,克拉拉將監管視為一個永遠的“框架”。

“還有什麼行業比金融科技更成功地重塑了自己?” 她問。 “用技術如此成功地重塑自我的另一個行業是什麼? 這是醫療保健。”

她指出,這是兩個受到高度監管的行業。

“我認為這項擬議的法規為構建未來的商業模式提供了最低限度的必要條件,並為我們應該如何運行構建和維護這些系統的流程提供了結構,”她說。

“我不相信這項規定會扼殺創新。 離得很遠。 如果有的話,創新將在歐洲蓬勃發展。”

本文基於Tech on Reg 的一集,這是一個播客,探討法律、技術和高度監管行業交叉領域的所有事物。請務必訂閱未來的劇集。

資訊來源:由0x資訊編譯自DATADRIVENINVESTOR,版權歸作者Dara Tarkowski所有,未經許可,不得轉載

Total
0
Shares
Related Posts