姚前:警惕算法經濟的隱含風險及作惡的可能

“算法經濟大幅改善市場經濟的匹配效率和交易成本。人們一方面歡迎和享受智能算法帶來的便利,另一方面卻擔心被智能算法替代,導致個人價值喪失。不僅如此,隨著算法經濟的快速發展,算法的滲透力和影響力越趨強大,其背後隱含的風險以及作惡的可能引起了關注。”2021年9月3日,中國證監會科技監管局局長姚前在2021年服貿會金融服務專題展期間舉行的“2021中國國際金融科技論壇”上表示。

姚前稱,首先是算法濫用。算法規則的背後是商業利益。為了追求利益最大化,算法有可能違背社會公平、道德和人性,比如大數據殺熟,同樣的商品或服務,老客戶的價格反而比新客戶要貴。只推薦給人們能潛在帶來商業利益的東西,而不是最適合、最恰當的東西。可能濫用人性弱點,過度激發、勸服、誘導客戶,使人習慣於被餵養,不自覺地對算法投放的產品沉迷上癮。只有算法邏輯,沒有考慮人性,將人“異化”為簡單的數據、商品和工具。算法的具體原理和參數只有運營企業的少部分人才能知道,有可能產生利益侵占問題。有的企業可能利用算法作惡,比如為了擴大流量,推送聳人聽聞的虛假信息;推薦虛假產品。

其次是算法偏見。算法的數據可能不一定全面,片面的數據得到的結果必然導致某種偏見。算法的設計者是人,算法設計師乃至企業管理者、價值觀的偏見可能被嵌入算法。算法的“技術光環”容易讓人盲從所謂的“科學”,但實質上有些算法卻存在很大程度的不可解釋性,比如類似“黑箱子”的機器學習算法;機器學習算法側重於相關性分析,而不是因果分析,可能產生錯誤的勾連與判斷;基於歷史數據的機器學習算法隱含著“過去決定未來”邏輯,以歷史宿命論定義和標籤每個人,某種程度上也是一種偏見。

另外,算法鴻溝也值得重視。算法通常是隱秘的,或是專利,或是商業秘密。即便公開,也因技術門檻,也不是每個人都能看懂。這就形成新的數字鴻溝。不懂算法的人群在利益受損時有可能並不知情,即便知情,也可能無力舉證和對抗。

姚前還表示,在特定領域,算法還可能引致特定風險。比如在金融領域,智能算法給出的資產配置建議有可能是推薦了與金融機構自身利益高度攸關的產品,涉嫌利益侵占;智能算法形成信息繭房,強化投資者偏見,容易掩蓋金融風險複雜性,引誘過度消費和負債,甚至誤導投資者;智能算法若存在歧視,則損害投資者公平性;智能算法趨同導致“羊群效應”,加大金融順週期風險等。

因算法背後有一些風險,各國的監管部門高度關注算法隱含的風險。例如,歐盟《一般數據保護條例》(GDPR)第22條對自動化決策加以限制,如果某種包括數據分析在內的自動化決策會對數據主體產生法律效力或對其造成類似的重大影響,數據主體有權不受上述決策的限制。又例如,針對智能算法在投資顧問中的應用,美國證券交易委員會(SEC)、英國金融業監管局(FINRA)、澳大利亞證券和投資委員會(ASIC)出台了具體的智能投顧監管指引。

對於中國而言,也採取也一些措施。 2018年發布的《關於規范金融機構資產管理業務的指導意見》也提出,要避免智能算法順週期性風險、羊群效應等相關規定。 2020年12月,中共中央印發《法治社會建設實施綱要(2020-2025年)》,提出要製定完善算法推薦、深度偽造等新技術應用的規範管理辦法,要加強對大數據、雲計算和人工智能等新技術研發應用的規範引導。網信辦就《互聯網信息服務算法推薦管理規定》向社會公開徵求意見指出,算法推薦服務提供者應當落實算法安全主體責任,建立健全相應管理制度,制定並公開算法推薦相關服務規則,配備與算法推薦服務規模相適應的專業人員和技術支撐。應當堅持主流價值導向,加強信息內容管理,同時,算法推薦服務提供者不得利用算法實施自我優待、不正當競爭、影響網絡輿論或者規避監管。

“總的來說,智能算法已在很多行業大量採用,考慮到其生態規模巨大、潛在風險和社會影響不容忽視。而我國算法監管制度正逐步完善和健全,但具體內容有待細化完善。從機理看,算法監管的具體內容至少包括以下內容。”姚前表示。

一是信息披露,即作為算法的設計者和控制方,相關主體及利益相關者應該披露算法設計、執行、使用過程中可能存在的偏見和漏洞、數據來源以及可能對個人和社會造成的潛在危害。

二是解釋,即作為採用算法自動化決策的機構,相關主體及利益相關者有義務解釋算法運行原理以及算法具體決策結果。

三是留痕與可審計,即算法系統的設計、測試、運行表現及變動留有記錄,全程監測,並可審計。

四是質詢和申訴,即確保受到算法決策負面影響的個人或組織享有對算法進行質疑併申訴的權力。

五是內部治理。相關主體應建立清晰、有效的內部治理框架、內部控制機制和責任體系,防止算法濫用,防範算法風險,並提高算法對抗性,避免算法攻擊。

六是加強行業自律。通過行業自律機制,加強算法道德和算法倫理建設。

姚前表示,不可否認,算法催生了新的經濟模式,帶來社會整體效益的提升,有其獨特優勢,但“有一利必有一弊”,近年來算法濫用、算法作惡、算法道德、算法倫理等問題已引起廣泛關注。馬克思曾在《1844年經濟學哲學手稿》中對機器工業化時代人類“異化”現象提出警示,就像機器流水線凌駕於工人之上,算法亦有可能凌駕於芸芸眾生之上,其中風險同樣值得關注與警惕。為此,加強算法監管,以監管科技應對新型科技,既是順應之策,又是必然之舉。

文|《財經》記者陳洪傑

Total
0
Shares
Related Posts