區塊鏈

發展人工智能技術規矩不可少

近日,兩件與人工智能技術應用有關事件引發社會廣泛關注。第一件是一款視頻編輯軟件在社交媒體刷屏。該軟件可以方便、快速地將視頻中人物換為用戶上傳的任意人的臉。實際上,這種視頻換臉很早以前利用專業視頻編輯軟件也可以實現,不過需要使用者有相應的技術,過程複雜。現在人工智能技術將這一複雜的技術過程簡單化、快速化,普通人也可以輕鬆駕馭。第二件是一張學生課堂行為分析的圖片,人工智能技術將學生抬頭、看手機、低頭、記筆記、打瞌睡等行為進行統計標明。

換臉應用有兩點需要我們警惕:一是這種技術對社會信息傳播秩序帶來的衝擊。慣常來說,視頻對信息的保真度是高於文字和圖片的,視頻能夠相對準確傳播信息,是社會信息傳播系統重要的媒介符號。這種易得、簡單的換臉應用程序,如果被濫用勢必引發傳播秩序的混亂。二是這類應用軟件收集人臉信息的合法性、安全性、可靠性存疑。人的面部、虹膜、指紋等生物特徵識別信息,是重要的個人隱私信息。這類信息的重要性遠大於地址、密碼等類型信息。地址、密碼可以修改,面部特徵、指紋等生物信息終身唯一,無法更改,洩露後果的嚴重性,怎麼說都不為過。如果這類信息一旦洩露,無可挽回,技術的開發者也無能為力,不論是技術開發者主觀濫用,還是遭到黑客攻擊、無意洩露,都難以挽回。現在刷臉在金融支付、交通出行、公共安全等領域已經廣泛應用。面部生物信息的洩露,給整個社會體繫帶來的影響難以估量。

人工智能將學生課堂行為量化分析的問題在於,一是這種技術對學生行為分析的準確性、可靠性與可信度存疑。人工智能終究是一種算法,其當下能做到的是對個體行動軌蹟的捕捉,不具備對人類豐富複雜的社會行為及其發生的場景準確判斷和識別。同樣是一個動作其意義可能差別很大。技術可以檢測到學生低頭寫字,但到底寫的是上課內容還是無關信息,顯然再高級的人工智能也無法判斷。人工智能可以準確識別學生是否出勤,但將課堂這麼複雜豐富的人類行為場景,進行絕對量化的分析,不可靠。其次,即使技術上是可靠的,那麼這種將學生課堂學習的行為如此量化來管理的道德正當性存疑。我們講教育以人為本,因材施教,人不是機器,不能將學生行為進行徹底的數字化管理,技術不能奴役人。

這兩件事反映出人工智能技術在快速發展和廣泛應用,然而我們整個社會似乎對這種技術的認識還有待深化,對其帶來的風險和挑戰還沒有做好治理準備。

在認識方面,人工智能技術可以高效、有效解決很多領域的問題,但要避免所有問題都由人工智能解決。人工智能對解決那些機械、枯燥、數據量龐大的、簡單重複問題有效,但其缺少人情味、人性,所以在需要體現人的精神、情趣、想像、體現人性的工作,一定要人來做,不能一味追求技術解決。技術不是萬能的。

人工智能技術治理關鍵是抓住三個核心關鍵問題:算法、數據和算力。政府要在涉及算法和數據兩方面來立法和監督。要確保算法公開透明、可監督。數據方面對相關技術產品使用數據的種類、規模方面強化監管。在涉及人面部特徵信息、指紋、血液等人體生物特徵信息要設立嚴格的標準,從採集、傳輸、存儲等環節規制,確保涉及個人安全和國家安全信息不被濫用和安全可控。數據應用的用戶規模要與企業的安全保障能力匹配。此外,在涉及重要領域和廣泛人群的技術應用要建立人工智能使用的倫理與安全評估機制,類似於醫學研究的倫理評估環節,確保技術發展的正確方向和合理使用。建立第三方專業組織監督人工智能技術應用的安全性、可靠性與可控性。

企業要落實主體責任。在技​​術開發環節,遵循人工智能開發的基本原則:公平、可靠與安全、隱私與保障、包容、透明和負責,確保技術的可靠性、合法性和符合人類倫理規範。企業要有底線意識,不觸犯相關的法律法規,要遵循基本的社會價值規範和公共道德,承擔相應的社會責任。在各個軟件分發平台,要嚴格檢驗應用的權限,確保用戶下載應用的安全可靠性。

用戶方面,要提升公眾的技術使用素養,培養正確認識、合理使用技術的能力。也要研究在人工智能技術應用場景中,考慮用戶選擇權,包括是否使用人工智能技術以及使用的程度。

人工智能作為革命性的新技術,沒有人能準確預測技術的未來結果。在對互聯網治理上我們過去奉行“先發展後治理”的理念,人工智能技術應用的行業領域廣泛、算法不透明、結果隱蔽,其治理與要其發展同步,應秉持“邊發展邊治理”的理念。最終讓人工智能技術更好服務人類社會發展。 (作者係天津師範大學新聞傳播學院教師張建軍)

文章來源:算力智庫       作者:張建軍           編輯:卻原來