新興產業的立法速度正不斷加快,在多國政府注意到ChatGPT風險時,生成式人工智能(AIGC)產業也在國內迎來首份監管文件。
4月11日,國家互聯網信息辦公室就《生成式人工智能服務管理辦法(徵求意見稿)》(以下簡稱《徵求意見稿》)公開徵求意見,《徵求意見稿》共21條,對生成式人工智能產業給出較為詳盡的規定,其中包括定義、准入資格、責任義務和處罰措施等。
“國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作,鼓勵優先採用安全可信的軟件、工具、計算和數據資源。”在《徵求意見稿》中,明確了對生成式人工智能產業的支持和鼓勵態度。
目前,包括百度、騰訊、阿里、華為、京東、360等多家國內科技巨頭均已宣佈在生成式AI產業有相應佈局。同時,包括美國、意大利、德國在內的多個國家已經註意到ChatGPT所帶來的風險,正在考慮出台相應監管措施。
多位接受澎湃新聞記者採訪的學者表示,徵求意見稿對於企業的數據治理水平、數據合規體系的建設提出了更高的要求。多家券商報告顯示,《徵求意見稿》有利於產業健康發展和規範應用。
首次對生成式人工智能進行系統監管
“這是國家首次專門針對生成式人工智能進行系統監管。”對於《徵求意見稿》出台,西南政法大學數字法治政府研究院副教授鄭志峰告訴記者。
在他看來,《徵求意見稿》中有兩處尤為值得關注:其一是延續全過程、全要素的監管理念,既關註生成式人工智能的研發,也關註生成式人工智能的利用,確立了安全評估、算法備案、預訓練數據合規、人工標註合規、使用監管等全流程的監管歸責,涵蓋算法、個人信息保護、數據安全、計算資源等各種基礎要素。
二是強化提供者的責任,從風險控制的角度入手,要求生成式人工智能產品或者服務的提供者肩負一系列職責,遵守法律法規,尊重社會公德、公序良俗,對於算法、模型、個人信息、數據、內容、用戶都要負擔相應的責任,確保技術可控、技術向善。
記者觀察到,《徵求意見稿》中尤為強調對個人數據和信息的保護,多次提到信息安全的重要性。其中要求:提供生成式人工智能必須尊重他人合法利益,防止傷害他人身心健康,損害肖像權、名譽權和個人隱私,侵犯知識產權。禁止非法獲取、披露、利用個人信息和隱私、商業秘密。 “意見稿代表了監管部門的監管方向,基本是延續安全與發展並重的監管思路,為我國生成式人工智能產業發展指明方向,劃出一條安全線,讓企業在研發、提供生成式人工智能產品或者服務時合規有據、有法可依。”鄭志峰認為。
對此,中國社科院法學所研究員、科技與法研究中心主任楊延超表示,“《徵求意見稿》對生成式人工智能產業發展是積極信號。現在大家擔心的問題不是ChatGPT能力不夠強,而是隨之而來的安全隱患。《徵求意見稿》用較為精簡的條款確定了產業發展的基本方向,確保信息安全,保護中國經濟。”
“《徵求意見稿》突出的是從數據合規、數據治理的角度來實現監管的目標,對於各企業的數據治理水平、數據合規體系的建設提出了更高的要求。”北京師範大學法學院博士生導師、中國互聯網協會研究中心副主任吳沈括告訴記者,這也意味著提高准入主體的數據運用能力水平,將會形成一定的數據層面的准入門檻。
奇安信相關安全專家告訴澎湃新聞記者,《徵求意見稿》的發布以及全球範圍內對於AIGC的監管力度加強,意味著數據安全和隱私保護已經成為AIGC發展的前提和關鍵。隨著AIGC技術的日益成熟和普及,企業應該更加重視數據安全和隱私保護問題,在開展相關業務時積極尋求專業的網絡安全技術和諮詢服務的支持,確保業務的安全和可靠性。
或將帶動數據安全產業需求
在鄭志峰看來,人工智能技術對於數字中國建設至關重要,需要重點考慮兩點:一是當前國內生成式人工智能行業的發展尚處於追趕階段,監管要適當多考慮促進技術發展的目標;二是生成式人工智能具有通用型技術的特點,可以廣泛賦能醫療、教育、娛樂、政務等,未來需從具體場景來細化監管。
據多家券商研報顯示,《徵求意見稿》將加速生成式人工智能產業的發展。
國聯證券研報顯示,《徵求意見稿》是生成式人工智能領域的首份監管文件,其發布符合預期,是《網絡安全法》等上位法在生成式人工智能領域的具體落實,有利於產業的健康發展和規範應用。
“網絡安全、數據安全是保障生成式人工智能產業健康發展和規範應用的關鍵,產業鏈相關企業均將不同程度受益於生成式人工智能產業發展。”國聯證券表示,《徵求意見稿》提到,提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗;用於生成式人工智能產品的預訓練、優化訓練數據,應符合《網絡安全法》等法律法規的要求;提供者在提供服務過程中,對用戶的輸入信息和使用記錄承擔保護義務。生成式人工智能產業的發展,或將帶動網絡安全、數據安全需求。
平安證券研報分析稱,《徵求意見稿》對生成內容、主體責任、數據源和數據處理等方面均做出了規定。在內容方面,要求不得危害國家和社會,傳遞虛假、造謠和有害信息;在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中,不得出現歧視;尊重知識產權,保證生成內容的準確性;不得侵犯他人的合法權益。利用生成式人工智能產品提供服務的組織和個人,承擔內容生產者責任,履行信息保護的義務。
平安證券表示,新技術發展和監管合規是相輔相成的關係。近年來,移動互聯網、雲計算、大數據、區塊鍊等技術快速湧現,而且都實現了有序、蓬勃的發展,背後離不開監管在網絡安全機制體制建設上的完善,以及產業政策引導,真正實現了“技術向善”。同時,監管政策也正在積極適應信息技術的革新。尤其AIGC面世以來,監管機構對數據處理主體、數據處理過程以及伴隨的國家安全和信息安全的認識也在逐步清晰。
“我們預計,隨著更多AIGC技術的應用落地,一些潛在的風險將更多的被認識和暴露,監管側的監管措施也會更’對症’,《徵求意見稿》只是第一步。”
多國加強監管人工智能
此前據《華爾街日報》報導,拜登政府已經開始研究是否需要對ChatGPT等相關工具進行限制。美國商務部4月11日就相關的問責措施正式公開徵求意見,包括具有潛在風險的新型人工智能模型在發布前是否應該進行核准認證程序。這被視作是邁出對人工智能領域實行潛在監管的第一步。
“我國在個人信息保護和數據立法領域與歐盟、美國並行,在算法治理和深度合成治理領域則成為了一定意義上的領跑者。”中國政法大學數據法治研究院教授張凌寒告訴澎湃新聞記者。
“在新興領域立法速度加快,已經成為了世界各國的一個常態。不管是歐盟和美國,實際上都在這一周之內,提出了有關生成式人工智能的治理方案。”在她看來,掌握人工智能治理的話語權、規則制定權,搶先形成新的國家競爭優勢,已經成為世界不同法域的努力目標。
“ChatGPT等生成式人工智能的爆發,是推動深度合成成為人工智能治理專門領域的有利契機。”張凌寒表示,《徵求意見稿》的製度設計一方面延續了《互聯網信息服務深度合成管理規定》關於標識、評估、備案等既有製度安排,另一方面就訓練數據、人工標註等提出了新的合規要求,相比於《互聯網信息服務深度合成管理規定》確實體現出監管邏輯更新和製度體系迭代的新趨勢。
她認為,應促進以ChatGPT為代表的生成式人工智能健康發展,積極構建符合中國本土經濟、社會、政治、價值觀,能夠促進國家人工智能技術產業長遠合法發展的治理制度,才將有助於形成真正的製度競爭優勢。
澎湃新聞記者梳理髮現,多個國家已出台或正討論對ChatGPT的監管措施。 4月初,德國聯邦數據保護專員烏爾里希·凱爾伯(Ulrich Kelber)表示,德國可能會追隨意大利的腳步,因數據安全問題“封殺”ChatGPT。
當地時間3月31日,意大利個人數據保護局宣布,從即日起禁止使用ChatGPT,限制ChatGPT的開發公司OpenAI處理意大利用戶信息,並開始立案調查。
據路透社報導,特斯拉首席執行官、推特“掌門”埃隆·馬斯克與一眾人工智能專家和行業高管在一封公開信中,呼籲暫停訓練比OpenAI新推出的GPT-4模型更強大的人工智能係統至少6個月,理由是它們對社會和人類構成潛在風險。