觀察|美國監管AI背後:哪個政府機構牽頭? AI四大門派聽誰的?


來源:澎湃新聞

記者方曉

圖片來源:由無界AI工俱生成

·對於監管機構可能使用何種方法來監督人工智能技術,或者由哪個機構牽頭,美國尚未達成明確的共識。地盤爭奪戰、政治分歧和有限的技術專業知識阻礙了治理科技行業的努力。在美國,科技行業沒有類似於科技部一樣的中央管理機構,而是屬於多個機構的管轄範圍。

·在美國科技界,對於人工智能的態度如今分為幾大陣營:AI安全派、通用人工智能信徒、AI末日論者和AI倫理學家。他們之間的激烈分歧正在加劇,對華盛頓的決策產生復雜影響。

在美國總統拜登就人工智能是否存在威脅表態後,美國聯邦政府各機構開始正式採取監管行動,尋求提高人工智能的安全性並將危害降至最低。

當地時間4月11日,美國商務部就ChatGPT等人工智能技術相關的問責措施正式公開徵求意見,包括具有潛在風險的新型人工智能模型在發布前是否應進行核准認證程序。同日,美國聯邦貿易委員會也對監管人工智能表態。美國國家標準與技術研究院則已製定負責任地使用人工智能的方法框架,並試圖在政府的AI監管工作方面扮演突出角色。

在華盛頓,對人工智能的興趣和擔憂都在增加,捍衛者和批評者越來越多地向國會過道兩邊的政策制定者示好。在科技界,基於管理人工智能的不同態度至少分成了四個陣營,這給決策帶來了十分複雜的影響。目前,對於監管機構可能使用何種方法來監督人工智能技術,或者由哪個機構牽頭,美國尚未達成明確的共識。地盤爭奪戰、政治分歧和有限的技術專業知識阻礙了治理科技行業的努力。在美國,科技行業沒有類似於科技部一樣的中央管理機構,而是屬於多個機構的管轄範圍。

多個政府機構採取行動

上週,拜登在白宮與一個科學家顧問委員會討論了人工智能監管的話題。當有記者問及人工智能技術是否有危險時,拜登表示:“還有待觀察,有可能(有危險)。”

ChatGPT等人工智能工具可以快速生成類似人類使用的文字、圖像與視頻等。 “這些工具即便在起步階段就能做到這些,這真令人驚訝。”美國商務部下屬機構國家電信與信息管理局局長艾倫·戴維森(Alan Davidson)11日說,“我們知道,我們需要設置一些界限,來確保這些技術被負責任地使用。”

美國國家電信與信息管理局局長艾倫·戴維森4月11日宣布,就人工智能技術相關的問責措施正式公開徵求意見。

美國商務部提出,可能採用審計系統,評估人工智能係統是否包含有害偏見或誤解,從而傳播錯誤信息或虛假信息。戴維森表示,可能需要新的評估和協議來確保人工智能係統在沒有負面影響的情況下運行,就像財務審計確認業務報表的準確性一樣。

據戴維森介紹,徵求意見的期限為60天,這些意見有助於向美國的政策制定者提供有關如何處理人工智能的建議。國家電信與信息管理局負責就技術政策向美國總統提供建議,而非撰寫或執行法規。

美國聯邦貿易委員會消費者保護局局長山姆·萊文(Sam Levine)在當地時間4月11日的一次採訪中表示,聯邦貿易委員會正在檢查生成式人工智能可能加劇詐騙或欺詐的方式。該機構2月發布了一篇措辭激烈的博客文章,警告其正在關注企業是否發布有關人工智能技術的欺騙性聲明。 “最近生成式人工智能的一些發展帶來了一系列全新的風險。”萊文說。

聯邦貿易委員會主席利納·汗(Lina Khan)的兩位前顧問安巴·卡坎德(Amba Kakand)和薩拉·邁爾斯·韋斯特(Sarah Myers West)也在近日呼籲監管機構加強反攻,並在一份新報告中指出,科技行業的資源中心化可能會加劇人工智能的危害。報告敦促聯邦官員“迅速”使用已經掌握的工具,包括反壟斷權力,並製定如何抵制矽谷“人工智能炒作”的路線圖。

“少數私人行為者在開發和傳播人工智能作為關鍵的社會基礎設施的同時,增持了與民族國家相抗衡的權力和資源。”報告稱。兩位前顧問還特別警告,將美國人工智能發展速度與中國相提並論的言論,已被用來推動“在競爭、隱私和算法問責制的政策辯論中”放鬆管制。

與此同時,為新技術制定標準的美國聯邦實驗室國家標準與技術研究院(National Institute of Standards and Technology)已經制定了負責任地使用人工智能的方法框架。一位不願透露姓名的知情人士告訴《華盛頓郵報》,最近科技高管和立法者在矽谷舉行了一個會議,與會者提出了由國家標準與技術研究院協調整個政府AI工作的想法。

在此次會議上,關注與中國技術競爭的眾議院小組的成員與科技高管討論瞭如何發展更多人工智能專業人才,高管們肯定了國家標準與技術研究院的AI框架,該框架描述了行業化解AI風險的最佳實踐是什麼,並推測國家標準與技術研究院可以在加強政府AI工作方面發揮作用,就像網絡安全和基礎設施安全局(Cybersecurity and Infrastructure Security Agency)協調政府應對網絡攻擊一樣。

全面AI立法的可能性“微乎其微”?

隨著人工智能軍備競賽在矽谷升溫,華盛頓的機構正在努力研究,它們在監管快速發展的技術方面應該扮演什麼角色。美國沒有類似於中國科技部的部門,儘管在上世紀50年代,該國曾圍繞是否設立科技部進行過一場大爭論。

“由於未能建立相關體系,政策制定者正在為人工智能的惡意競爭創造條件。”政策研究機構艾達·洛芙萊斯研究所(Ada Lovelace Institute)所長卡莉·金德(Carly Kind)上個月警告稱。

弗吉尼亞州民主黨眾議員唐·貝耶(Don Beyer)曾抱怨,他提出的一項要求審計人工智能的法案未能獲得支持,原因是這個問題“對議員們來說並不緊迫”。現年72歲的貝耶正在攻讀機器學習碩士學位。

加州共和黨眾議員傑伊·奧伯諾特(Jay Oberolte)是國會唯一擁有人工智能碩士學位的議員。他說,議員們甚至不理解這項技術:“令人驚訝的是,我花了太多時間向同事解釋,人工智能的主要危險,並不是眼睛裡冒紅光的終結者T800。”

還有一些議員則更強調美國在人工智能發展方面保持領導地位的重要性。得克薩斯州共和黨參議員特德·克魯茲(Ted Cruz)就曾指出,國會必須“確保美國在整個21世紀都保持全球領導者的地位”。

由於沒有用來分配資源和增加監管權力的新立法,美國各機構正忙著將現有工具應用到生成式人工智能的“狂野西部”。智庫R Street Institute技術和創新團隊的高級研究員亞當·蒂勒(Adam Thierer)認為,美國國會通過全面的人工智能法律的可能性“微乎其微”。 “因此,所有的行動實際上都是在聯邦機構層面進行的。”

目前,人工智能已融入美國人生活的關鍵領域,監管機構將面臨一項特別棘手的任務。研究通常不透明的AI系統需要先進的技術操作,向審計員提供訪問用於訓練AI的大型數據集的權限也會引發隱私問題。一些技術專家警告稱,合規負擔可能會削弱美國公司的競爭能力。

人工智能“四大門派”

在民間,圍繞人工智能監管的討論幾乎每天都在學術界或企業界展開。

據美國媒體當地時間4月10日報導,著名科技投資人、互聯網“教父”羅恩·康威(Ron Conway)4月12日將在舊金山召集生成式人工智能的領頭企業討論人工智能政策問題,OpenAI、微軟、谷歌、蘋果、英偉達、Stability AI、Hugging Face、Anthropic等公司的高管與政策代表將出席該會議,討論如何負責任地開發AI、分享最好的實踐案例,並商討相關的公共政策框架和標準。

而在3月29日,特斯拉首席執行官埃隆·馬斯克等千名業界和學界人士聯署公開信,呼籲所有人工智能實驗室立即暫停訓練比GPT-4更強大的AI系統,暫停至少6個月,以便制定和實施安全協議。

在美國科技界,對於人工智能的態度如今分為幾大陣營,他們之間的激烈分歧正在加劇。

人工智能態度四象限圖:往上是不能停,往下是減緩;往左是恐懼與絕望(反烏托邦),往右是美好與理想(烏托邦)。

第一派是“AI安全(AI safety)派”。 “AI安全”一詞用來指實際的安全問題,例如確保自動駕駛汽車不會撞車。近年來,這個術語可以與“AI對齊”互換,用來描述一個新的研究領域:確保人工智能係統遵守程序員的意圖,並防止可能傷害人類、尋求權力的人工智能。流行於矽谷精英中的“有效的利他主義(effective altruism)”與這個陣營相關。其中許多人在OpenAI、DeepMind和Anthropic等頂級人工智能實驗室工作。

第二派是“通用人工智能(AGI)信徒”。這個團體也關心AI安全,但對構建通用人工智能感到非常興奮。 OpenAI和DeepMind這兩個領先的人工智能實驗室以此為使命,OpenAI創始人山姆·奧特曼和矽谷投資大亨彼得·蒂爾(Peter Thiel)都是幕後的重要人物。這個團體的影響力越來越大,以致微軟首席執行官薩提亞·納德拉、谷歌首席執行官桑達爾·皮查伊和微軟創始人比爾·蓋茨都在越來越多地談論通用人工智能。

第三派是“AI末日論者(AI Doomer)”。這群人和AI安全派有許多共同的信念,但他們更悲觀,認為足夠強大的人工智能將消滅人類。機器情報研究所(MIRI)聯合創始人埃利澤·尤德考夫斯基(Eliezer Yudkowsky)是代表人物。他在《時代》雜誌的一篇專欄文章中寫道,美國在必要時應對外國數據中心進行空襲。最近,MIRI獲得了以太坊聯合創始人維塔利克·布特林(Vitalik Buterin)一輪新的投資。儘管尤德考夫斯基的著作被批評為不適合現代的機器學習,但他還是影響了著名計算機科學家斯圖爾特·羅素(Stuart Russell),而OpenAI創始人奧特曼對他也大加讚許。

埃利澤·尤德考夫斯基(左)與山姆·奧特曼(中)合影。

還有一派是AI倫理學家。他們多年來一直警告大型人工智能模型存在問題,包括輸出種族和性別的偏見言論,可能破壞信息生態系統。這個陣營相對溫和,一些人認為AI技術可以在不傷害弱勢人群的情況下發展。谷歌人工智能道德團隊前負責人、分佈式人工智能研究所(Distributed AI Research Institute)創始人蒂姆尼特·格布魯(Timnit Gebru)是代表人物,她曾在歐洲議會談到,需要緩慢的人工智能運動,減緩行業的步伐,把社會安全放在第一。在當下的人工智能熱潮中,儘管很多科技公司都在解僱其人工智能道德團隊,但政策制定者和公眾一直在傾聽。

面對這些陣營發出如此多元的聲音,美國政策界如何聽取建議並採取行動仍需關注。

美國的監管選項

就監管可以採納的選項,美國國內的分析人士也進行了廣泛討論。

除了上述聯名公開信,呼籲暫停人工智能訓練的還有前民主黨總統候選人楊安澤。但反對者近日來也已充分錶達了各自的意見。以穀歌前首席執行官埃里克·施密特為代表的科技界人士,以“失去和中國的競爭優勢”為理由抵制暫停開發的想法。美國網絡司令部司令保羅·中曾根(Paul Nakasone)則告訴議員:“人工智能機器學習是今天引起共鳴的東西,也是我們的對手將繼續尋求利用的東西。”

另外一種更激進、也更不太可能實現的方式是對高級人工智能實施國際禁令。 “AI末日論者”代表尤德考夫斯基就主張,在國際上永久禁止訓練比ChatGPT底層更強大的大型語言模型。 “如果有人建立了一個過於強大的人工智能,在目前的條件下,我預計人類物種的每一個成員和地球上所有生物都會在此後不久死亡。”尤德考夫斯基在《時代》雜誌的專欄文章中寫道,人工智能訓練禁令需要“無限期和具有全球性”,世界各國政府需要採取更多措施來遏制AI開發。

具體而言,尤德考夫斯基認為,GPU(圖形處理器)是用於大型語言模型複雜計算的專用處理單元,需要進行跟踪,大型GPU集群需要關閉,各國應該“通過空襲摧毀流氓數據中心”減輕人工智能威脅。

相比這些不切實際的願景,立法規範人工智能的發展是更現實的路徑。白宮已經發布了“人工智能權利法案”的藍圖,要求開發人員在產品設計中強調幾個優先事項,其中包括確保產品收集的數據不被濫用於惡意的目的,設計者要考慮種族或性別方面的算法偏見,所有收集的數據都通過適當的隱私措施進行存儲和保護,以及用戶必須知道算法何時正在影響他們的用戶體驗,如果他們願意,可以選擇退出。

與美國不同,歐盟目前已經在準備通過一項法案監管人工智能,監管內容包括面部識別和關鍵公共基礎設施。該立法將要求人工智能公司對其技術進行風險評估,違反者可能會被罰款,最高可達其全球收入的6%。歐盟三大機構預計最早將於4月開始的三方談判中敲定人工智能法案的最終細節。

在中國,國家互聯網信息辦公室4月11日宣布,為促進生成式人工智能技術健康發展和規範應用,國家互聯網信息辦公室根據《中華人民共和國網絡安全法》等法律法規起草了《生成式人工智能服務管理辦法(徵求意見稿)》,向社會公開徵求意見。這份文件要求,利用生成式人工智能生成的內容應當體現社會主義核心價值觀,防止出現種族、民族等歧視,防止生成虛假信息,防止侵犯知識產權等。文件要求,利用生成式人工智能產品向公眾提供服務前,應當按照相關規定向國家網信部門申報安全評估。文件還提到,產品提供者應當按照《互聯網信息服務深度合成管理規定》對生成的圖片、視頻等內容進行標識。

《互聯網信息服務深度合成管理規定》於2022年12月12日由中國國家互聯網信息辦公室、工業和信息化部、公安部聯合發布,2023年1月10日起施行。

對深度合成等人工智能生成內容進行標識,也是全球行業內經常被討論的監管方式。美國科技記者克里斯托弗·哈頓(Christopher Hutton)4月11日撰文建議,為了防止濫用AI生成的圖像,美國國會可以通過立法,要求AI圖像生成程序在所有圖像中包含一個“水印”,以識別其來源。

在人工智能領域,對面部識別的監管也是各國討論的焦點。除了歐盟正在立法外,美國多個城市和州已禁止使用面部識別軟件。例如,紐約在2021年通過一項法律,禁止在學校內使用該軟件;加利福尼亞州2020年通過一項法律,禁止執法部門在其隨身攝像頭中使用面部識別。類似禁令是否會在聯邦層面上執行,值得關注。在中國,上海近日公示了《公共場所人臉識別分級分類應用規範》(徵求意見稿),面向社會廣泛徵求意見,值得注意的是,這是中國首個公共場所人臉識別分級分類管理的地方標準。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts