Web2.0 概念提出者Tim O’Reilly:為什麼AI 法規應從強制披露開始


撰文:Tim O’Reilly

圖片來源:由無界AI工俱生成

你無法監管你不了解的東西。

2022 年11 月30 日,世界發生了變化,就像1908 年8 月12 日第一輛T 型車離開福特裝配線時一樣。那是OpenAI 發布ChatGPT 的日子,也是人工智能從研究實驗室進入毫無戒心的世界的一天。兩個月內,ChatGPT 擁有了超過一億的用戶,比歷史上任何技術的採用都要快。

爭論隨即暴發。最值得注意的是,生命未來研究所(The Future of Life Institute)發表了一封公開信,呼籲立即暫停先進的人工智能研究,並問道:“我們應該讓機器用宣傳和謊言充斥我們的信息渠道嗎?我們應該把所有的工作都自動化嗎,包括那些有成就感的工作?我們是否應該開發非人類的大腦,使其最終超過我們,勝過我們的智慧,淘汰和取代我們?我們是否應該冒著失去對我們文明的控制的風險?”

作為回應,人工智能促進會(Association for the Advancement of Artificial Intelligence)發布了自己的信函,列舉了AI 已經在我們的生活中產生的許多積極變化,並指出了現有的改善人工智能安全和了解其影響的努力。事實上,目前關於人工智能監管的重要會議正在進行,如Partnership on AI 上週召開的負責任的生成式AI 會議。此外,英國已經宣布打算對人工智能進行監管,儘管是以一種輕度的、“支持創新”的方式。在美國,參議院少數黨領袖Charles Schumer 已宣布計劃為人工智能引入“一個概述新監管制度的框架”。而歐盟肯定也會跟進,在最壞的情況下,導致法規相互衝突。

所有這些努力都反映了一個普遍共識,即法規應解決數據隱私和所有權、偏見和公平、透明度、問責制和標準等問題。 OpenAI 自己的AI 安全和責任指南引用了相同的目標,但還提出了許多人認為最核心、最普遍的問題:我們如何使基於AI 的決策與人類價值觀保持一致?他們寫道:

“人工智能係統正在成為日常生活的一部分。關鍵是要確保這些機器與人類的意圖和價值觀保持一致”。

但應該與誰的價值觀保持一致?是大多數人工智能評測家所嚮往的仁慈的理想主義者的價值觀?那些注定要把股東價值置於客戶、供應商和整個社會之上的上市公司的價值?那些一心想要傷害他人的罪犯或無賴國家?那些像阿拉丁一樣,向一個全能的人工智能精靈表達了一個未經深思熟慮的願望的善意人士?

解決一致性問題沒有簡單的方法。但是,如果沒有強大的披露和審計機構,就不可能實現一致。如果我們想要親社會的結果,我們需要設計和報告明確以這些結果為目標的衡量標準,並衡量其實現程度。這是關鍵的第一步,我們應該立即行動起來。這些系統在很大程度上仍由人類控制。至少在現在,它們按照要求運作,當結果不符合預期時,它們的訓練會很快得到改善。我們需要知道的是它們被告知的內容。

此外,應該披露什麼?對公司和監管機構來說,在監管公司的規則中有一個重要的教訓——科幻作家Charlie Stross 將其稱為“慢人工智能”(slow AIs)。我們讓公司負起責任的一種方式是要求他們按照公認會計原則(GAAP)或國際財務報告準則(IFRS)分享財務結果。如果每家公司都有不同的財務報告方式,就不可能對其進行監管。

今天,已有幾十個組織發布了人工智能原則,但它們提供的詳細指導很少。這些原則都說著“維護用戶隱私”和“避免不公平的偏見”,但並沒有確切說明公司在什麼情況下可以從監控攝像頭中收集面部圖像,以及如果因膚色而出現準確性差異,該怎麼辦。今天,當披露發生時,它們是隨意且不一致的,有時出現在研究論文中,有時出現在收益電話中,有時來自舉報人。幾乎不可能將現在所做的事情與過去所做的事情或未來可能做的事情進行比較。公司以用戶隱私問題、商業秘密、系統的複雜性以及其他各種理由來限制披露。相反,他們只提供關於他們對安全和負責任的人工智能承諾的一般性保證。這是不可接受的。

想像一下,如果指導財務報告的標準只是說公司必須準確地反映其真實的財務狀況,而沒有詳細說明報告必須包括什麼,以及“真實的財務狀況”等同於什麼,會發生什麼。相反,當獨立的標準機構,如創建和監督GAAP 的財務會計標準委員會,對這些事情做了極其詳細的規定,又會如何。證券交易委員會等監管機構將隨後要求上市公司根據GAAP 提交報告,並聘請審計公司審查和證明這些報告的準確性。

人工智能安全也應如此。我們需要的是一個相當於GAAP 的東西,用於人工智能和更普遍的算法系統。或許,我們可以把它稱為“公認的人工智能原則”。我們需要一個獨立的標準機構來監督這些標準,需要相當於美國證券交易委員會和歐洲證券交易所的監管機構來執行這些標準,此外還需要一個由審計師組成的生態系統,以確保公司及其產品做出準確的信息披露。

但是,如果我們要為人工智能創建公認會計原則,就應該從公認會計原則本身的演變中吸取教訓。我們今天認為理所當然並用於追究公司責任的會計系統,最初是由中世紀的商人開發出來供自己使用的。它們不是從外部強加的,而是被採用的,因為它們允許商人跟踪和管理自己的貿易企業。出於同樣的原因,它們今天也被企業普遍使用。

那麼,有什麼比開發和部署高級人工智能係統的公司使用的管理和控制框架更好的起點來製定人工智能法規呢?

生成式AI 系統和大型語言模型的創建者已經擁有用於監控、修改和優化它們的工具。 RLHF(“從人類反饋中強化學習”)等技術用於訓練模型以避免偏見、仇恨言論和其他形式的不良行為。這些公司正在收集有關人們如何使用這些系統的大量數據。他們正在對這些系統進行壓力和“紅隊”測試,以發現漏洞,也在對輸出結果進行後處理,建立安全層,並開始加強他們的系統,以防止“對抗性提示”和其他試圖顛覆他們所實施的控制的企圖。但是,這種壓力測試、後處理和鞏固究竟是如何運作的— 或者說有沒有起到作用— 對監管者來說大多是不可見的。

監管機構應首先正式化並要求詳細披露開發和運營高級人工智能係統的人員已經使用的測量和控制方法。

在缺乏那些實際創建和管理高級人工智能係統的操作細節的情況下,我們面臨的風險是,監管機構和倡導團體會像大型語言模型那樣產生“幻覺”,並用看似合理但不切實際的想法來填補他們的知識空白。

創造先進人工智能的公司應該共同製定一套全面的運營指標,可以定期和一致地向監管機構和公眾報告,以及在出現新的最佳實踐時更新這些指標的流程。

我們需要的是一個持續的過程,通過這個過程,人工智能模型的創造者全面、定期和一致地披露他們自己用來管理和改進服務並禁止濫用的指標。然後,隨著最佳實踐的發展,我們需要監管機構將其正式化並加以要求,就像會計法規將公司已經用於管理、控制和改善其財務的工具正式化一樣。披露數據並不總是舒服的,但事實證明,強制披露是確保公司真正遵循最佳實踐的有力工具。

開發高級AI 的公司披露他們控制AI 的方法和他們用來衡量成功的指標,並與同行合作制定此類披露的標準,符合他們的利益。就像公司所需的定期財務報告一樣,這種報告必須是定期和一致的。但與通常只針對上市公司的財務披露不同,我們可能需要AI 披露要求也適用於規模小得多的公司。

披露的內容不應局限於金融領域所要求的季度和年度報告。例如,人工智能安全研究員Heather Frase 認為,“應該建立一個公共分類賬,以報告大型語言模型產生的事件,類似於網絡安全或消費者欺詐報告系統。”此外,還應該有動態的信息共享,如在反垃圾郵件系統中發現的那樣。

由外部實驗室進行測試以確認是否符合最佳實踐以及未達到最佳實踐時應該怎麼做也可能是值得的。產品測試的一個有趣的歷史相似之處可以在外部非營利審計機構Underwriter's Laboratory 對消防安全和電氣設備的認證中找到。 UL 認證不是必需的,但它被廣泛採用,因為它增加了消費者的信任度。

這並不是說對於這些系統現有管理框架之外的尖端人工智能技術可能沒有監管要求。有些系統和用例比其他系統風險更大。國家安全考慮就是一個很好的例子。特別是對於可以在筆記本電腦上運行的小型LLM,存在著不可逆轉和不可控的技術擴散風險,而我們對這些技術知之甚少。這就是Jeff Bezos 所說的“單向門”,一個一旦做出就很難撤銷的決定。單向決定需要更深入的考慮,並可能需要來自外部的監管,而這種監管要領先於現有的行業慣例。

此外,正如斯坦福大學人類中心人工智能研究所的Peter Norvig 在審查這篇文章的草稿時指出的,“我們認為’以人為本的AI’具有三個領域:用戶(例如,對於發布– 保釋推薦系統,用戶即法官);利益相關者(例如,被告及其家人,以及過去或未來潛在犯罪的受害者和家人);整個社會(例如受到大規模監禁的影響)。”

普林斯頓大學計算機科學教授Arvind Narayanan 指出,這些對社會的系統性傷害超越了對個人的傷害,需要更長遠的眼光和更廣泛的衡量方案,而不是那些通常在公司內部進行的評估。但是,儘管諸如“生命未來研究所”這樣的團體作出了預測,並撰寫了“暫停AI”的呼籲信,但提前預見到這些危害通常很難。 1908 年的一次“流水線暫停”是否會讓我們預見到20 世紀工業生產即將給世界帶來的巨大社會變革?這樣的暫停會讓我們變得更好還是更糟?

鑑於人工智能的進展和影響存在巨大的不確定性,我們最好規定透明度並建立執行問責制的機構,而不是試圖阻止每一個想像中的特定危害。

我們不應該等到這些系統失控的時候才去監管它們。但監管者也不應該對媒體上的人工智能恐慌做出過度反應。監管應首先關注當前監控和最佳實踐的披露。這樣一來,公司、監管機構和公共利益的捍衛者可以一起了解這些系統如何運作,如何最好地管理它們,以及系統性風險到底是什麼。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts