OpenAI、DeepMind將向英國政府開放模型?
英國首相Rishi Sunak週一在倫敦科技週上宣布,谷歌的DeepMind、OpenAI和Anthropic已經同意向英國政府開放其人工智能模型,用於研究和安全目的。
英國首相蘇納克說,這樣可以便於英國政府”幫助建立更好的評估,從而更好地了解這些系統的機會和風險”。蘇納克本次的演講,主要是倡導人工智能有望重塑教育和醫療等領域,預示著英國可以作為”創新之島”的潛力。
“蘇納克說:”人工智能肯定是我們面前最大的機會之一。通過將人工智能模型與量子的力量相結合,”可能性是非凡的。”
2023年3月,英國政府發布了一份人工智能白皮書,提出了”Pro-innovation “的方法,但最近蘇納克強調了”Guardrails “的必要性。
蘇納克週一表示,英國不但想要成為科學知識的核心地區,而且要成為全球人工智能安全監管的地理家園”,但英國目前還沒有列出具體的監管建議和條例。
這些條例和計劃的關鍵在於今年秋季在英國舉行的全球人工智能安全峰會,蘇納克將這次峰會比喻為”聯合國締約方大會氣候變化會議的人工智能版本”。
除此之外,還成立了一個基金會模式的工作組,目前投入有1億英鎊左右的資金支持,進行人工智能安全領域技術的研究,英國首先表示,英國靈活平衡的監管方式將繼續使其成為有吸引力的投資地。
Anthropic和OpenAI最近在英國設立了歐洲總部,Palantir上周宣佈在英國設立一個人工智能研究中心。
值得注意的是,OpenAI CEO 山姆·奧特曼在2023年5月一直歐洲各國訪問,與各國監管機構會面,見了包括西班牙、波蘭、法國和英國的政府首腦。
奧特曼首先與西班牙總理Pedro Sanchez會面,因為西班牙今年夏天擔任歐洲理事會為期六個月的輪值主席國,也就是說,在人工智能規則手冊的談判的關鍵時刻,西班牙可以發揮很大的餘地來影響討論。而在法國、波蘭和西班牙,地區政府首腦,很可能會通過歐洲理事會對歐盟人工智能規範制定的最終形式施加影響。
奧特曼也參加了倫敦大學學院的討論活動,並在台上接受采訪,提到了他對”介於傳統歐洲方法和傳統美國方法之間”的監管偏好。
2023年5月,歐洲議會兩個關鍵委員會的成員,對委員會最初(2021年4月)提出的基於風險的人工智能監管框架的系列修正案,旨在確保通用人工智能、基礎模型和生成性人工智能不屬於規則範圍。
歐洲議會支持基礎模型的提供方,在將模型投入市場之前,應用安全檢查、數據治理措施和風險緩解措施的義務,其中包括要求考慮”對健康、安全、基本權利、環境以及民主和法治的可預見的風險”。
修正案還將要求基礎模型製造商減少其係統的能源消耗和資源使用,並需要在歐盟數據庫中註冊,而生成性人工智能技術(如OpenAI的ChatGPT)的提供者將獲得透明度義務,這意味著AI技術提供方必須確保用戶被告知內容是機器生成的,並且要對其係統生成的內容採取”充分的保障措施”;並提供用於訓練其人工智能的任何有版權的材料的摘要。
不過,OpenAI的CEO在此次歐洲之旅中,專門抽時間與英國首相蘇納克會面,並且與友商DeepMind的Demis Hassabis、Anthropic的Dario Amodei一起和蘇納克開了個會。當然,英國仍是歐洲的一個主要經濟體。另外,有一些傳言說OpenAI一直在考慮在該國設立一個本地總部。而Anthropic剛剛宣布了自己的倫敦辦事處。對於OpenAI來說,至少在監管方面,英國不再是歐盟的成員,這意味著不能參與歐盟人工智能法案的立法。
除此之外,蘇納克政府的態度是,不打算制定任何新的國內立法來監管人工智能。其中近期英國政府的一份白皮書提出,僅僅依靠現有的監管機構,如競爭管理機構和隱私監督機構,為人工智能的安全發展提供指導,而不是立法規範技術的使用。
一些想法
英國很有可能受益於本身的地緣優勢和占據人工智能安全這塊重要領域,發揮自己的影響力。比如說,人工智能巨頭支持由英國主導圍繞人工智能安全研究對話,就可以很好地塑造適用自家業務的英國人工智能規則,而英國也會在這樣的情況下受益。
但是,如果英國的人工智能安全峰會想要產生真正且可信的成功,就一定要團結全球的研究人員,並且積極邀請獨立研究員、民間社會團體和技術組織的參與,而不僅僅是局限於“傑出的人工智能公司”與自己本土學者之間合作的計劃。
而面向全球的人工智能安全峰會,一定是摒棄偏見、差異,而為整個人類在AGI世界的安全,共謀福祉。