馬斯克矛盾的AI觀:一邊呼籲暫停訓練,一邊成立X.AI入局


來源:中國經營報

4月14日,據外媒援引美國內華達州的一份文件報導,特斯拉、推特、SpaceX的公司CEO埃隆·馬斯克已於3月9日註冊了一家新的人工智能(AI)公司,名稱為“X.AI”,馬斯克是新公司唯一的董事。馬斯克家族辦公室主任,同時也是馬斯克的神經網絡公司Neuralink首席執行官的Jared Birchall則擔任秘書之職。在此之前,據美媒報導,馬斯克在推特內部啟動了一個AI項目,為此已購買了約1萬個GPU(圖形處理器)芯片,而且開始招攬AI人才。

圖片來源:由無界AI 生成

隨後在4月18日,馬斯克接受福克斯採訪時表示,要開始做一個最大程度尋求真相的人工智能,可能會叫做“TruthGPT”。 4月20日,就在微軟宣布將推特從其廣告平台刪除之後,馬斯克發布推文回應稱,“他們(指微軟及其投資的OpenAI)非法使用推特數據進行訓練。訴訟時間到。”

馬斯克近期的種種舉動,引發業界的廣泛猜測——馬斯克或將親自入局做AI,以對抗OpenAI的對話機器人ChatGPT及其背後支撐的GPT大模型。針對新公司X.AI的戰略定位和業務範圍,以及馬斯克推文中提及的“訴訟”是否會付諸實施,《中國經營報》記者通過電子郵件向特斯拉和馬斯克方面求證核實,截至發稿前暫未獲得回复。

值得注意的是,馬斯克擁有的幾家公司——特斯拉、SpaceX、太陽城、Neuralink、推特,無一不使用甚至依賴AI技術;而另一方面,從2014年至今,馬斯克也在持續不斷地發聲,提醒高度警惕AI、呼籲監管以確保AI的安全可控。儘管宣示與執行往往並不一定是一致的,現在去評判馬斯克的發聲或動作,顯然還為時尚早,但是,人們從馬斯克看似“矛盾”的AI觀中,或許可以一窺其“野心”,以及探討當下大火的生成式AI究竟帶來了哪些方面的風險與挑戰。

馬斯克的X“野心”?

需要注意的是,在註冊X.AI公司幾乎同一時期裡,馬斯克還註冊了X Holdings Corp。和X Corp。兩家公司,前者意為控股公司,是作為X Corp。的母公司。據外媒4月14日的報導,馬斯克於去年10月收購的推特公司已併入X Corp。實體公司中。馬斯克在發給推特全體員工的郵件中宣布,推特員工將獲得X Corp。的股票。

“X”這一名稱與馬斯克的淵源頗深。馬斯克於1999年3月創立了他的第二家初創公司,命名為X.com。 X.com發展與競爭中經歷了合併,於2001年6月更名為PayPal,次年被eBay出價15億美元收購。馬斯克在X.com發展中也被解除了CEO職務,直至離開。 2017年,馬斯克從eBay手中買回了X.com這一域名。到2020年12月,馬斯克重申了對X這一名稱的支持。 2022年10月,隨著推特收購案的推進,馬斯克在推特上表示,“收購推特是創建X即萬能應用的催化劑。”彼時,馬斯克並未明確X的目標,只是考慮將推特變成一個“超級微信”。

謙詢智庫合夥人龔斌認為,“馬斯克的思維武器是第一性原理,即凡事回到本源,回到基本的數學規律、物理學定律、化學原理等去看本質。從他做的事,能夠看到他的行事方式是’如果一件事情在理論上是成立的,理論上能做到最好的,那麼就應該想辦法把它做出來’。”

美國作家阿什利·萬斯撰寫的《矽谷鋼鐵俠:埃隆·馬斯克的冒險人生》一書中也提到,“長期以來,他一直想讓世界知道,他並不是在順應潮流,也不是為了發財,他是在追求一個整體的計劃。”馬斯克向作者表示,“我喜歡把那些對於未來真正重要和有價值的技術,以某些方式變成現實。”

由此不難看出,馬斯克親自創辦一家AI公司,對抗他所“抨擊”的、處在“閉源”“逐利”“被微軟掌控”現狀的OpenAI。全聯併購公會信用管理委員會專家安光勇認為,馬斯克下場做AI,按照他的AI觀乃至世界觀,可能會採取諸如研究和應用AI技術解決人類面臨的重大問題、加強內部對AI倫理的監管機制、與相關組織和機構合作等措施,來推動AI技術被人類利用掌控並助力人類社會發展。

“戒心”由來已久

今年4月中旬,馬斯克在接受福克斯採訪時警告,人工智能可能導致“文明毀滅”,支持“政府對AI進行監管,儘管受到監管並不好玩”,一旦AI“可能處於控制地位,再製定法規可能為時已晚”。

就在3月29日,非營利組織“未來生命研究所”發出一封聯合署名的公開信,呼籲“所有AI實驗室立即暫停對比GPT-4更強大的AI系統的訓練至少6個月”。馬斯克位列這封公開信署名榜單的第一位。

安光勇指出,馬斯克對AI持續多年的警惕與戒心,與其利用AI等新型技術擴張商業版圖並不矛盾。他看到了新技術的巨大潛力和價值,同時又意識到AI技術的發展帶來的潛在威脅和風險。

事實上,馬斯克對AI的“戒心”由來已久。本報記者綜合社交媒體、公開演講、媒體報導、產業及行業會議發言等公開渠道不完全統計,從2014年截止到現在,馬斯克公開發表的對AI保持高度警惕、呼籲確保安全的言論高達數十次,持續地表達對AI的擔憂。尤其是2018年在接受采訪時,馬斯克直言“人工智能比核武器更危險”。記者註意到,馬斯克持續多年對AI的“戒心”大致可以概括為兩個層面:一是擔憂人工智能的進化可能脫離人類的控制,從而對人類造成負面影響甚至潛在的危險;二是呼籲加強對人工智能的監管,以確保其安全可控。

需要指出的是,馬斯克在擔憂AI失控的同時,也並不否認AI技術的優勢與對商業、社會的驅動力量。而實際上,被馬斯克批評的OpenAI無論是在大模型訓練中,還是產品服務中也表出現出了滿滿的“求生欲”。 OpenAI方面表示,目前並沒有關於GPT-5的訓練計劃。在發布GPT-4大模型時也表示“花了6個月時間使GPT-4更安全、更一致”。 4月25日,OpenAI在ChatGPT可用市場推出了新控件,允許用戶關閉其聊天記錄。所有禁用聊天歷史記錄中發生的任何對話都不會用於訓練OpenAI的模型,新對話保留30天。

與此同時,包括意大利、德國等歐洲國家、美國、中國在內的相關監管機構或部門也開始關注並探索對生成式AI的監管路徑。 4月11日,中國國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(徵求意見稿)》,即日起至5月10日期間面向社會公開徵求意見。

AI威脅論見仁見智

馬斯克關於AI可能失控、甚至威脅人類的言論究竟是未雨綢繆,還是杞人憂天?顯然,現階段這還是一個見仁見智的事情。馬斯克在全球範圍內擁有大批支持者,同時也有反對與質疑的聲音。

上海申倫律師事務所夏海龍認為,在人類對自身“意識”尚未有充分科學認識的情況下,顯然不可能憑空創造出一個意識,因此生成式AI本質上依然只是對人類語言模式的機械模仿,而不存在進化出類人意識的可能。從當下來看,生成式AI 對社會、法律的衝擊還只是“類似於車馬時代汽車造成的衝擊”,監管目前只能在內容合規、網絡安全等幾個傳統維度提出要求,後期更細緻的監管措施可能需要生成式AI 應用的進一步深化、普及。

毫無疑問的是,生成式AI的熱潮正在給個人信息保護帶來一些挑戰和風險。中國科學院信息工程研究所張逸飛發文《大語言模型中的個人信息保護問題探討》指出,雖然大語言模型(LLM)有著巨大的潛力和應用價值,但也帶來了一些個人信息保護方面的挑戰和風險,主要包括數據來源、數據處理、數據安全、偏見誘導四方面的問題。

文章分析認為,在數據來源方面,LLM通常使用來自互聯網的公開文本數據作為預訓練數據,這些數據可能包含一些用戶的個人信息,如姓名、年齡、性別、職業、興趣愛好、社交關係等。這些信息可能被LLM無意中學習和記憶,並在後續的應用中洩露出來。而在數據處理方面,LLM在預訓練和微調過程中需要對數據進行收集、存儲、分析和處理,這些操作可能會侵犯用戶的個人信息權利,如知情權、選擇權、刪除權等。用戶可能沒有充分的意識和能力來保護自己的個人信息,也沒有足夠的透明度和監督機制來確保數據處理方遵守相關的法律法規和倫理規範。在安全方面,LLM由於參數量巨大,需要藉助分佈式計算和雲服務等技術來進行訓練和部署,這就增加了數據被竊取、篡改、濫用或洩露的風險。 LLM的模型參數本身也可能包含一些敏感信息,如果被惡意攻擊者獲取,可能會導致用戶的個人信息被還原或推斷出來。此外,LLM在應用場景中可能會對用戶的個人信息進行分析、預測或推薦,這些操作可能會影響用戶的個人自由、尊嚴和權益,帶來歧視、偏見、誘導等問題,甚至被用於產生違反社會主義核心價值觀的有害信息,對社會造成危害。用戶可能沒有足夠的知識和能力來判斷LLM的輸出結果的可靠性和合理性,也沒有有效的途徑和機制來糾正或申訴LLM的錯誤或不公正的決策。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts