深度丨為什麼變革性人工智能很難實現,從技術、社會和經濟三方面綜合探討


撰文:《經濟學人》記者Arjun Ramani;谷歌DeepMind 研究工程師Zhengdong Wang

來源:The Gradient

人類在創新方面有著不錯的成績。農業機械化、蒸汽機、電力、現代醫學、計算機和互聯網,這些技術從根本上改變了世界。儘管如此,世界前沿經濟體人均GDP 的趨勢增長率從未超過每年百分之三。

當然,增長加速是可能的。[1] 在增長開始之前會有那麼一段時間,或者至少是在增長遠接近於零的時候。但過去改變遊戲規則的技術尚未突破百分之三的門檻的事實給了我們一個基線。只有強有力的證據才能讓我們期待一些截然不同的東西。

然而,許多人Optimism地認為人工智能可以勝任這項工作。他們說,人工智能與之前的技術不同,因為它通常能夠執行比以前技術更廣泛的任務,包括創新過程本身。一些人認為它可能導致“一切事物的摩爾定律”,甚至是與疫情和核戰爭一樣的風險。 Sam Altman 說,OpenAI 將通過首先發明通用人工智能,然後詢問它如何賺錢來實現盈利,這讓投資者感到震驚。四年前,Demis Hassabis 在英國皇家科學院描述了DeepMind 的使命,分兩步進行:“1. 解決智能問題。2. 用它來解決其他一切。”

這種操作順序具有強大的吸引力。

人工智能是否應該與歷史上其他偉大的發明區分開來?它是否會像偉大的學者約翰– 馮– 諾伊曼和IJ 古德推測的那樣,有一天會自我完善,引發智力爆炸,並導致經濟增長的奇點?

本文和經濟增長文獻都沒有排除這種可能性。相反,我們的目的只是為了降低你的期望。我們認為人工智能可以像互聯網那樣具有“變革性”,提高生產力並改變習慣。但是,在實現一些人所預測的加速增長的道路上有許多令人生畏的障礙。

在這篇文章中,我們匯集了我們遇到的最好的論據,說明為什麼變革性人工智能難以實現。為了避免拉長文章,我們不會深入重申他們的論點。我們不是第一個提出這些觀點的人。我們的貢獻是把別人首先提出的一套經過充分研究的、多學科的觀點整理成一個綜合案例。以下是我們論點的一個簡要概述:

人工智能的變革潛力受制於其最難解決的問題儘管在一些人工智能子領域取得了快速進展,但主要的技術障礙仍然存在即使人工智能的技術進步繼續下去,社會和經濟障礙可能會限制其影響

1. 人工智能的變革潛力受制於其最難解決的問題

變革性人工智能的願景始於一個在所有具有經濟價值的任務上與人類一樣好或更好的系統。哈佛大學卡爾人權政策中心的一篇評測指出,許多頂級人工智能實驗室都提出了這個明確目標。然而,衡量人工智能在一組預定任務上的表現是有風險的——如果現實世界的影響需要執行我們甚至不知道的任務怎麼辦?

因此,我們以其觀察到的經濟影響來定義變革性人工智能。生產力的增長幾乎明確地體現了新技術何時有效地執行有用的工作。有一天,強大的人工智能可以執行所有富有成效的認知和體力勞動。如果創新過程本身能夠實現自動化,一些經濟增長模型預測,人均GDP 增長不僅會突破每年3%,還會加速。

這樣的世界是很難實現的。正如經濟學家William Baumol 在20 世紀60 年代首次指出的那樣,不平衡的生產力增長可能會受到最薄弱部門的製約。為了說明這一點,請考慮一個包含兩個領域的簡單經濟:撰寫思想文章和建造建築物。想像一下,人工智能加快了寫作,但沒有加快建築。生產力提高了,經濟就增長了。然而,一篇思想文章並不能很好地替代一棟新建築。因此,如果經濟仍然需要人工智能不能改善的東西,如建築,這些領域就會變得相對更有價值,並吃掉寫作的收益。寫作速度的100 倍提升可能只會導致經濟規模的2 倍提升 [2]。

這個例子與過去幾十年來生產力增長的廣泛模式並沒有什麼不同。 Eric Helland 和亞歷克斯– 塔巴羅克Alex Tabarrok 在他們的Why Are the Prices So Damn High? 一書中引用了Baumol 的觀點,解釋技術如何提高製造業和農業等部門的生產率,降低電視和食品等產出的相對價格,並提高平均工資。然而,電視和食品並不能很好地替代醫療保健和教育等勞動密集型服務。這些服務仍然很重要,就像建造建築物一樣,但事實證明很難提高其效率。因此,它們的相對價格已經增長,佔據了我們收入的更大份額,並拖累了經濟增長。 Acemoglu、Autor 和Patterson 使用美國歷史經濟數據證實,各領域的不均衡創新確實減緩了總的生產率增長。

鮑莫爾效應;美國企業研究所(2022)

Aghion、Jones 和Jones 解釋說,創意本身有一些容易受到瓶頸影響的步驟。[4] 大多數任務的自動化與所有任務的自動化對增長的影響截然不同:

…… 經濟增長可能不會受制於我們做得好的地方,而會受制於那些必不可少但卻難以改進的地方。當應用於人工智能自動生產創意的模型時,這些考慮同樣可以阻止爆炸性增長。

考慮一個兩步的創新過程,包括總結arXiv 上的論文和將流動性移入試管。每一步都取決於另一步。即使人工智能實現了論文總結的自動化,人類仍然需要自己實驗來寫下一篇論文。 (在現實世界中,我們還需要等待IRB 批准我們的撥款)。在“如果我們能夠實現發明自動化會怎樣”一文中,Matt Clancy 提供了最後一劑直觀的信息:

發明已開始類似於一個課堂項目,每個學生負責項目的不同部分,在每個人都完成之前,老師不會讓任何人離開……如果我們不能把所有的事情都自動化,那麼結果就會很不同。我們不會僅僅以較慢的速度得到加速— 我們根本就沒有加速。

我們的觀點是,瓶頸的概念— 從60 年代的鮑莫爾到今天的Matt Clancy– 值得更多的報導。[5] 這清楚地表明了為什麼人工智能進步的障礙在一起時比單獨時更嚴重。人工智能必須改變所有重要的經濟部門和創新過程的步驟,而不僅僅是其中的一部分。否則,我們應該將人工智能視為類似於過去的發明的可能性就會增加。

也許論述中缺乏對生產和創新中難以改進的步驟的具體說明。但幸運的是,這方面有許多例子。

2. 儘管在一些人工智能子領域取得了快速進展,但主要的技術障礙仍然存在

精細運動控制方面的進展大大落後於神經語言模型的進展。當“在幾個隔間之外,生成模型的進展感覺在質量上更令人印象深刻”時,機器人研討會正在思考應對方法。 Moravec 的悖論和Steven Pinker 在1994 年的觀察仍然適用:“三十五年來人工智能研究的主要教訓是,困難的問題是容易的,而容易的問題是困難的”。最難的“容易”問題,如係鞋帶,仍然存在。機器人技術的突破會緊隨生成建模的突破嗎? OpenAI解散其機器人團隊並不是一個強烈的信號。

在我們看來,如果在操縱物理世界方面沒有取得進展,那麼經濟增長就不可能大幅加速。目前的許多經濟瓶頸,從住房和醫療保健到製造和運輸,都有相當大的物理世界成分。

與變革性人工智能相關的開放性研究問題清單仍在拉長。學習因果模型就是其中之一。 Ortega 等人展示了一個簡單的案例,其中採取行動的序列模型會在沒有獲得因果模型的情況下出現錯覺。 Murray Shanahan 認為認知和擁有身體是不可分割的:認知的存在是為了身體的生存和發展,在身體的感覺運動循環中不斷調整,並且認知本身建立在身體的物理承受力上。看著球場上的勒布朗– 詹姆斯,我們傾向於同意這一點。 François Chollet 認為效率是核心,因為“無限的先驗或經驗可以產生幾乎沒有泛化能力的系統”。此外,Cremer 和Whittlestone 列出了更多技術專家沒有達成一致的問題。

更多的資源並不能保證會有所幫助。 Ari Allyn-Feuer 和Ted Sanders 在“到2043 年變革性AGI 的可能性< 1%”中提出,行走和蠕動(對蠕蟲的神經學模擬)是簡單但仍然難以解決的指標任務:“雖然蠕蟲不是一個大市場……(但)我們已經完全失敗了,儘管我們付出了巨大的努力,也沒能製造出人工智能步行者、人工智能司機或人工智能放射科醫生。這必須被視為一個看跌的信號”。

我們可能不需要解決這些開放性問題中的一些甚至全部。而且我們肯定可以取得更多的突破(我們中的一個正在直接研究其中一些問題)。但同樣,我們還不能明確地否定它們,從而增加我們的瓶頸。在人工智能獲得這些缺失的能力之前,其中一些甚至連兒童都具備,最好將它們視為模仿和傳播文化的工具,而不是像Yiu、Kosoy 和Gopnik 所提出的那樣,將其視為一般智能。

目前的方法可能還不夠。它們的極限可能很快就會出現在我們面前。將計算量再擴大一個數量級將需要在硬件上增加數千億美元的支出。根據SemiAnalysis 的說法:“這是不實際的,而且考慮到目前的錯誤率和量化估計,模型也很可能無法擴展到這個規模。”計算成本的持續下跌可能會有所幫助。但我們可能已經用盡了硬件優化的低垂果實,現在正在進入一個減速的時代。摩爾定律以各種名義持續存在,但變革性人工智能的關鍵因素可能是我們是否會在摩爾定律停止之前實現這一目標。

接下來看看數據。 Villalobos 等人警告說,高質量的語言數據可能在2026 年耗盡。該團隊建議將數據效率和合成數據作為出路,但到目前為止,正如Shumailov 等人所展示的那樣,這些還遠遠不是完整的解決方案。

在算法方面,我們對當前架構能做什麼和不能做什麼的理解正在提高。 Delétang 和Dziri 等人確定了Transformer 架構的特別困難的問題。有人說,大型語言模型的所謂“湧現能力”仍然會讓我們感到驚訝。但不一定。 Schaeffer 等人認為,湧現的出現“是由於研究者對度量標準的選擇,而不是由於模型行為隨著規模的擴大而發生根本變化”。在對未來能力的不規則性提出主張時,我們必須謹慎。 OpenAI 在一段時間內不會訓練GPT-5,這很說明問題。也許他們意識到,老式的人類修補比大規模的免費午餐更令人胃口大開。

人類仍然是發展中的一個限制因素。人類的反饋使人工智能的產出更有幫助。只要人工智能的發展需要人類的投入,人類就會限制生產力。目前,數以百萬計的人類對數據進行註釋以訓練模型。他們的人性,特別是他們的專家知識和創造性的火花,變得越來越有價值。 The Verge 報導:”一位工程師告訴我,買蘇格拉底對話的一個樣本需要花300 美元。”

這種情況不太可能在短期內改變。 Geoffrey Irving 和Amanda Askell 主張讓人類發揮更大的作用:“由於我們正在努力使自己的行為符合人們的價值觀,最重要的數據將是來自人類的關於其價值觀的數據。”憲政人工智能是一種最先進的對齊技術,甚至已經達到了國會山的台階,它也根本不打算將人類從這個過程中移除:“從長遠來看,我們的目標不是取消人類監督,而是使人類監督盡可能有效。”即使是更長期的可擴展的調整建議,如與人類法官一起進行人工智能辯論,也是在鞏固而不是消除人類專家。技術專家和公眾似乎都希望將人類留在圈內。

人類知識有很大一部分是隱性的、未記錄的和去中心化的。正如Friedrich Hayek 所宣稱的那樣,“假設所有知識都被灌輸到一個人的腦中……就是假設問題消失並忽視現實世界中所有重要和有意義的事情。”Michael Polanyi 認為”我們能知道的比我們能說的多“。 Carlo Ginzburg 表示贊同:”沒有人能夠僅僅通過應用規則就能學會如何成為鑑賞家或診斷家。對於這種知識,有一些因素在起作用,而這些因素是無法衡量的:一絲氣息、一個眼神、一種直覺。“最後,Dan Wang 借用例子說道:

過程性知識是那種很難寫成指令的知識。你可以給一個人一個設備齊全的廚房和一個特別詳細的食譜,但除非他已經有了一些烹飪經驗,否則我們不應該期望他能做出一道好菜。

Ilya Sutskever 最近建議詢問人工智能”一個具有偉大洞察力、智慧和能力的人會做什麼?“以超越人類的表現。隱性知識是我們認為這在許多重要場合不太可能開箱即用的原因。這就是為什麼我們可能需要在現實世界中部署人工智能,讓它可以邊做邊學的原因。然而,我們很難想像這種情況會在某些情況下發生,尤其是像經營跨國公司或教孩子游泳這樣的高風險案例。

在我們作為記者和人工智能研究者的日常工作中,我們時常感到驚訝,有多少問題在互聯網或書本上沒有很好的答案,但一些專家有可靠的答案,但他們卻懶得記錄。在某些情況下,就像大廚或勒布朗・詹姆斯一樣,他們甚至可能無法清晰地表達他們的工作方式。

去中心化的隱性知識是普遍存在的,這一觀點支持了這樣一個假設:純粹的、中心化的、腦力勞動的智力回報是遞減的。有些問題,如逃離博弈論的泥潭或預測未來,對大腦來說可能太難了,無論是生物的還是人工的。

我們可能完全走錯了方向。如果我們的一些障礙被證明是不可逾越的,那麼我們可能離實現人工智能可以做人類能做的一切的關鍵道路還很遠。 Melanie Mitchell 在《為什麼人工智能比我們想像的更難》中引用了Stuart Dreyfus 的話:“這就像是宣稱第一隻爬上樹的猴子在向登陸月球邁進“。

我們仍然很難具體說明我們正在嘗試構建什麼。我們對智能或人類的本質知之甚少。相關的哲學問題,如道德地位、感受性和個人身份的依據,幾千年來一直困擾著人類。就在寫這篇文章的前幾天,神經科學家Christof Koch 輸掉了與哲學家David Chalmers 打的四分之一世紀的質押,即我們現在已經發現了大腦如何實現意識。

因此,現在的我們正在向黑暗中投擲骰子,把質押押在我們最好的預感上,有些人認為這只能產生隨機的鸚鵡學舌。當然,這些預感仍然值得追尋;Matt Botvinick 深入探討了當前的進展可以告訴我們關於我們自己的哪些信息。但是考慮到理解不足,我們應該再次降低我們的期望。十年前,David Deutsch 提出了一個有先見之明的觀點,強調了指定我們想要的確切功能的重要性:

“AGI”一詞就是此類合理化的一個例子,因為該領域過去被稱為“AI”——人工智能。但人工智能逐漸被用來描述各種不相關的計算機程序,如游戲玩家、搜索引擎和聊天機器人,直到添加了“通用”的G,使其可以再次指代真實的事物,但現在的含義是AGI 只是一種更智能聊天機器人。

要知道,這是十年前啊

3. 即使人工智能技術繼續進步,社會和經濟障礙可能會限制其影響

經濟轉型的歷史是一個偶然的過程。許多因素必須同時出現,而不是一個因素勝過所有其他因素。單獨的技術只有在製度允許其採用,激勵其廣泛部署,並允許圍繞新技術進行廣泛的社會重組的情況下才有意義。

一個例子是歐洲如何克服前現代的增長限制。技術進步只是一個因素。 Kenneth Pommeranz 在他頗具影響力的同名著作中也主張運氣,包括煤炭股票和便利的地理位置。 Taisu Zhang 在《儒家思想的規律與經濟學》中強調了社會等級制度。 Jürgen Osterhammel 在《世界的轉變》中把19 世紀的增長歸功於流動性、帝國體系、網絡,以及更多超越單純工業化的因素:“將 [生产组织和财富创造] 作為獨立的變量和推動整個時代發展的唯一動力來源,是不適當的簡化主義……現在是將工業革命去中心化的時候了。 ”

所有人都同意,歷史並非不可避免。我們認為這也適用於人工智能。就像我們應該對歷史上的偉人理論持懷疑態度一樣,我們也不應該這麼快就跳到人工智能增長的偉大技術理論。

而且重要的因素可能不在人工智能一邊。增長的主要驅動力,包括人口和全球化,正在倒退。人工智能的進步甚至可能正在加速中美的脫鉤,減少人員和思想的流動。

人工智能可能無法準確實現最需要自動化的部門的自動化。我們已經“知道”如何克服許多製約增長的主要因素,並擁有這樣做的技術。然而,社會和政治障礙減緩了技術的採用,有時甚至完全阻止了採用。同樣的情況也可能發生在人工智能上。

Comin 和Mestieri 觀察到,新技術使用強度的跨國變化解釋了20 世紀收入變化的很大一部分原因。儘管1954 年曾夢想核電會導致電力“便宜到無法計量”,但自90 年代以來,核電在全球初次能源消費中的份額一直停滯不前。商業超音速飛行在美國空域被徹底禁止。此外,Callum Williams 提供了更多直觀的例子:

儘管部分或全部取代倫敦地鐵司機的技術已經存在了幾十年,但倫敦公共運營的地鐵司機的收入接近該國中位數的兩倍。政府機構仍然會要求你一次又一次地填寫提供個人信息的紙質表格。而在全球人工智能浪潮的中心舊金山,現實中的警察仍然被雇用在高峰時段指揮交通。

Marc Andreessen 不是技術悲觀主義者,但他直言不諱地指出:“我甚至不認為需要標準的論據……人工智能對大多數經濟來說已經是違規的,而且幾乎對所有的經濟都將是違規的。我怎麼知道呢?因為技術在大多數經濟中已經是違規的了,而且隨著時間的推移,這一點會越來越真實。”Matt Yglesias 和Eli Dourado 對人工智能會導致增長革命持懷疑態度,他們指出了包括住房、能源、交通和醫療等部門的監管和復雜的現實過程。這些恰好是我們目前的增長瓶頸,它們佔了美國GDP 的三分之一以上。

人工智能甚至可能會降低生產力。目前最大的用例之一是社交媒體推薦系統,這很難說是生產力上的意外收穫。 Callum Williams 繼續說:

GPT-4 是一個面臨規劃申請的NIMBY 的天賜之物。在5 分鐘內,他可以寫出一份長達1000 頁的反對意見。然後,有人必須對其作出回應……律師將成倍增加。 “在20 世紀70 年代,你可以用15 頁紙做一筆數百萬美元的交易,因為重新打字是件很麻煩的事,”Brown Rudnick 律師事務所Preston Byrne 說。 “人工智能將使我們能夠在第一份草案中涵蓋1000 個最有可能的邊緣案例,然後各方將為此爭論數週。”

僅僅是自動化還不足以實現經濟的轉型增長。正如Daron Acemoglu 和Simon Johnson 在他們的新書《權力與進步》(Power and Progress)中指出的那樣,歷史上充斥著一些效果一般的技術,它們幾乎沒有產生變革性影響。與人類僱員相比,快餐亭很難改變遊戲規則。諾貝爾獎獲得者Robert Fogel 記錄到,以同樣的方式,鐵路對增長沒太大影響,因為它們只比其替代品運河和公路好一點。大型語言模型的許多直接應用,從客戶服務到撰寫營銷文案,都出現了類似的情況 [7]。

OpenAI 自己的經濟學家估計,大約“19% 的工作崗位至少有50% 的任務暴露於”GPT-4 以及可能基於其構建的各種應用程序。有些人認為這將改變遊戲規則。但換個方向考慮,這是不是這意味著超過80% 的工人只有不到50% 的任務受到影響,很難接近完全自動化。他們的方法表明,可靠性至關重要的領域將在一段時間內保持不受影響。

很能說明問題的是,儘管投資服務行業已經數字化,數據無處不在,許多個人任務已經自動化,但總體就業人數卻在增加。同樣,儘管有人預測人工智能將取代放射科醫生(Hinton:“停止培訓放射科醫生”),但放射科的工作崗位在2021 年創下了歷史新高,預計還會有更大的增長。 Allyn-Feuer 和Sanders 回顧了自1960 年以來業內人士對自動駕駛的31 項預測。 27 個預測是錯誤的,這其中八個是由埃隆– 馬斯克解決的。在所有這些情況下,人工智能面臨著將訓練數據中不存在的、不總是可讀的、或風險太大無法部署的“長尾”任務自動化的挑戰。

此外,經濟的很大一部分可能已經包括生產具有深刻社會性質的產出。即使人工智能可以使所有生產自動化,我們仍然必須決定生產什麼,這是一個社會過程。正如Hayek 曾經暗示的那樣,中央計劃很難,不僅因為其計算成本,而且還因為“缺乏獲得信息的途徑……信息不存在”。一個可能的含義是,人類必須積極參與商業、政治和社會,以決定他們希望的社會面貌。

教育可能在很大程度上是為了激勵學生,教他們進行社會互動,而不僅僅是傳遞事實。藝術的大部分價值來自於其社會背景。醫療保健將情感支持與更具功能性的診斷和處方相結合。國際象棋的複興很難完全歸功於超人的人工智能。而商業是關於製定目標,與人類談判,管理和激勵。也許我們今天的工作已經與弄清楚提示什麼問題以及如何提出問題沒有什麼不同。

這裡還有更深層次的一點。 GDP 是衡量一些人對其他人的生產成果的重視程度的一個虛構指標,其中很大一部分涉及到彼此之間的社交活動。正如我們中的一個最近所寫的那樣,我們可能重視人類生產的產品,正是因為它們是稀缺的。只要人工智能生產的產品不能替代社會性的產品,就會是稀缺的,這種產品將獲得越來越多的“人類溢價”,並產生鮑莫爾式的效應,對增長產生影響。

鑑於這些障礙,我們應該如何看待人工智能?

人工智能的進步必將繼續,而我們才剛剛開始感受到它的影響。從更可靠的算法到更好的政策,我們都希望能有進一步的突破。人工智能確實曾給我們帶來過驚喜。

然而,正如本文所概述的,無數的障礙阻礙了廣泛的變革性影響。這些障礙應該被綜合起來看。解決一個子集可能是不夠的。解決所有這些障礙是一個更難的組合問題。在此之前,我們不能指望人工智能來清除我們自己不知道如何清除的障礙。我們也不應該把未來的突破作為保證— 我們可能明天就能實現,也可能在很長一段時間內都不會實現。

對於我們的論點,我們聽到的最常見的回答是,人工智能研究本身可能很快就會自動化。然後,人工智能的進展將爆炸性增長,產生強大的智能,解決我們提出的其他障礙。

但這是一條狹窄的道路。儘管人工智能研究最近取得了顯著的進步,但我們轉型的許多障礙普遍存在於人工智能研究本身的自動化過程中。即使我們開發出高度智能的機器,這也不足以實現整個研發的自動化,更不用說整個經濟的自動化了。為了建立一個可以解決其他所有問題的智能,我們可能需要首先解決其他所有問題。

因此,人工智能將是一個遠遠高於其他發明的案例並沒有結束。也許我們應該把它看作是一個改變歷史的“平凡的”技術,一個能夠催化之前的偉大發明的增長。讓我們回到Aghion、Jones 和Jones 那裡:

…… 我們把人工智能作為自動化過程中的最新形式,這一過程已經持續了至少200 年。從珍妮紡紗機到蒸汽機,再到電力和計算機芯片,自工業革命以來,生產方面的自動化一直是經濟增長的一個關鍵特徵。

回想一下,蒸汽機也是通用的。你可能不認為它像大型語言模型那樣具有一般性。但是我們可以想像,將(當時無限的)煤塊轉化為能源會如何促使一個19 世紀的實業家與歷史的終結產生聯繫。

蒸汽機確實促進了經濟增長,使世界大變。但我們想強調的是,人工智能最終會像蒸汽機一樣,而不是在超越它。那麼,該如何看待人工智能呢?

人工智能最突出的風險可能是那些普通的強大技術的風險。人工智能發展成為自主的、不可控制的和不可理解的生存威脅的情況,必須清除經濟轉型所必須的同樣困難的障礙。因此,我們認為人工智能最緊迫的危害是那些已經存在或在不久的將來可能存在的危害,如偏見和誤用。

不要把未來的增長預期過度地放在一個領域的進展上。瓶頸理論建議撒下一張大網,跟踪許多創新領域的進展,而不僅僅是人工智能的明星子領域的進展。市場也同意這一點。如果變革性的人工智能很快就會到來,實際利率會隨著對未來巨大財富或風險的預期而上漲。然而,Chow、Halperin 和Mazlish 正是測試了這一理論,發現10 年期、30 年期和50 年期實際利率很低。

因此,投資於整個創新和社會中最困難的問題。在跳到最近人工智能領域最炫目的發展之前,請暫停一下。從目前並不流行的技術研究挑戰到幾代人一直存在的人際關係難題,社會的各個領域將需要一流的人類智慧來實現人工智能的承諾。

注:鑑於譯文長度,文中註釋請參見原文

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts