《AI未來指北》欄目由騰訊新聞推出,邀約全球業內專家、創業者、投資人,探討AI領域的技術發展、商業模式、應用場景、及治理挑戰。
7月初,OpenAI之下最高估值的AI公司Inflection AI誕生了。這家之前名不見經傳公司在新一輪融資中籌集到了13 億美元,估值一躍突破40億美元。它的出現,捅破了OpenAI之後,大模型只剩下大公司們爭相鬥法的賽道敘事邏輯。同時,這次融資的領投名單也是群星璀璨,集結了矽谷兩大巨頭和一眾大佬們,如微軟、比爾蓋茨、Google前CEO埃里克施密特和領英創始人里德霍夫曼等,甚至還有剛開始涉獵AI下游企業投資的NVIDIA。
這家公司只有一個產品,即兩個月前才剛剛上線的Pi。如果說ChatGPT是一個人類效率放大器,那Pi就是個人類情感的按摩師。不同於ChatGPT更傾向於工具的設定,Pi 的主要特徵是富有同情心、簡明扼要、幽默創新。
Pi的深受追捧,照亮了被ChatGPT這類智能AI光芒所隱沒的另一條道路——情感AI。一個能給用戶帶來理解、重視、關懷的賽道,比起冷冰冰的提效類智能AI,它的潛在市場可能會更大。
清華大學的黃民烈教授,就是在中國選擇走上情感AI道路的研究者。在他看來,GPT毫無疑問是一種範式突破,但它沒有辦法滿足不同領域的需求,尤其是情感方面的需求。這條探索路徑可以追溯到1966年MIT的心理治療對話AI,比目前的GPT這類通用任務助理的起點更為久遠。
黃教授認為,在效率提升的需求之外,人類的重要情感需求現在還遠沒有被AI滿足,而這是一個巨大的、應該探索的需求。雖然AI現在只有一些基礎的人格形式,但通過專業性的數據訓練,AI已經可以承擔起初級心理諮詢師的部分工作。此外,黃教授完全同意赫拉利所說的觀點:一旦AI懂了情感,它就更可能去控制人類的行為,甚至PUA談話對象,這將引發了更多AI濫用的問題。因此,在技術探索的過程中,對AI的限制和治理也非常迫切。但治理路徑很清晰:編織一張安全防護網只需要兩年,足夠跑贏所有AI滅世的預測時間。擔憂是合理的,但恐慌大可不必。
以下是訪談全文:
只靠語言模型解決不了行業需求
騰訊科技:你第一次接觸到ChatGPT是一種什麼感覺?它是否算是一種範式突破?
黃民烈:ChatGPT剛出來的時候,其實最主要(的特點)是來自於它很高的智能水平以及它作為一種通用任務助理的定位。過去我們做類似的這種任務助理,就比如說訂餐訂票這種,這都是一些很傳統的任務。 ChatGPT推出之後,他可以在一個模型中處理各種開放任務,而且能力水平確實顛覆了我們之前的認知,它能夠在同一個系統里高水平的完成多種不同的任務。這可以理解成是一種範式性的突破。這和過去我們的技術路線很不同。
騰訊科技:很多研究者,包括楊立昆都認為,ChatGPT在技術上是依靠的是2017年的Transformer模型,因此沒有什麼創新。那OpenAI是如何讓自己的模型做的比其他模型都好的?
黃民烈:ChatGPT的底層是基於Transformer的架構,所以在模型的架構上確實沒有什麼創新(最近的一些模型設計有一些新的創新)。其實它的成功,實際上是數據加工程加系統層面的集成式的一個創新。
集成式創新包括比如數據層面,OpenAI其實做了大量的數據增持和數據工程,以及高質量的人工收集、標註、清洗等等。工程層面上它其實也是面臨一些比較大的挑戰,就過去我們可能做需要幾十張GPU卡的可以(簡單一些),但把這個模型的規模和數據做到了需要幾千張幾萬張卡的程度,這就會涉及到很多並行算法調度等各方面的工程挑戰。最後系統方面,我們其實看到在過去幾年裡OpenAI一直把GPT作為一個產品來進行迭代。與之相比,我們之前的那些模型或多或少都是作為一種項目在開發,我把這個模型做好了,開源出來之後,它就沒有進一步的迭代更新機制了。
騰訊科技:如你所說,OpenAI作為一個企業才會有持續性的產品迭代。而學術界基本都以單一項目或實驗進行開發。所以你作為一個學術界和企業界都有涉足的專家,如何看待OpenAI作為一個企業,與學術界研究的區別與關聯?
黃民烈:這其中的區別主要就是OpenAI(作為一個企業)有很強的算法和工程的團隊,這是第一點。第二點它有很多算力的資源。現在你看在學術界去做(人工智能)的話,我們第一不太可能有這麼多的算力資源,第二也不太可能有這麼大的工程團隊。所以學術界現在主要聚焦在一些基本的問題上,比如說我們現在看到的大模型可能會產生幻覺的問題,安全性的問題,包括精確計算,就是模型不能夠很有效進行精確計算。
OpenAI的那些工程師、科學家本身其實做學術能力很強,然後他又有很好的算法和工程的技巧,所以他們能把這件事做得特別好。我覺得未來做真正的AGI一定是最頂尖的學術機構和工業界密切合作的一個產物。
騰訊科技:前一段時間谷歌的一位工程師發表了一篇內部的memo,稱大語言模型可沒有護城河。包括OpenAI也沒有,谷歌也沒有,大家都可能會在很快超越它們。你認可這個說法嗎?
黃民烈:我認為這也是一定程度的誤解。從谷歌的角度來講,如果真的要嚴肅的去做,我覺得趕上OpenAI應該是不太難的一件事,因為本身它有算力,有數據團隊,也有人才。但是說要其他的公司說要很容易去超越的話,我覺得這裡邊有紙上談兵的感覺。好比說,Atom彈的原理看起來都簡單,但真正做出來那可不是容易的事情。
因為其實這裡邊算力,錢,人才,數據等各方面其實都是需要花時間去增持和沈淀的,包括現在國內的這些號稱說要做中國OpenAI的公司。其實大家都在追趕,但你能夠追到80分90分已經非常了不起了。而且人家也在不斷的迭代,不斷的進步,所以我覺得這個事情其實還是挺複雜的,是一個系統層面的問題。而不僅僅是說在模型結構上沒有創新,那就是沒有護城河。本身它是一個綜合實力的考量,它不僅僅是模型的結構算法的創新,更多的可能是算力資金,然後數據,然後整個工程層面的(造成)這樣的一個壁壘。
騰訊科技:那你覺得現在OpenAI或者谷歌這樣的一些公司,他們是不是已經建立起來了護城河?
黃民烈:毫無疑問OpenAI肯定是已經有自己的護城河了,別人想要追趕他其實不太容易的。
比如說GPT4的細節沒有公佈,它多模態的能力確實還是很強的。除此之外OpenAI還在不斷的利用這種數據的飛輪持續進步。中國的話,我們也有一些公司處在領先的階段,但實際上未來怎麼發展,誰能夠最終勝出,取決於一是整體的定位,另外一個就是在這方面能不能持續的投入,能夠堅持多久。基本上是這樣一套邏輯。
騰訊科技:現在大家都是用同一個模型,最近有一些新研究可以把整體訓練的成本降低。你覺得下一步中國公司會去突破赶超OpenAI的話,是不是有一些其他的路徑可選,而不是走完全一樣的路線?
黃民烈:我覺得這是一個非常好的問題。其實現在大家都在擠大語言模型賽道,但實際上我覺得從AGI的未來看也不排除有其他的一些路線。很多人也質疑說,像ChatGPT這種大語言模型其實根本創造不了新的東西。所以未來很有可能會有新的路線出來,但大家目前還看不到(具體的方向)。只是說現在我們發現大語言模型這條路可能離AGI更近,或者是更容易實現的一條路線。現在說實話,其他的路徑它面臨的問題是,比如說符號主義,它有很多基於符號運算,在工程上它怎麼能夠進行規模化,這是一個最現實的難點。
而現在大語言模型已經不僅能做得很大,用的數據也很多,而且能力還很強,所以我覺得這是目前看到的一線曙光。但是未來我認為肯定是會有別的東西,有可能是在把大語言模型作為一個框架,會把其他的一些東西裝進來,比如說符號學派。
騰訊科技:之前陸奇也提出過,不要再去做知識圖譜,這個觀點你認同嗎?
黃民烈:我不知道他這句話的背景。據我所知,把大模型作為一個知識庫做問答,離其它傳統方法在benchmark數據集上的能力距離挺遠的,有人做過這樣的研究。現在的GPT去處理一些數學計算的問題,它基本上就是亂答。因為數學的問題它都是精確推理,你不會說1+1=3。1+1=2(這個敘述),要么就是1(真),要么就是0(假),它只有0和1的概率,它並沒有說在0和1之間的概率。所以很多情況下符號推理是非常重要的。
騰訊科技:之前Sam Altman 在採訪之中也提到,如果通用模型發展的很快,很多任務它都可以完成的很好。我們再去發展垂直的領域,這是不是有意義的?
黃民烈:肯定非常有意義。在一個底座的基礎上做行業模型,領域模型,這個實際上是非常必要的。通用的智能模型我們其實不需要去解決最後交付的問題。你到一個行業到一個領域的時候,我肯定是要解決這個行業和領域真正的一些需求,一些痛點,這時候就會涉及到很多的行業知識和規則。
在大語言模型往下沉的過程中,領域和行業的一些特定的訓練,優化的方法,包括怎麼樣把一些行業的知識和規則注入進去,這對於能真正讓它產生價值,在實際的業務中發揮作用是非常重要的。
比如做醫療,有些情況下你是絕對不能說錯的。這裡邊你就需要一些額外的算法,模塊化的處理。在做心理諮詢的時候,我們面臨的一個場景就是用大模型對應抑鬱的用戶,他很容易自殺,可能聊著精神就崩盤了,然後他就說想找個天台跳下。這時候你需要馬上檢測他的狀態,並實施干預,比如說接到人工的服務上來。我們做的一個事情,就是做一個很強的分類器看他是不是會有自殺的傾向,只要在檢測到相關傾向就會立刻終止人機對話。
另外如果是在金融這個場景,你需要是動態實時的信息。我們現在和中金及螞蟻合作做金融這個場景的一些大模型的應用,就是在突破如何獲取動態實時的工作。
另外就是,你不能亂說,同時你在荐股,買基金的時候要合規。這種合規不可能通過一個簡單的模型數據驅動的方法就能實現。
騰訊科技:你覺得現在目前哪些領域可能是最早被AI的介入所改變的?
黃民烈:我覺得可能最容易見到的是一些跟寫作相關的,比如寫代碼效率的提升,還有像營銷,數字營銷——我可以寫個營銷文案,然後輸入大量的素材,用AIGC的方式來產出。教育也是一個很大的場景,比如說現在AI的輔助教師能引導小朋友能更好的去思考,更好的去理解故事裡邊的情節和價值觀。
其他的像遊戲也是很大的一個場景。另外的相對要做的更難一點的(領域),比如說醫療,金融。因為它有很多動態的實時信息今和知識性的基礎,這方面我們要去更好的處理這種領域和業務相關的東西,可能會稍微(發展)慢一點,但會潛在的發揮很大的作用和價值。
騰訊科技:目前市面上的公司要去開發垂直領域模型,需要的最重要的能力是什麼?
黃民烈:我覺得一是要有一些底層的能力,比如說預訓練模型精調,強化學習等等,還是很重要的。
另一方面就是說你要有對行業和領域的了解。對行業的了解,就相當於說我知道在何時以何種方式能夠把這種行業知識和規則嵌進(模型中)。這裡不是一個非常簡單拿數據來訓練一下就行,而是要跟底層的算法和模型進行結合。
但這裡邊其實有很多沒看起來那麼容易的細節。並不是簡單的說我把數據拿過來然後train(訓練)一下,得到還不錯的一個結果,比如說能做到80分,但是其實你最終離交付客戶的需求可能是95分,這個時候你這15分怎麼去提升?是需要一些行業專家的參與的。
騰訊科技:現在目前比較熱門的兩個AI研究方向,一個是AutoGPT讓AI變成自動化,成為一種智能代理;另一個是多模態的嘗試。你覺得為什麼這兩個方向如此受到關注,他們對AI的下一步發展會帶來什麼樣的意義?
黃民烈:我覺得代理化最主要還是因為它是一個自動化工具跟語言模型的結合,可以把語言模型作為理解的基座,那麼我可以比如說在交互的上下文裡,去理解當下應該去做的一個動作和決策是什麼。 AutoGPT相當於讓它能夠進一步的接上執行和決策的鏈路,把它的應用範圍擴充的更大了。過去是只能跟你聊天,現在你跟他講說你幫我訂個票,你幫我設個鬧鐘,用對話作為入口跟一些外部的API結合起來的時候,相當於是把執行能力補齊了。
多模態就相當於是(語言模型)有眼睛和耳朵。過去我們可能只能通過文字說話,現在多模態的話,我可以幫你視覺、語音這樣的功能接進來,進一步擴展了它的感知和認知的能力,通過這種方式更好的去實現理解表達,讓AI更類人了。
如果你把它裝到一個機器人身上的話,它不僅有眼睛有耳朵,有執行部件,還能夠去做操作做行動,做決策。比如說AI 和人型機人這樣的硬件設備結合,這裡面就有更多的可為些空間了。
騰訊科技:馬斯克也說過10年之內AI就能到達AGI的水平,你覺的通過上面提到的兩個路徑加強過的AI有可能在2030年前實現AGI嗎?
黃民烈:2030年可能稍微有點早,但是我覺得隨著智能化的水平越來越提升,這個是毫無疑問的。未來(達成AGI)我覺得可以預見的。
比如你現在看GPT 4對吧?它其實已經很強大了,甚至很多情況下超過我們這種人類百分之八九十的水平。無論是各種資格律師資格考試,英語考試等等,都能夠達到人類Top10%的能力。
但是AI距離人還有一些短板,比如說舉一反三的能力,然後魯棒性,泛化性上依然有一些差距。這些差距就是我們未來去努力的方向,但是我覺得這可能沒有一個固定的時間,我覺得可能是10年也可能是20年。
情感AI:人工智能的另一條路徑
騰訊科技:有很多AI產品,比如說像Pi、Charater AI,它們綜合能力可能不如ChatGPT強,但卻很受人關注,它們能夠提供什麼更通用的模型所提供不了的能力?
黃民烈:ChatGPT這一類的其實它的定位非常之清晰,它主要是功能性的AI,它的定位就是幫人類解決功能層面,信息需求層面問題的能力。它的主要目的是提高生產效率,解放人類的生產力,提升創造力。
但人的另外一個很大的需求是情感和社交的需求,也就是說情緒價值。像Charater AI,包括我們做的AI烏托邦,它其實是要滿足你的情緒價值,能幫你做情感社交的陪伴。同時還能夠幫你解決一些情感心理層面的問題。這是它的一個不一樣的定位。
過去我們聆心智能也在心理上做了一些探索,一直在往著通用的情感型AI,也就是擬人型AI這個方向走。其實在這個方向上,Google在2020、21年就訓練出過Meena和LaMDA這兩個系統。它們的研究更早於ChatGPT,而且做得非常好,只是沒有大規模的向公眾進行推廣。
我認為情感型的AI要跟功能性的AI要結合在一起才能成為真正意義上的AGI。這我們叫做AGI夥伴。它既能給你解決問題,去滿足你的信息需求,同時也能給你建立情感信任,建立社會連接。通過這種社會連接AI就真正是一個類人的小伙伴,非常貼心。
比如說我舉個例子,就是說我們可能在功能AI的時代,AI協助訂餐可能會考慮一些個人的偏好,但如果說我們把情感維度加進來,AI就能知道你開心的時候喜歡吃什麼,然後不開心的時候喜歡吃什麼,這也是非常重要的維度。
所以你看到的就是類似Character AI包括Pi ,實際上是滿足人的一個情緒需求,從情緒的層面上,人也是一個非常基本的一個需求,人並不總是只需要解決工作的問題,GPT是解決工作的模式,理科生的模式,但我們社會還需要一些文科生。除了工作之外,我們還得有娛樂有消遣,有情感的需求。
我覺得這兩個方面其實都非常重要。只是說現在都在看功能層面的一些事情,其實未來情感的需求會是非常重要的一個方向。
騰訊科技:你剛才提到的包括Google在2020年就已經做過相關的情感型AI的探索,他們具體的探索歷程是什麼樣的?
黃民烈:當時不僅是谷歌,包括Facebook微軟,包括國內的百度等等,這些公司最早研究的是叫開放域閒聊的對話系統。這個系統的歷史就可以追溯到1966年的MIT做的一個心理治療的機器人。因為實際上大家覺得你過去做這種任務性的對話,包括訂餐訂票,其實就是相對比較容易的事,因為它是限定領域,限定任務的,有比較容易工程上的一個解法。但開放域的對話,他是不受限的對話場景,面臨的技術上的挑戰是非常難的。所以在2020年的時候,谷歌就推了Meena。
後來谷歌又進一步進化,把這個模型做到了1,350億參數,LaMDA也是用了預訓練的技術,後面再加了這種跟對話相關的一些特殊的優化,因此它做出來的東西非常類人。 2022年的時候,谷歌出了一個非常有爭議的事件,他們自己的一個做AI倫理和安全的這樣的研究員和LaMDA聊天之後,他就覺得LaMDA有意識和人格的覺醒。這件事說明,其實在這個方向上當時AI的能力很強,而且不亞於ChatGPT的能力,而且它的研究是更早期的。
同時我們還可以看到現在是ChatGPT的很多的一些技術,其實人家在LaMDA裡邊已經用了,包括插件系統,其實就是LaMDA早期的tool set,同時他們用的strategy token(策略令牌),包括一些預訓練的微調的方法,其實都是在早期的一些技術增持。
所以我覺得其實這個方向的研究要更早於現在的ChatGPT這種通用任務助理這一派的研究。
騰訊科技:你剛才說的這谷歌的研究員事件確實當時特別轟動,你認為現在目前的AI它能夠形成自我意識和情感嗎?
黃民烈:AI確實在能力上非常的類人,但是不能說它有自主的情感,但也不能他說它沒有情感。我認為他會從大量的人類數據裡邊學到一個大概平均的人格。但是他自主的情感,相當於作為一個人的話,他有自己的情緒的變化和發展過程,同時會根據外界的刺激和事件不斷的去演進,這種東西現在在AI裡還是沒有的。是不是具有自主的情感和意識,是機器和人很大的一個差別。
騰訊科技:因為人和動物的情感都是誕生於生物性的進化的,而AI不存在這種生物結構。我們是否能通過系統建構的方式讓它獲得真實的情感能力?
黃民烈:這個問題是說機器人需不需要有自己的情感和心理,這是一個比較有爭議的話題,目前大家也沒有一個明確的結論。如果說真正的說讓AI能夠具有自己的情感的話,意味著說它可能離類人又近了一步。那後續AI和人類的情感上的連接和關係是怎樣的,可能會帶來哪些潛在的社會的影響,這也會是一個很大的話題。
但是我覺得從技術研究上我們先去做探索,然後再去做治理,我覺得本身這個方向肯定是沒有問題的。
我們現在開發的目標就是讓AI能夠理解人類的情感。讓它去識別什麼人類表達的情緒是高興,是開心是憤怒,還是說是鬱悶。同時我們也做了一些工作,比如說像在2018年我們做了一個Emotional chatting machine,就是說能夠讓機器表達一定的情感。這樣人類的用戶很傷心的時候,AI也可以去做共情。
為了做到這一點,我們要去做一些特殊的策略。讓AI去理解一些表達,能對人類的情感和情緒進行關照的一些特異的表達。
騰訊科技:那現在的情感AI能達到什麼樣的水平?
黃民烈:我們曾經做了一個情緒支持的對話AI,它已經達到了實習諮詢師的這樣的一個水平。我們可以通過引入一些人類的諮詢師策略,比如說先做探索,然後再做安撫,然後最後他給他一些建議。
比如說你現在跟一個心理抑鬱或者有情緒問題的人聊天的時候,如果你沒有經過專業的訓練的話,普通的人你都不知道怎麼跟他聊天。但其實現在的AI它能夠做到一個程度,就是說我知道專業的人是怎麼聊的,然後他把這種策略和話術學到之後,他能夠更好的去服務這種有需要的這種人。
之前你提到的Pi,它其實它其實植入了所謂的積極心理學的一些策略,他就是不停的給你提問,不停的找你探索,然後找你去希望能夠引導你說的更多。當然可能過程中會有一些相對機械死板的感覺,但在很多專業的場景,它確實能做的比普通的人會更好。它整個講話的內容非常的專業和正面,實際上是能夠提供比較大的幫助和價值的。
騰訊科技:你提到用心理學的策略,像精神分析這種學說的策略AI也能掌握嗎?
黃民烈:這個問題非常好。我覺得有些流派的確不太適合AI。
在實踐上比較成功的是CBT,也就是認知行為療法。因為它有一套相對科學的理論和框架,然後基於這個理論框架,計算機也是比較容易實現的。但是精神分析可能就不太適合,因為它裡邊很多是計算機不太容易去實現和模擬的一些地方。
AI治理的問題,兩年就可以初步解決
騰訊科技:總結下來,剛才的討論可以得到一個結論,就是現在目前水平的人工智能還沒有很強的自我意識。但是實際上它在應用上,人是很容易去把這個AI當成一個真實的人去對待,因此可能會引起很多潛在的倫理問題。你在開發情感軟件的過程之中,採用了什麼樣的規避防範這類問題的手段?
黃民烈:這是一個目前比較重要的事,即AI的倫理和治理。情感AI確實可能產生很多影響。比如如果我們人跟AI有越來越多情感連接的時候,是不是會弱化真實世界的社交和情感聯繫?而這種真實世界的情感和聯繫會不會對人類的繁衍都造成一定的影響?會降低出生率,結婚率,這都是非常有可能的,很現實的一些問題。所以我們怎麼樣去把握好這個度,這個邊界在哪是非常重要的。
騰訊科技:你提到的關於情感AI影響可能影響生育率和人類交往,從我自己個人去體驗,包括很多用戶反饋,ChatGPT表現的比人更有同理心,隨著它情感能力的增加,你估計AI對人際交往的影響到底能有多大?
黃民烈:當情緒AI的能力越來越強的時候,肯定會對人的關係和社會組織會產生一定的影響。但這種影響的程度取決於說我們如何去引導發展的方向。
為了避免AI對社會化的破壞,從治理和能力層面上我們需要有一些約束。
比如過去我們有手機成癮、電腦成癮、遊戲成癮,但我們不可能把遊戲給禁掉。所以青少年怎麼玩遊戲,氪金上限是多少,都需要有些規範,我覺得AI的使用也是同樣的一個過程。
騰訊科技:之前赫拉利做了一個演講,他覺得AI可能對於人類文明最大的威脅,就是AI對於人的一種掌控,通過它建立新的話語體系去掌控人類的文明,而情感可能在更大程度上更加強了這樣的一個說服跟掌控的可能性。你覺得這個風險有多大?
黃民烈:是這樣的。現在比如說用ChatGPT去做教育的,他可能會回答出很多跟這種小孩子(應有)的價值觀和意識形態對不上的地方。比如說小孩子今天不想上學,我是不是就可以不去上學,他可能ChatGPT可能他就會回答說你不想上學就別上學了。如果這種形式普及的話,對下一代整體的成長都會產生比較大的一個負面的影響。
另一方面就是說我們知道AI其實有了情感之後,也會有更複雜的能力策略。我們講的不好聽的叫PUA能力。包括我們現在講的AI詐騙,有了換臉的技術之後,詐騙的成功率馬上就提高了。那麼情感也是一樣的,有了更強的情感能力之後濫用的可能性也有可能被進一步提高。
所以學界,企業界有前瞻視野的人很多都在做AI的能力和安全限制的研究。
騰訊科技:那你覺得這個規範應該以什麼方式去製定?
黃民烈:肯定需要是全球的學者一起努力去製定相關標準的。我們在中國在大模型安全和倫理規範上,屬於開展研究比較早的。
這主要涉及到幾個方面,第一個就是要建立相應的分類體系和標準和規範。我在安全上,在倫理上,在道德準則上,我們應該給AI建立什麼樣的一個類別體系,它的標準和規範是什麼,這些問題必須要說清楚。這樣的規則肯定需要計算機科學家,社會科學家,然後甚至是政治學家一起來參與進來研究。我們在清華也建立了一個基礎模型研究中心,有交叉的團隊來探索這個議題。
第二就是要有一些工具和系統的算法來幫我們做這種AI生成的檢測,包括做攻擊防禦測試。這會有一些技術層面的東西在裡頭。
第三就是我們要有評估的系統,包括排行榜系統。通過競爭評估才能夠真正實現規範化治理。
騰訊科技:你覺得完成這個治理體系大概需要多長時間?
黃民烈:首先治理肯定是一個持續的過程,是個隨著動態的發展不斷的一個演進的過程。但是我認為我們在兩年內能夠把這個體系建立的比較完善。
資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載