騰訊高管談元宇宙:質變的時間點可能在2030年

4月24日,騰訊高級副總裁馬曉軼在復旦大學管理學院校友會上,分享了他對元宇宙、VR/AR等內容的看法。

在元宇宙熱潮下,馬曉軼對元宇宙短期2-3年內的變化,看法是保守的。儘管現在很多專項技術有了突破,但元宇宙時代所需要的通用設備(類似當年帶來計算機革命的家用PC,以及推動移動互聯網發展的智能手機)現在還沒有出現。無論從技術還是商業來看,離它的發明與普及都還有距離。

但對於更長線的10年發展前景,他有很強的信心。一方面,元宇宙概念在近兩年得到更多的技術支持,正在從多方面解決自身的瓶頸問題;另一方面,社會對其認知也正在突破,從僅局限於遊戲、軟件中的概念,朝著跨越多個場景的方向發展。而元宇宙質變的時間點,他認為是2030年。

元宇宙的技術現在發展到了什麼狀態?元宇宙需要什麼樣的設備和內容支撐?為什麼質變會在2030年發生?在馬曉軼的分享中,或許能找到答案。

元宇宙最近非常火,不過倒推來看,這並不是一個新鮮話題。

1997年,有款叫《Ultima Online》的遊戲,就在當時提出概念:這是一個持續運轉的世界。這個理念下,遊戲即使沒有人在線參與互動,它的世界也在持續存在和持續發展。這個理念和現在元宇宙的理念是完全一致的。

差不多也是在1995-1998年這幾年,各個互聯網公司開始創業,考慮怎麼把生活中的場景、關係放到線上。

Metaverse這個詞,來自於1992年的一本小說。最近一次在商業界被提及,是2018年一個美國分析師寫的一篇文章,標題是:騰訊的夢想到底是什麼。

文章分析了騰訊為什麼投資Epic Games、Roblox、Reddit、Snapchat,以及各種各樣的內容和平台型的公司。當他把投資佈局組起來後,他覺得用一個叫Metaverse的詞再好不過。

隨著Roblox的上市,Facebook改名Meta,元宇宙變成了一個越來越熱的概念。為什麼這麼早的概念,在今天突然熱起來了?我覺得是因為相較於過去,這幾年發生了很多變化。

第一是整個計算能力到了臨界點。 2016年有一波VR浪潮,當時我就比較保守,也相對悲觀一點。和很多行業裡的人聊了,我們覺得要真正在VR的設備上支持好的體驗,做到大規模應用,所需的技術遠遠沒有成熟。

舉個例子,當時的移動計算芯片完全無法支持高分辨率的顯示,再加上電池、顯示設備本身的限制,使得這個體驗做的很差。

其次,是一些關鍵的新技術沒到位。我很關心也一直在看很多上游的關鍵技術,甚至一些器部件生產的進展。我們已經看到一些路線圖正逐步清晰起來,在未來的幾年裡,這些關鍵技術都會有一個突破性的發展。

第三,我自己覺得比較重要的是,互聯網的滲透率也到了臨界點。特別是經歷了這兩年的全球疫情之後,大家可以發現在家辦公正變成主流——如果你是科技公司,如果不提供給員工在家上班的選項,那麼你就失去了吸引力。大家已經習慣把生活的很大部分通過網絡實現。

最後,我們站到用戶的角度,從需求來看。人作為一個物種,最大的特徵是「協同」。隨著整個社會越來越複雜,我們需要的技術也複雜起來。當社會看到一些技術是有機會去滿足這些需求的時候,便會推動它去實現一個非常大的突破。

基於以上幾點來看,2006年《Second Life》的第一次嘗試,明顯是太早了,到了2015年、2016年第一波VR的時代,我覺得也是太早了。

到了今天,或許便是一個合適的時間點。

所以正好藉著這次會議,我們可以談一下對未來Metaverse的暢想——說實話,我個人和外面很多媒體的報導有一些不一樣的觀點,就比如我會覺得現在談論Metaverse的細節還是太早了。

畢竟元宇宙到底該長什麼模樣、由什麼部分組成……還是個很難清晰、精准定義的工作。

但是,我們現在可以將元宇宙,視為一種未來新技術、新應用的可能集成方式,是對未來人機交互、人人交互想像的合集。

我主要從沉浸感的體驗和內容髮展聊聊對元宇宙未來的想像。

沉浸感:2030年後,元宇宙或開始普及

首先,沉浸感,我覺得主要是兩個方向:1.人機接口&交互方式;2.VR等設備的體驗問題。

現在我們提到Metaverse,大家會不由自主地將它和VR聯繫在一起。當然,這是基於兩個原因,一方面是因為前段時間Facebook下了非常大的賭注在VR的方向;另一個方向,我們如果要達成Metaverse的概念,那麼VR這樣的全新設備是免不了的。

為什麼呢?普通人借助鍵盤、鼠標、觸控等設備輸入給電腦的信息,從電腦的技術角度來看,它們帶寬其實很窄,能輸入的信息很有限。而電腦只能根據這些東西,做出反饋,更多的信息都沒有辦法直接地輸入進去。

但是,隨著輸入的帶寬增加,其實我們可以加入更多維度。

比如,可以給VR設備增加更多的攝像頭、傳感器,將環境信息也輸入到電腦當中。可以追踪人體狀態,現在最新的技術可以實現6個維度——前後左右上下——的3D追踪,包括頭的位置、眼睛朝向,方便和周圍的環境互動起來。

其中最值得關注的,便是手的操作。現在最新的Oculus Quest 2,還需要用手柄來輸入信息,但是業內有一個共識,更自然的交互,是用手來交互。

這個進步,在手機上就出現過:早期的手機都是用觸控筆來寫的,但蘋果就站出來說,這是違反人直覺的。人的直覺,應當是用手指去觸摸屏幕——這個道理放在VR設備上也是一樣。所以現在我們很多進展,就是去捕捉手指的動作。

另外,我們看到一些最新的技術專注做面部識別,捕捉表情。大家都知道人和人交流的時候,對方的反應是很重要的反饋。

比如說我們現在的線上會議,我的體驗其實並不好,因為我看不到大家的表情,我不知道現在我的演講是講快了,還是講慢了。可如果在線下,我就能馬上看到觀眾的反應。所以未來我們也需要藉助面部識別,去追踪人實時的表情,然後投射到虛擬的場景當中去……

這些新的輸入方式,集成在一起,讓信息帶寬更大,能極大地改變電腦的信息輸入。

也有一些讓人非常興奮的技術發展。

比如最近我們看VR頭顯上的顯示單元。大家如果試過Oculus Quest 2,就知道它上面使用了Fast-LCD的技術。不過這個技術有一個問題,那就是紗窗效應。當設備離眼睛太近的時候,你能看到pixel像素點就在你的眼前,好像隔著一個紗窗在看。這個其實就和當年低分辨率的手機顯示屏一樣。

之後的故事大家都知道,iPhone能成功的很大一個原因,就是他們在iPhone4提出了視網膜屏幕的概念,極大地改善了大家使用手機屏幕的體驗。

VR發展到了今天,針對這些問題,也有一些新的技術在誕生。比如說已經在生產線上的,4K分辨率的矽基OLED顯示屏,已經能夠為VR頭顯提供足夠高的分辨率。

如何在VR頭顯上達成視網膜屏幕的效果?現在有一個標準,即,人的每一度視角上應該有多少個像素點。大致來說,有30個的時候,你已經開始感受不到像素的邊界,如果到了60個/度,你就可以完全看不出像素點。所以,4K矽基OLED顯示屏已經足夠讓大家有一個非常好的體驗。

亮度,也是一個VR頭顯的改變點。

從現在的矽基OLED顯示屏,到未來的MicroOLED顯示,都可以提供更高的亮度。之前,LCD大致大概只有400-500nit的亮度,現在我們已經能看到2000nit,而且從未來發展的路線圖來說,我們已經看到10000nit的在研設備。

這就解決了一個非常大的瓶頸問題,即,提升顯示單元的技術,增加用戶的沉浸感。市場上也有了一些成型的產品。

但未來,還有一個很重要的發展方向,那就是折疊光路的技術。

以前的VR設備通常又厚又重又大,戴在頭上很不舒服。未來我們能看到折疊光路的設備,可以將VR頭顯單元做得非常薄,更接近於普通戴眼鏡的感覺。

還有一個突破,就是VR/AR的爭論。 VR說,所有的內容都來自顯示單元,但AR說,得將內容和現實環境做重疊結合。

現在來看,行業大家做的都是折疊光路的方案——依舊用顯示屏來呈現所有的內容,但是會在外界增加更多的感應器,來捕捉用戶的周圍情況,最後疊加在你的顯示屏上——行業裡還有一個傳聞,大概在明年年初的時候,蘋果就會出這樣的一個設備,運用折疊光路的方案,實現VR/AR的效果。

綜上所述,人機接口方面的技術路線圖發展得很清晰。除了電池受到不少限制以外,其他方面,幾乎都有了解決方案,且都在進展當中。

這也是我們對於元宇宙、VR/AR的發展抱有信心的原因。

另一個點,要想讓技術體驗足夠好,單是設備內部有硬件支持還不夠,還得有軟件發展。

需要指出的是,這裡的軟件,指的是技術,不是內容。我們將其歸結為3個維度:

1.可信的環境:Metaverse的場景越來越真實,讓用戶能相信這是一個真實的世界。

2.可信的人物:人是社交屬性很重的生物,我需要與群體互動、交流、協作。這個當中,最需要的便是一個可信的人物。我相信大家都對這一點多少有所體會。

3.可信的交互:還是聊線上會議,這種形式更像一個演講,而不是討論,線下會有人插入進來討論,有碰撞,但現在的線上沒有這些東西。

如果要做一個更真實的交互,要涉及到很多讓人足夠相信的細節。比如我讓你拿一瓶水,我和你握手,我能感受到其中的溫度、重量,而這些,都是傳統的電腦、Pad完全做不到的交互……不過現在已經有技術在這方面有了不少進展。

總結一下就是,隨著技術的發展,我們需要提供很多的工具給做Metaverse、VR/AR的公司,同時,幫助大家可以做出更可信的世界和人物關係。

內容量:誰來提供足夠多的內容?

這是一個挺大的話題。因為我們仍然不知道Metaverse需要包含哪些內容。不過現在來看,我們會覺得分幾個維度:專業內容和通用內容。

這部分我會比較悲觀。因為儘管技術在路線圖上發展著,但需要更多的時間去準備。專用到通用,還需要更多的時間。

當一個技術還沒有到舉足輕重的地步時,它往往只是一個相對專業、專用的應用,比如說遊戲、影視等方面;而通用類,比如說大家正在用的手機,現在已經有成千上萬種辦法去使用它。

大致拍腦袋說一下,我和內部團隊交流的時候,一般將2030年作為一根基準線,在那之前,Metaverse還會是專用的階段,到了之後,才可能會有些機會走向更通用的狀態,開始挑戰現有的電腦、手機的使用場景。現在更多是一個新的、補充的場景定位。

這裡可能需要更細緻地說一下專用和通用的差別。

差不多一個半月之前,我和Epic Games CEO Tim Sweeney開會,討論到這個問題的時候,我的總結是:我們現在的遊戲,就是一個「遊戲」,你看視頻,看的也只是一個「視頻」,但是Metaverse不一樣,你應當是在Metaverse當中「生活」。期間有本質的區別。

比如當你去一個線上的電影院,那是一個專門的世界,割離出現實。但是Meta是將大家的生活融入、整合到這個虛擬世界當中。所以這就需要有足夠多的內容,讓你願意生活在其中。

這些足夠多的內容可以分為幾個路線:

1.PGC的專業製作,例如騰訊這樣的公司製作電影、遊戲、電視劇,這是一個專業的製作。 PGC仍然是Metaverse很重要的部分。

2.UGC。也就是用戶產生的內容。

3.虛實結合。我們剛剛說了很多技術,便是要將現實世界整合、融入到虛擬的世界當中。

這三個部分,都是非常關鍵的內容組成部分。

那麼如何實現呢?

首先,大規模的PGC內容,其實最近也有一些突破。關注新遊戲的同學就知道,前段時間,Epic Games有一個非常震撼的demo,他們在《Matrix》上映的同時,做了一個虛擬的城市,這個城市的規模大概有10-20平方公里,當中有3萬個市民,有大量的交通、建築。

關鍵是,當中的車輛有自己的動作:到了紅綠燈會停下來,看到人會停下來,而且這3萬個市民,每一個人的穿著、行為、長相都不一樣——若放在以往,要完成這麼大規模的虛擬世界創造,幾乎是一個不可能的任務。

但在今天,隨著技術的發展,這些不可能的任務都在逐步實現,因為,一方面技術能力在增長,另一方面,這些東西有了更多的好方法去解決。

比如,我們和Epic Games有兩個項目正在合作。一個項目,是可以通過AI來導入現實世界。之前我們去新西蘭的一個山谷,那是一個10平方公里的山谷,我們在那裡拍了7000-8000張照片,然後把照片導入引擎,這個引擎就會把山谷大致地還原出90%,然後再經過我們手動的一些微調,就可以實現在短時間內生成一個非常大的世界,而且這個世界看起來還非常的真實。

另一個項目,我們做的是一個虛擬人的項目——國內叫做Siren。後來Epic Games也發布了Meta Human的項目,一個高度仿真的人。這其實都回到剛才我們提到的概念:一個可信的人是虛擬世界當中重要的構成。

同樣放到以前,你要做一個虛擬人物需要花費相當多的時間。

大家也許聽說過這個故事:好萊塢很多電影要做一個虛擬人,線上渲染10s的片子需要幾個月的時間,但以現在的技術,好萊塢要4個月做出來的內容,我們能在0.01秒就渲染、達成前者95%的質量。

這些,都使得大規模的製作有了更好的辦法。包括動作捕捉等內容,在AI的加持下,可以讓創建一個內容變得更加容易。

其次是UGC部分,我和外部看法多少也不太一樣。

比如,外部談到UGC,那最關鍵的就是去中心化,但這個點上,我和Roblox的CEO David有很多的交流——我們很早就參與了Roblox的建設,2015年左右就開始參與,做了不少投資——我們說到UGC內容成功的關鍵時,都提到社區的原則、透明性,尤其其中維持秩序、狀態的部分,是需要強中心化的執行。

但這倒不是說我與外部意見相左,我認為,去中心化應該是指能力的去中心化:把工具、能力、資源給到用戶,讓大家無需一個中心化的平台,就能創建屬於自己的內容。而能夠支撐這些內容的,便是剛才所說的,一個持續、有原則、長線穩定的平台。我認為,這是一個做出UGC最重要的點。

而第三點,虛實的結合,很大程度上回到剛才我們所說的Metaverse、VR/AR新技術。其實我們所希望達到的目標,和互聯網、人類社會以往的努力是一致的。人類一直想打破物理的限制,比如飛機、汽車都是為了消除物理的限制,縮短物理的損耗,提高大規模協同的效率。

所以長遠來看,Metaverse更多是考量如何引入更多外部、現實世界的服務和內容,打破物理的界限。

更現實的問題

最後,我想聊一聊Metaverse、VR/AR存在的問題。

雖然我剛才所講到的內容好像都很樂觀,但是我個人內心深處,還是略帶一些悲觀。

平時,我和大家聊的時候都會這麼說:看短期1-3年,我比大部分人更加悲觀,看長線的10年之後,我會比大部分人更樂觀,會認為這些新技術的場景會為整個人類社會帶去很大的變化。

就我的觀點而言,現在的這些技術會在2025-2027年之間大規模面世,但是要鋪開來做,還是得等到2030年。這是我心目中的一個時間表。

舉個簡單的例子,價格就是一個重要的參考。比如剛才所說的4K矽基OLED顯示屏,它的體驗非常好,但價格太貴,光是一個顯示單元的價格,就和整個Oculus Quest 2的整機價格是一樣的。所以,價格下來還需要很長的時間。

其次,商業模式本身也還存在一些問題。如剛才我所說,現在還為時太早。

如果要將我們當下的階段去對應到過去的歷史,那麼有這樣兩個時間點:

1.通用設備的普及。

很多年輕人可能不知道,最先家用的專用設備,其實是遊戲機——雅達利2600,1977年發布,它可以對標到現在Oculus Quest 2的情況。

而大家熟知的IBM PC,是在1981年進入的市場,家用PC真正普及,是在Windows面世之後,85年是第一個版本,大規模推廣的3.0版本是92年才有的,而更廣為人知Windows95已經是95年的事情了。

可以看到,這個過程起碼有6-10年的發展。

2.商業模式的成立。

其實90年就有互聯網出現,但是大家知道的互聯網公司,包括騰訊、Google等,都是在98年才成立。而且,這些公司真正找到支持他們的商業模式,大概都是在2004年左右。這過程同樣花了很多年。

所以,短線來看,整個Metaverse的發展,還需要好幾年的培育,但是培育的方向是清晰的,潛力也是非常清晰的。

上一個20年,整個互聯網對人類社會、經濟、技術的貢獻,大家有目共睹,所以我相信未來20-30年裡,以Metaverse為核心的、集成的互聯網體驗,會給整個社會帶去更大的衝擊。

而這其中,還會有很多的點,值得大家探討、協作、推動。

Total
0
Shares
Related Posts