Apple Vision Pro“洩漏”了蘋果哪些AI能力?


原創:喬布斯

來源:大模型之家

北京時間6月6日凌晨,蘋果WWDC 2023全球開發者大會正式開幕,本次活動,作為“One more thing”登場的Apple Vision Pro無疑成為了活動最受關注的產品,沒有之一。

就在行業內普遍認為“元宇宙”熱潮退去,蘋果殺入XR賽道有些姍姍來遲,結果反手卻掏出Apple Vision Pro這樣的“王炸”級產品,讓行業頗為驚嘆。

那麼,在行業普遍將關注點轉向人工智能,蘋果才推出“元宇宙”設備Apple Vision Pro,不由得讓人懷疑蘋果在人工智能方面能力幾何。

接下來就讓大模型之家,為你盤點一下WWDC 2023上,全新的Apple Vision Pro,究竟都透露了蘋果哪些人工智能實力?

AIGC生成人像

在使用Apple Vision Pro進行FaceTime視頻通話時,由於沒有朝向用戶的攝像頭,而用戶佩戴XR設備,也會讓用戶看上去非常奇怪。

為此,蘋果通過Apple Vision Pro前置鏡頭掃描人臉信息,基於機器學習技術,系統會使用先進的編碼神經網絡,為用戶生成一個“數字分身”,並動態模仿用戶的面部和手部的動作,甚至可以保留數字分身的成交量感和深度。使用的簡易性和效果甚至超越了目前市面上的一部分數字分身軟件。

更加智能的輸入法

眾所周知,XR行業目前最受詬病的困局之一,便是輸入方式的匱乏,無論是手柄的單鍵輸入,還是浮空鍵盤的輸入方式,在效率與精度上,相比實體鍵盤,體驗都十分糟糕。

而Apple Vision Pro主要互動方式為眼神、手勢和語音,這就意味著語音輸入可能將成為Apple Vision Pro最主要的鍵入方式之一。

雖然蘋果並沒有在Apple Vision Pro介紹中強調輸入法,但是在iOS 17的介紹中則提到了更加智能的輸入法,不僅可以糾正拼寫錯誤,甚至還可以糾正用戶在輸入過程中的語法錯誤。

自動更正的單詞會被臨時下劃線標記,讓用戶清晰地知道哪些單詞被更改了,並且只需輕觸一下即可恢復到原始單詞。

更為重要的是,基於設備端的機器學習,輸入法還會根據用戶每一次的鍵入自動改進模型。將輸入法的自動糾正功能達到了前所未有的準確度。

此外,基於最前沿的單詞預測Transformer語言模型,單詞聯想功能可以非常快速地輸入下一個詞,甚至是完整的句子。

而這種極為個性化的語言預測模型,也可以讓輸入法更加了解用戶的語言習慣,也能在用戶使用語音,輸入的時候大幅提高輸入的準確性。

全新的“手記”APP

伴隨iOS 17發布的,還有全新的“手記(Journal)”App,能夠利用設備上的機器學習技術,根據用戶的照片、音樂、鍛煉等信息為你創建個性化的回憶和寫作建議。 App會根據這些信息為你提供適合你的時刻進行記錄和書寫的建議。

這意味著基於iPhone的算力,設備已經能夠部署本地化處理文字、圖片等多媒體內容的語義理解能力,同時具備一定的生成式AI功能。

而此時蘋果選擇低調,在大模型之家看來,面對GPT這樣的頂級大模型,蘋果的AI能力確實相對薄弱,過分強調AI能力無疑是以卵擊石。

另外,作為一家主要營收來自於消費電子以及服務的科技公司,相對於AI這種相對籠統的概念,蘋果更需要強調的是新功能的出現,對於用戶體驗的提升,持續增加用戶的黏性。

場景與動作識別能力

除此之外,例如空間音頻的計算、眼球動作以及手部行為的捕捉,這些也是人工智能技術所發力的領域,蘋果憑藉著M2和R1兩顆芯片提供的算力支撐,實現了人工智能順利的本地化部署,充分體現了蘋果在消費電子領域人工智能應用的能力。

儘管在WWDC 2023上,蘋果並未過度強調其AI能力,但從產品功能的方方面面來看,其AI能力卻已經深入滲透到其產品的各個細節中,成為改進用戶體驗的重要手段。

作為全球最具影響力的科技公司之一,儘管蘋果沒有過多宣傳其在人工智能方面的成就,但從蘋果擅長一鳴驚人的產品風格來看,其在人工智能領域的實力仍然不容小覷。

近期活動

閱讀987

寫下你的留言

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts