這場更貼近用戶的終端側革命,是生成式AI全民化的關鍵


原文來源:機器之心

在生成式AI 越來越被看好和競相追逐的當下,它的更廣泛落地,需要在終端側做大做優做強。

圖片來源:由無界AI‌ 生成

如今,距離OpenAI 發布ChatGPT 已近10 個月的時間了,由它引發的生成式AI 浪潮讓普通人「更近地」感知到了人工智慧的魅力。無論是大模型賦能的聊天式即時搜尋引擎、或是輸入文字就能產生圖片的繪畫工具,生成式AI 已經慢慢走進並潛移默化地改變人們的日常工作、娛樂、創作習慣。

伴隨大模型和生成式AI 而來,手機和晶片廠商正大張旗鼓地進行著一場「終端側革命」。今年5 月,Google發布大語言模型PaLM 2,其中包括可以在行動裝置端運行的輕量級版本Gecko。同樣是5 月,高通發布《混合AI 是AI 的未來》白皮書。 8 月,小米雷軍宣布全面擁抱大模型,成功在手機端初步跑通13 億參數大模型,小愛同學也迎來大模型能力升級。

我們不禁要問,大廠為何爭相將通用及生成式AI 大模型放進終端機尤其是手機上呢?我們知道,智慧型手機、PC、XR、汽車等智慧終端產品離一般人最近,尤其是手機,我們花在它身上的時間越來越多。 2023 年4 月,市場研究機構Electronics Hub 發布了一份報告,顯示有些國家的用戶一天中盯著手機螢幕的時間超過7 小時。手機正逐漸演變為智慧生活的核心,為發展終端側生成式AI 準備好了「溫床」。

不過,生成式AI 大模型如今向終端側的傾斜並非一蹴而就,在部署方式上正經歷著從雲端到端雲協同的轉變。

終端機與雲端生成式AI 並駕齊驅之勢日益凸顯

我們知道,生成式AI 大模型的參數動輒數十億、數百乃至上千億,在模型訓練優化和執行推理方面對基礎設施有極高的要求。一開始只有雲端可以提供這樣龐大的AI 算力,因而廠商們往往選擇在雲端部署運行自家大模型。

以ChatGPT 為例,它的訓練和運作需要大量的資料儲存和運算資源,海量用戶請求產生高昂的算力成本,這就需要強大的雲端服務平台。使用者可以透過微軟Azure OpenAI 雲端服務存取ChatGPT 及其他生成式AI 產品(如CodeX)。另一大雲端服務商亞馬遜也推出類似的生成式AI 雲端託管服務,用戶可以透過API 存取AI21Labs、Anthropic 和Stability AI 等新創公司的預訓練基礎模型。

顯然,雲端服務平台加速了這股生成式AI 技術浪潮席成交量全球,為大型模型廠商提供了滿足模型訓練、推理所需的算力支撐。不過,大模型雲端推理需要付出高昂的成本,並且隨著用戶量及使用請求的日益增加,成本越來越高。這樣一來,面對持續增加的營運成本,廠商們需要在雲端之外找出另一條路出來。

隨著時間推移,一方面大模型壓縮技術(如量化、網路剪枝和知識蒸餾)越來越豐富且效果越來越好,另一方面手機、PC、XR、汽車等智慧終端設備擁有的AI算力不斷增強,將生成式AI 的部署到終端的技術條件迅速成熟。終端機與雲端並駕齊驅之勢日益凸顯。

科技大廠們敏銳地捕捉到了這些變化,才有了一系列在智慧型手機等終端上嘗試部署生成式AI 大模型的舉動。例如,ChatGPT iOS 和安卓版的推出讓一般用戶拿起手機便能體驗生成式聊天對話,未來這樣的重要時刻會更多。

此外相較於雲端,在終端側部署運行生成式AI 還有成本、安全隱私、運作可靠等幾方面的優勢。

首先是成本優勢。先前曾有媒體報道,OpenAI 僅維持ChatGPT 的運作一天大約要燒掉70 萬美元,這意味著在ChatGPT 身上可能已經花費近2 億美元。如此高昂的成本即使是OpenAI 也吃不消,難以達到收支平衡,更不用說獲利了。終端側則不一樣,成本大大降低,壓縮後的輕量化模型部署只需支付硬體成本,不用考慮頻寬、能耗、網路傳輸等其他問題。

其次,終端側運行生成式AI 可以更放心地保護隱私數據,不像雲端那樣有資訊外洩的潛在風險。這並不是杞人憂天,今年4 月三星被曝出半導體部門員工在使用ChatGPT 時將資料上傳到雲端,導致機密資料洩露,隨後宣布停用。終端運作無需將文字、圖像、影片等資訊上傳至雲端,很好地規避了這個風險,盡量確保隱私不外洩,安全性得到增強。

低延遲也是終端側一大優點。雲端需要資料傳輸到雲端處理後才能回傳結果,過程中網路傳輸必然導致延遲。終端側不需要將資訊上傳到雲端伺服器或資料中心,回應速度提升,延遲也減少。同時本地運行更可靠,有時離線狀態下也能運行,一定程度減少了對雲端服務和網路連線的依賴。

終端側還有相較於雲端更豐富的應用場景和情境訊息,帶來更個人化的互動和體驗。使用者可以針對不同的應用場景或同一場景的不同需求微調和自訂模型參數和功能,靈活性拉滿。

憑藉這些優勢,終端側部署生成式AI 這條路越來越明晰,也更多地被擺在與雲端同等重要的位置。正如先前高通公司全球副總裁侯明娟在《混合AI 是AI 的未來》白皮書線下發布會上所言,「終端側AI 是實現混合式AI 架構、擴展生成式AI 至全球更廣泛範圍的關鍵。」

侯明娟

高通這樣說了,也是這樣做的。在這場關乎生成式AI 的終端側革命中,高通率先吹起了號角,成為終端側AI 變革的核心推動者之一,並在佈局中形成了雲端與終端協同工作的混合AI 發展路線。這一路線選擇的背後更體現了高通在終端側AI 及生成式AI 技術能力上的前瞻性與領導力。

先人一步佈局終端側生成式AI

所謂混合AI,它主要有兩種運作方式:一是在一些場景下,運算主要以終端為中心,在必要時向雲端分流任務。二是在以雲端為中心的場景下,終端機基於自身能力在可能的情況下分擔雲端的一些工作負載。雲端與終端機各司其能、相互輔助。

相較僅在雲端,混合AI 的最大效益在於更有效率地在不同場景和時間下分配協調AI 工作負載,提高資源利用效率,降低運作成本。

在高通的混合AI 佈局中,無論是以終端為中心、基於終端感知、還是終端與雲端協同處理,都強調終端側AI 能力是賦能混合AI、並讓生成式AI 實現全球規模化擴展的關鍵。尤其對於生成式AI 而言,混合AI 意味著要充分利用終端側算力支撐起生成式AI 應用,就像手機上的ChatGPT 一樣。

不過,在終端順利部署運行生成式AI 大模型說來容易、做來難,實現的前提要有強大的終端側AI 能力。身為上游晶片廠商,高通一直是終端側AI 的領導者,形成了從晶片到軟體到演算法再到生態的全端AI 優化,做到軟硬體都不拖後腿,實現終端側AI 推理加速。

高通全端AI 優化

首先在硬體晶片層面,從更早的旗艦平台驍龍888、第一代驍龍8,到近一年來推出的高階第二代驍龍7 和旗艦第二代驍龍8,AI 能力持續演進、增強,端側AI 能力隨之提升。其中不斷升級的高通AI 引擎(目前第八代)發揮重要作用,其Hexagon 處理器、高通Adreno GPU 和高通Kryo CPU 面向終端側高效運行AI 應用而打造,並通過異構計算方式優化終端側AI 用戶體驗。

今年10 月即將推出的第三代驍龍8 的AI 算力預計將進一步提升,到時能支援什麼樣的終端側AI 功能讓我們更加期待。

在持續硬體加速之外,終端側AI 最大的挑戰在於軟體,要確保可以運行各種神經處理模型,運算還要夠快、夠有效率。高通AI 軟體堆疊幫助開發者更有效率地在硬體上建立、最佳化和部署AI 應用,實現一次開發、多端部署應用的效果。從下圖可以看到,該軟體堆疊從支援的AI 框架、推理軟體開發套件、開發者庫與服務、系統軟體以及作業系統等多個層面提升開發效率。

高通AI 軟體棧

此外,在演算法和模型開發方面,其致力於在不犧牲準確度的前提下提高效率,這方面有基於Q-SRNet 模型的演算法、INT4 量化解決方案等。例如,驍龍8 Gen2 首次支援了INT4 AI 精確度格式,相較於INT8 帶來60% 的能源效率提升和90% 的AI 推理效能提升。

高通在生態層面也持續發力,其在手機上的技術優勢可擴展到汽車、PC、XR 和物聯網等其他終端。同時基於分佈在各個領域的IP 和技術,高通能夠跨多個生態系統進行深入合作,例如PC 領域與微軟、XR 領域與Meta,透過良好生態合作快速實現規模化擴展。

可以說,高通強大、全面的終端側AI 能力,尤其是能應對生成式AI 模型架構潛在變化的AI 硬體加速架構和軟體棧,引領了終端側AI 推理,為生成式AI 向終端擴展打下了堅實的技術基礎,讓生成式AI 應用跑在手機等終端設備上成為可能。同時單就探索生成式AI 而言,高通同樣具有前瞻性。

從早期研究生成式AI 模型的壓縮方式、利用VAE 創建視訊和語音編解碼器將模型規模控制在1 億參數以下、到無線領域用生成式AI 替代通道模型以提升手機通信效率,高通一直在有的放矢地推進生成式AI。

當然,成效也很顯著,近半年來高通在手機端運行生成式AI 大模型的新聞接連引發了熱議,包括運行10 億參數的文生圖模型Stable Diffusion、15 億參數的圖像生成圖像模型ControlNet 等。除了展現行動端的AI 繪畫能力,高通在數位人等其他技術方向進一步探索生成式AI 能力的延伸。

手機端ControlNet 在12 秒內完成渲染。

未來,高通基於增持的手機端運作經驗加之SoC 晶片算力的進一步提升,更多參數模型的終端運行指日可待。高通產品管理資深副總裁兼AI 負責人Ziad Asghar 受訪時就表示,今年將能夠支援100 億參數的生成式AI 模型在手機上運作。此外也將與Meta 合作明年推出手機版Llama 2。這些都讓生成式AI 的未來更可期。

在我們看來,終端側AI 最大的意義在於將生成式AI 大模型在每個人的手中展示,對生成式AI 的規模化擴展和普及更加有利,也能創造商業效益。僅以生成式AI 繪畫為例,如果能像前段時間火爆朋友圈的妙鴨相機一樣,手機端運行生成式AI 將產生無可估量的流量效應。

不過,高通佈局生成式AI,必然不是為了一時的流量效應,而是藉助手機、行動PC、XR 穿戴式裝置、智慧家庭、汽車等所有可能成為生成式AI 應用的載體,透過更貼近用戶的方式,讓更多的人快速、方便地享受AI 新體驗。正如其白皮書封面所言,「讓AI 觸手可及」。高通,讓這一切不再遙遠。

結語

自ChatGPT 以來,生成式AI 已成為不可阻擋的發展趨勢。鑑於其將為我們的生活帶來極大的便利,加速普及生成式AI 勢在必行,好在高通已經打好了基礎。我們了解到,高通深耕AI 領域的時間已經超過了15 年,尤其在行動運算領域形成了深厚的技術領導。目前全世界有數十億台搭載驍龍和高通平台的智慧終端設備,使得終端側AI 試誤能力、生成式AI 應用潛力都達到了無與倫比的高度。

同時,透過讓終端側AI 賦能走得更遠,將生成式AI 擴展到更多領域與場景,既能帶給一般使用者更多樣化、更好玩、更便捷的AI 體驗,又可能為其智慧終端生態夥伴創造更多市場商機,真正釋放其價值。

對高通而言,終端側生成式AI 還有更為深遠的意義。在此次服貿會數位貿易發展趨勢與前沿高峰論壇上,高通公司中國區董事長孟樸發表了主題演講,其中強調與全球生態系統密切合作,共同探索由5G、AI、物聯網等技術帶來的全新行動應用與體驗。作為目前站在風口的生成式AI 技術,它的強弱、多寡、難易將很大程度決定這些能否順利實現。

生成式AI 在終端側的運作勢在必行,如高通這樣的生態與使用者賦能型企業也必將憑實力脫穎而出。

參考連結:

https://analyticsindiamag.com/openai-might-go-bankrupt-by-the-end-of-2024/ https://www.businessinsider.com/samsung-chatgpt-bard-data-leak-bans-employee- use-report-2023-5

資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載

Total
0
Shares
Related Posts