把大模型裝進手機,分幾步?


原文來源:光錐智能

圖片來源:由無界AI‌ 生成

大模型“跑”進手機,AI的戰火已經從“雲端”燒至“移動終端”。

“進入AI時代,華為盤古大模型將會來助力鴻蒙生態。”8月4日,華為常務董事、終端BG CEO、智能汽車解決方案BU CEO 余承東介紹,通過盤古大模型的底層技術,Harmony OS帶來了下一代智能終端操作系統。

在手機上使用大模型早已不是新鮮事,此前ChatGPT、文心一言、妙鴨等APP、小程序都是通過調用雲端算力,滿足手機終端AI應用的需求。

下一步,則是讓大模型直接運行在手機上。

從今年四、五月開始,美國科技三巨頭——高通、微軟、英偉達,最受矚目的AI新星OpenAI,以及國內AI“頭部戰隊”的騰訊、百度等,都已經紛紛加速推進在移動終端的輕量化部署AI大模型。高通甚至宣布,正在逐漸轉型成一家智能邊緣計算(在移動終端等數據源頭提供計算服務)的公司。

巨頭的群力強推下,大模型從雲到端邁進的產業趨勢已經十分明確。

大模型為什麼要“跑”在手機上?

大模型的最大特點就是“大”,動輒百億千億甚至萬億參數,且為了更好運行大模型,算力集群都已經升級到“萬卡”級別。如今,為什麼又非要把大模型“塞”進巴掌大的小手機?

大模型確實會給手機用戶帶來一些體驗上的提升。例如,華為終端智能助手小藝不僅可以根據語音提示推薦餐廳,還可以進行摘要總結、信息檢索、多語種翻譯等信息處理,數千字的英文長文,具備大模型能力的手機智能助手就可以生成摘要,還可以翻譯成中文。尤其後一點,在信息爆炸時代,對於提高學習工作效率還是很有價值的。

華為終端BG AI與智能全場景業務部總裁賈永利解釋,一方面,大語言模型具備泛化能力,能夠幫助手機智能助手提升理解能力。另一方面,大模型Plug-in的插件能力,可以在手機內部打通各應用之間的壁壘,借助工具拓展能力。

此外,ChatGPT等AIGC應用一直以來都伴隨著強烈的隱私安全爭議,但如果完全在端側運行,就能夠完全避免這一問題。因為大模型在端側運行,數據也不會離開端側。而且,這樣響應的速度還會更快。

另一邊,大模型對於到手機等移動終端的需求也已經非常迫切。

大模型的洶湧之勢讓雲端越來越無法獨自承載算力的需求。高通高級副總裁Alex Katouzian近期就直言,“隨著連接設備和數據流量加速增長,疊加數據中心成本攀升,(我們)不可能將所有內容都發送到雲端。”

不算數據傳輸要消耗網絡帶寬、存儲,以及硬件等大量資源,光是雲端算力現在已經讓相關廠商有些吃不消。 ChatGPT僅在推理階段,保守估計每個月算力成本在1000萬美元左右。

最大的問題還不是“貴”,而是“缺”。

此前,就連OpenAI創始人Sam Altaman都自曝GPU很缺,甚至直言不希望太多人用ChatGPT。近期,也有業內人士推測,小型和大型雲提供商的大規模H100集群容量即將耗盡,H100的需求趨勢至少會持續到2024年底。當前英偉達H100的產能還嚴重受制於供應鏈。

所以,雲端和終端形成配合,手機等終端閒置算力資源被利用起來,解決“中心化”算力與“分佈式”需求的錯配,已經成為大模型發展“降本增效”的確定趨勢。更重要的是,相比數量有限的中心節點,眾多的移動終端堪稱觸及萬千場景的“毛細血管”,也就決定了這一入口會是大模型加速應用滲透的關鍵。

如何把大模型“裝進口袋”?

“相比傳統的PC或者服務器,移動終端最大的挑戰就是如何平衡好體驗和能耗,這是鴻蒙內核設計最重要的核心點之一。”華為終端業務軟件部總裁龔體強調。

大模型需要大量的計算資源和存儲資源,尤其是基於現有的手機硬件配置,這就需要軟件系統做好協調,提升效率降低能耗。

現在手機為了提高性能,至少是8個芯片內核,就需要手機系統做協同,這個過程就會消耗大量算力。如果採用異構資源調度,就可以高效協調CPU、GPU、NPU。龔體表示,這樣調度效率可以提升60%以上。

手機系統能夠進行運算,調度的最小單位叫做線程,傳統的操作系統中往往上萬線程同時運行,其中就會存在大量無效線程。針對這點,就可以通過更輕量的並發模型來處理並發操作,降低無效線程切換對算力的消耗。據龔體說,並發模型可以讓任務切換開銷節省50%。

另外,在操作系統的任務調度方面,這也是影響流暢體驗的最基本要素,相比公平調度,動態優先級調度會很大程度降低能耗。動態優先級調度就類似於一個智能交通系統,可以根據道路狀況和交通流量,動態調整交通信號燈亮起狀態,如當某個方向的車流增加時,該方向的信號燈就提前變綠,就會減少擁堵和延遲。

不過,要想讓大模型部署到手機上,還能運轉起來,光是手機操作系統升級改進還遠遠不夠。

隨著大模型預測越來越準確,網絡越來越深,神經網絡消耗的內存容量已成為核心問題。同時,還涉及內存帶寬的問題,網路運行時,內存、CPU和電池都會飛速消耗,這絕對是現在的手機難以承受之重。

因此,在部署到手機之前,就必須對大模型進行壓縮,以降低對推理算力的需求。但是,一定要確保原有性能和精度基本不變。

量化就是一種常見且重要的壓縮操作,可以減少模型占用的內存空間,提高推理性能。本質上就是將浮點運算模型轉化為整數運算模型,因為整數運算比浮點運算精度更高,運算速度也更快。

當前,量化技術也已經在加速突破。服務器上訓練的模型一般採用32位浮點運算(FP32),在手機端,高通已經將FP32模型量化壓縮到INT4模型,實現64內存和計算能效提升。高通的實現數據表明,在藉助高通的量化感知訓練後,不少AIGC模型可以量化至INT4模型,與INT8相比,性能提升約90%,能效提升大約60%。

大模型壓縮技術,無疑是AI巨頭制勝移動終端戰場的關鍵因素。這也在一定程度上,解釋了英偉達在今年2月為什麼“悄悄”收購了掌握壓縮大模型技術的人工智能初創公司OmniML。

大模型倒逼終端硬件升級

“本年度我們將能夠支持參數達100億的生成式AI模型在手機上運行。”高通產品管理高級副總裁兼AI負責人Ziad Asghar近期則對外表示,100億-150億參數的模型可以覆蓋絕大多數AIGC用例。如果終端已經可以支持這一參數級別,運算可全部在終端上進行,手機會成為真正的個人助理。

但是,當前新一代旗艦版手機芯片也就可以承載運行10億參數級大模型,高通在今年6月計算機視覺學術頂會CVPR 上,成功演示的跑在安卓系統上的大模型,也不過15億參數。

參數躍升幾乎十倍,奔赴移動終端的大模型已踩下“油門”,那手機也就不得不加速升級才能應對。

手機硬件亟需在AI加速器和內存進行革新。

首先,更大參數的大模型,需要更大的內存和存儲空間來存儲模型參數和中間結果。這就要求移動終端內存芯片容量,以及內存接口帶寬都進行升級。

其次,更大的參數勢必需要更強大的計算和推理能力,處理輸入數據和輸出結果。

雖然,目前手機芯片上的AI加速器(例如各種NPU IP)幾乎已經是標配,但設計基本上是針對上一代成交量積神經網絡設計,並不完全針對大模型。

為了適配大模型,AI加速器必須能有更大的內存訪問帶寬,並減少內存訪問延遲。這就需要AI加速器的接口上做出一些改變(例如分配更多的pin給內存接口),同時也需要片上數據互聯做出相應的改變,來滿足AI加速器訪存的需求。

高通能喊出“年內100億參數跑手機”的重要原因之一,就是其手握搭載了高通史上最快速、最先進的AI引擎的第二代驍龍8處理器,相比第一代驍龍8處理器,AI性能提升了4.35倍,能效提升60%。

當然,超大規模參數大模型的訓練和推理,即便在雲端也亟待突破五堵牆:內存牆+算力牆+通信牆+調優牆+部署牆,手機更得一層一層去突破。

不過,從“智能”到“人工智能”,對於手機來說,機遇大於挑戰。

“創新周期對電子消費品的影響更為重要,甚至可以帶領一個產業走出經濟周期的影響。”榮耀終端CEO趙明判斷,當前智能手機行業就處在一個AI、5G+開啟的新一輪創新周期中。

資訊來源:由0x資訊編譯自8BTC。版權歸作者所有,未經許可,不得轉載

Total
0
Shares
Related Posts