來源:阿法兔研究筆記
圖片來源:由無界AI生成
隨著人工智慧熱潮的發展,英特爾的老牌競爭對手,像英偉達(Nvidia)和Broadcom(博通公司:今年第二季度晶片營收超預期增長,下一財年,博通AI相關晶片業務預計將翻倍至70億美元,成為僅次於英偉達的全球第二大AI晶片公司)等公司都在這波人工智慧浪潮中大放異彩,但是,英特爾似乎並沒有跟上人工智慧的腳步。
早在2023年5月德國的超算會議上,,英特爾公司(INTC.O)就計劃於2025年推出的GPU晶片Falcon Shores的參數預告如下:高頻寬記憶體(HBM3)規格將達到288GB,支援8bit浮點運算,總頻寬可達9.8TB/秒。
除此之外,還有即將向美國阿貢國家實驗室交付完成的基於Ponte Vecchio的Aurora超級電腦。但是,由於晶片推出的速度,比如說Falcon Shores 後續晶片要到2025 年才能上市,和英偉達這種迅速推出產品的公司還是難以競爭。
2023年9月19日,英特爾在加州聖荷西的英特爾創新中心舉行的活動也著重展示了對AI的思考,特別是Pat Gelsinger在Intel Innovation首日的演講提出幾個觀點:
關於工藝技術進展:英特爾仍然按照其四年內五次工藝節點的計劃推進。該公司展示了首個使用通用晶片互連表達式(UCIe)互連的多晶片組盤點。
下一代英特爾至強Xeon 處理器:英特爾分享了即將推出的至強Xeon 處理器的詳細資訊。這些處理器將在功耗效率和性能方面有顯著改進。他們還推出了一款擁有288個核心的E-core處理器。第五代英特爾至強Xeon 處理器將於12月14日發表。
AI個人PC的推出:英特爾將於12月14日發表英特爾核心Ultra處理器,並推出AI個人電腦。這標誌著英特爾首次涉足整合神經處理單元(NPU),可在個人電腦上直接提供高效的AI加速。
AI超級電腦:英特爾正在建造一個大型AI超級計算機,基於英特爾至強Xeon 處理器和英特爾Gaudi2 AI硬體加速器。穩定性AI是主要客戶,而阿里巴巴也打算在其推斷引擎中使用第四代至強Xeon 處理器。
英特爾開發者雲端:英特爾宣布英特爾開發者雲端已正式推出。該平台旨在用於建立和測試高性能應用程序,包括人工智慧。已經有幾家客戶在使用它,並且此前曾處於測試階段。
軟體解決方案:英特爾展示了即將推出的軟體解決方案,包括英特爾OpenVINO工具包的2023.1版本。這將有助於開發人員利用新的人工智慧功能。
客戶端對AI的押注:新的核心Ultra處理器,代號“Meteor Lake”,是英特爾在客戶端推動AI的戰略舉措。正如Gelsinger所言,AI、雲端和個人電腦的結合將顯著改變和增強個人電腦體驗。
核心Ultra處理器特點:核心Ultra處理器配備了英特爾首個整合的NPU,用於高效的AI操作。這是英特爾首個由Foveros 3D封裝技術支援的客戶晶片設計。除了NPU外,該處理器還因採用英特爾4製程技術而在功耗效率方面取得了顯著進展。此外,它還提供了內建的英特爾Arc圖形,具有離散等級的圖形效能。
最新戰略
最近Information通報,英特爾有新的策略安排,正與多家顧問公司合作,為不具備專業知識的客戶打造類似ChatGPT 的應用程式。今年稍早與波士頓顧問公司(Boston Consulting Group)合作啟動了這個項目,後面還會和其他顧問公司逐步建立合作。
除此之外,英特爾也計畫直接向企業客戶銷售To B類目的應用程式。
不過,目前大多數人工智慧客戶會採購類OpenAI 等公司提供的大語言模型服務。但是,英特爾希望自己與大型顧問公司合作,根據客戶特定的需求,協助客戶找到適合它使用的模式。
具體來說,英特爾開發的軟體可以協助客戶進行模型調優。這樣一來,客戶就可以開發自己的類似ChatGPT 的應用程式和人工智慧驅動的搜尋工具。但目前Intel還沒有完全公佈這項服務的特點、優勢以及具體費用和價格,估計未來幾個月會正式公佈。
英特爾的各項行動充分證明目前人工智慧在科技企業中,作為策略佈局非常重要。而英特爾參與軟體開發,更意味著在這個時間點,客戶是否使用英特爾的晶片,並不是最重要的。消息還說,英特爾計劃引導一些客戶使用英特爾的Gaudi和Xeon晶片來驅動LLM。與此同時,英偉達也在努力建立一個重要的人工智慧軟體業務,儘管它的重點是已經使用其圖形處理器的客戶,這些圖形處理器在人工智慧運算中占主導地位。
不過,有一個趨勢對英特爾有利——降本增效對所有人都很重要:在許多公司迅速推出新產品來幫助員工或客戶總結會議內容、自動化軟體編碼或產生銷售線索的電子郵件後,美國使用這些工具的企業都希望降低LLM支出。
根據《The Information》報導,早期的大型OpenAI客戶正在尋找更便宜的替代方案,而微軟在某些情況下希望使用更簡單、更便宜的開源人工智慧模型,而不是OpenAI的模型,後者的運行成本更高。與其他對市場充滿信心的人工智慧提供者一樣,英特爾現在可以從不斷增長的大模型需求選擇中獲益。
然而,英特爾仍然必須與傳統的雲端服務供應商以及成熟的小型顧問公司競爭,這些公司幫助客戶使用雲端伺服器和人工智慧。像微軟、亞馬遜和谷歌這樣的雲端服務供應商希望透過租用專用伺服器來進行培訓和運行人工智慧LLM,從而吸收大部分與AI LLM相關的企業支出(特別是微軟在這方面取得了一些進展)。同時,英偉達試圖將自己置於這些雲端服務供應商和其客戶之間,利用其由晶片驅動的伺服器來運行自己的雲端服務。
雖然看起來有點晚,但英特爾的優勢在於——「大量資金和強大的行銷引擎」。
參考文獻:
https://www.theinformation.com/articles/ai-laggard-intel-expands-effort-to-help-companies-build-chatgpt-like-apps?rc=ypdxx3 Intel CEO: ‘We’re going to build AI into every platform we build’ – The VergeAI Laggard Intel Expands Effort to Help Companies Build ChatGPT-Like Apps — The Information
資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載