擺脫對英偉達的依賴,微軟即將推出自研AI晶片


根據外媒The Information報道,微軟計劃在下個月舉行的年度開發者大會上推出首款AI專用晶片。這不是微軟的一時興起,而是多年來努力的結果,將來會幫助微軟逐步減少對英偉達的依賴。近幾年,特別是最近大半年AIGC的浪潮興起,相關需求一路大幅上漲不見終點,英偉達的AI晶片一直供不應求,是各家AI相關高新科技企業都在爭奪的香餑餑。

微軟早在2019年左右就已開始相關研發工作了,有傳言說OpenAI已經秘密測試過。根據目前已有的資訊可知,這款晶片代號為「雅典娜」(Athena),與英偉達的GPU多有相似之處,是專為訓練和運行大模型的資料中心伺服器設計的,微軟在此晶片的研發投入已累計近20億美元。現在微軟的資料中心伺服器用的都是英偉達GPU,是英偉達為數眾多大客戶之一,為包括OpenAI和Intuit在內的雲端客戶,以及微軟生產力應用中的AI功能提供支援。自從和OpenAI合作以後,很快就有消息指出微軟曾一次性就訂購了至少幾十萬顆英偉達晶片,用於對GPT的訓練。

有消息指出微軟可能會在11月中旬時,於西雅圖舉行的微軟開發者大會上正式公佈此晶片。削減成本,減少依賴的同時,微軟也希望增加與英偉達談判的籌碼。一旦「雅典娜」能順利實現量產,微軟就可以快速趕上競爭對手亞馬遜和谷歌的腳步,向用戶提供更好的服務。現在「雅典娜」的性能細節尚未披露,但從微軟的角度來說肯定是希望它能與英偉達的H100相媲美,甚至超越。儘管現在有不少公司都在兜售自家卓越的硬體和成本效益,但得益於自家的CUDA平台,英偉達的GPU仍是全球廣大AI開發者的首選。

這麼看來,微軟「雅典娜」能成事的關鍵,就在於吸引用戶接受並使用它的新硬體和軟體。雖然微軟、Google等諸多雲服務供應商目前仍在購買英偉達的GPU,但從長遠來看,推出自研晶片再說服他們的雲端客戶採用,明顯比繼續用英偉達的GPU伺服器更有利,不論是在經濟性上還是在對未來的規劃上。隨著AI與AIGC工作量的大幅上漲,這種多樣化的方法提供了多種選擇,雲端運算的各家競爭對手也在採用類似的策略來避免供應商鎖定。

英偉達H100

之前曾多次說過,亞馬遜和谷歌都在逐步的將其AI晶片與雲端業務的多種活動策略性地整合到一起。例如亞馬遜向OpenAI的競爭對手Anthropic提供40億美元的資金支持,條件是Anthropic將使用亞馬遜的兩款AI晶片,分別名為Trainium和Interentia。幾乎同時的,Google雲端也宣布,AI影像開發商Midjourney和Character AI等客戶都在使用Google的張量處理單元,加速自己的機器學習進程。之前幾週,微軟也曾表示與AMD在即將推出的AI晶片MI300X上保持密切合作。

眼下隨著AIGC逐漸成為不可阻擋的勢頭,AI晶片也自然而然的成為資料中心的重要組成部分,引起各大科技企業的關注,而且英偉達等企業也用自己的實際表現證明了,該領域的投入產出比可能會異乎尋常的高。現在隨著亞馬遜、微軟等企業的逐一下場,這條賽道的競爭也愈發激烈,在加速發展的AI晶片領域爭奪市場份額。有了“雅典娜”,微軟可以為雲端客戶提供更多的選擇,同時在下一代AI基礎設施方面也可以逐漸擺脫英偉達的掣肘。

前幾天曾有消息爆料,表示OpenAI也在探索自研AI晶片,同時開始評估潛在收購目標,其招聘網站上最近也出現了AI硬體共同開發、評估相關職位的廣告。而前面提到過,目前的GPU市場是英偉達一家獨大,市佔率佔絕對優勢。而且GPU不僅貴還不好買,自研AI晶片也意味著能大幅降低算力成本。

值得說明的一點是,微軟和OpenAI的造芯是彼此獨立的,一旦二者都入局晶片市場,此後的地位也將發生微妙變化,因此也有人認為這可能會導致二者間更大的矛盾。雖然明面上看起來微軟與OpenAI可謂天作之合、親密無間,但實則完全是同床異夢。且不說New Bing和ChatGPT已經持續了半年多的用戶之爭,微軟曾經在夏天時為OpenAI的競爭對手Meta和LLaMA 2投入一筆重資,OpenAI的心裡會是什麼感受,多少留了根刺吧?

不過這些衝突現在可能都不重要了,微軟和OpenAI至少目前在一件事上達成了一致:不能再讓老黃這麼肆無忌憚的大賺特賺了,正如老話所說,看著好兄弟賺錢,比數自己賠錢還難受。

資訊來源:由0x資訊編譯自8BTC。版權所有,未經許可,不得轉載

Total
0
Shares
Related Posts