“為了食物而奔跑,或者為了不被他人當(dāng)食物而奔跑。無論哪一種情況,都要保持奔跑。”
這是英偉達(dá)CEO黃仁勛今年在臺灣大學(xué)演講中對畢業(yè)生的寄語,當(dāng)然它也是黃仁勛一手締造的這家萬億市值帝國的心態(tài)詮釋。
2023年,奔跑中的英偉達(dá)遇到了生成式AI,黃仁勛多次稱之為“AI的iPhone時刻”。在這一時刻,黃仁勛把目光瞄向了一個成為獵手而非獵物的機(jī)會——云。
英偉達(dá)貌似不應(yīng)該有做云的動力,不僅因為云服務(wù)商都是英偉達(dá)的重要客戶,每年向英偉達(dá)采購數(shù)十億美元的GPU,更因為這件事看上去毫無勝算。
今天的云計算市場被亞馬遜AWS、微軟Azure、谷歌云三大云巨頭牢牢把控。根據(jù)Statista數(shù)據(jù),2022年AWS的市場份額為32%,Azure為23%,谷歌云為10%,三家合計市場份額達(dá)到了65%。
我們并非沒有看到挑戰(zhàn)者。過去十年,VMware、戴爾、惠普等知名企業(yè)都想在云計算的市場分一杯羹,但無一例外都失敗了。
然而,正如每一次技術(shù)革命都會產(chǎn)生新的弄潮兒,這一次生成式AI的浪潮,芯片廠商英偉達(dá)開始向云計算市場一步一步試探:
*步,在今年3月21日的GTC大會上,英偉達(dá)發(fā)布了DGX Cloud。從名字就可以看出,這是一款云產(chǎn)品,客戶可以通過按月租用的方式,直接在云端或者本地數(shù)據(jù)中心獲取英偉達(dá)的AI產(chǎn)品與服務(wù);
第二步,投資三大云巨頭的競爭對手。英偉達(dá)今年先后投資了CoreWeave、Lambda Labs兩家美國的中小云服務(wù)商,并且向其傾斜分配稀缺的GPU芯片。這種“偏愛”有多夸張?在GPU一芯難求的當(dāng)下,CoreWeave卻能通過抵押其囤積的充沛的GPU——尤其是H100,而獲得了23億美元的債務(wù)融資。
盡管才剛剛開始,但布局云業(yè)務(wù)代表了英偉達(dá)對于云巨頭的反擊。
眾所周知,谷歌、亞馬遜、微軟先后在內(nèi)部啟動自研AI芯片項目——谷歌的TPU系列,亞馬遜的Inferentia和Trainium系列,以及微軟今年被曝光的Athena芯片。三大云巨頭都有充分的資源與動力自研AI芯片,來削減英偉達(dá)的“GPU稅”。
英偉達(dá)對此心知肚明。黃仁勛在上一季度財報的電話會上直言“我們一直在關(guān)注競爭,而我們一直都有競爭”。
黃仁勛并不能阻止三大云服務(wù)商的擴(kuò)張行為,但或許*的防守就是進(jìn)攻,英偉達(dá)的反擊方式是直接下場做云。
憑借手上的A100、H100兩張王牌——在很長的一段時間內(nèi),這兩款芯片都是大模型訓(xùn)練與推理的*選擇且沒有之一,英偉達(dá)有機(jī)會成為云計算市場真正意義上的幕后操盤手。
一場圍繞著芯片與云計算的明爭與暗斗,正在這四家全球市值前五名的科技巨頭中緩緩展開。
1.差點(diǎn)倒在黎明之前
熟悉英偉達(dá)的人會知道,今天的英偉達(dá)有多風(fēng)光,去年的英偉達(dá)就有多慘烈。
英偉達(dá)的核心業(yè)務(wù)包括數(shù)據(jù)中心、游戲、專業(yè)可視化以及汽車四大板塊。2020年第二季度,英偉達(dá)數(shù)據(jù)中心業(yè)務(wù)首次超過游戲,成為英偉達(dá)的*大收入來源。
在2022Q4財報會(對應(yīng)自然年2021年11月~2022年1月)上,英偉達(dá)交出了強(qiáng)勁的第四季度財報,數(shù)據(jù)中心業(yè)務(wù)同比增長71%。當(dāng)時的黃仁勛樂觀地表示:“英偉達(dá)運(yùn)算平臺迎來超乎尋常的市場需求。”然而一周之后,俄烏沖突爆發(fā),干擾了關(guān)鍵原物料供應(yīng)鏈。加上疫情影響,整個2022年,英偉達(dá)數(shù)據(jù)中心業(yè)務(wù)增速不斷放緩。
今年2月發(fā)布的2023Q4財報業(yè)績,英偉達(dá)數(shù)據(jù)中心增速僅11%,創(chuàng)下了歷史新低,也是自2020年以來首次環(huán)比下滑。
2022年,英偉達(dá)的股價也慘遭腰斬。當(dāng)然,今天它已經(jīng)漲回來了,ChatGPT的橫空出世拯救了英偉達(dá)。
注:英偉達(dá)即將在本周三(8月23日)發(fā)布2024Q2財報,對應(yīng)2023年5月-7月。
在導(dǎo)致業(yè)務(wù)增速下滑的眾多原因中,大客戶需求的縮減最值得警惕。在2023Q4財報會上,英偉達(dá)CFO Colette Kress公布了一個數(shù)字:2023財年數(shù)據(jù)中心部門的150億美元收入中,有大約40%的收入(約60億美元)來自超大規(guī)模數(shù)據(jù)中心和云服務(wù)商。
但如果只看第四季度,這一比例僅占四分之一。超大規(guī)模數(shù)據(jù)中心建設(shè)者與云服務(wù)商正在大量減少GPU的支出。
除了客觀的需求下滑,三大云巨頭不斷推進(jìn)的自研AI芯片計劃,正一點(diǎn)一點(diǎn)蠶食英偉達(dá)GPU的市場份額。
谷歌在2016年推出了*代自研AI芯片TPU,五年之后的2021年5月19日又推出了第四代TPU v4。在今年發(fā)表的一份研究報告中,谷歌稱已將4000個TPU v4串聯(lián)在一起,構(gòu)建了一臺超級計算機(jī),這臺超級計算機(jī)的運(yùn)行速度要比采用英偉達(dá)A100 GPU的同等機(jī)器快1.7倍,效率高出1.9倍。
亞馬遜也有自研芯片的傳統(tǒng),這不僅是針對英偉達(dá),而是針對所有芯片廠商。目前,亞馬遜已經(jīng)推出了四個系列的自研芯片——網(wǎng)絡(luò)芯片Nitro系列,服務(wù)器芯片Graviton系列,AI推理芯片Inferentia系列、AI訓(xùn)練芯片Trainium。其中,后兩款A(yù)I芯片與英偉達(dá)GPU存在競爭關(guān)系。
盡管入局較晚,但微軟“雖遲但到”。今年4月18日,據(jù)The Information報道,自從2019年以來,微軟一直在秘密研發(fā)AI芯片,內(nèi)部代號為“雅典娜”(Athena),有數(shù)百名員工正在從事Athena項目,微軟已投入了約20億美元。微軟與OpenAI的一些員工,已經(jīng)可以拿到芯片來測試在GPT-4等最新大語言模型上的表現(xiàn)。
云服務(wù)商每年因采購GPU要交大量的“英偉達(dá)稅”,尤其是在生成式AI爆發(fā)之后。
今年2月,New Street Research曾做過一次預(yù)估:基于ChatGPT的Bing搜索引擎,要想在一秒鐘之內(nèi)響應(yīng)用戶的提問,需要8個GPU。按照這一速度,微軟需要超過2萬臺包含8個GPU的服務(wù)器才能將Bing中的模型部署給每一名用戶,而這將花費(fèi)微軟40億美元。如果是谷歌這樣的規(guī)模,每天處理80~90億次查詢,則需要花費(fèi)800億美元。
云服務(wù)商自研AI芯片并不會對外銷售,并不會與英偉達(dá)產(chǎn)生直接的競爭。但是,通過將自研芯片替代GPU部署到數(shù)據(jù)中心里,可以有效削減成本。比如,谷歌已在其云服務(wù)中部署了數(shù)百臺TPU v4超級計算機(jī)。
三大云服務(wù)商都有充分的資源與動力去自研芯片,這被看做是英偉達(dá)帝國的一條裂縫。英偉達(dá)對此心知肚明,但似乎沒有更好的辦法。
直到ChatGPT的出現(xiàn),被云服務(wù)商步步緊逼的英偉達(dá)看到了反擊的突破點(diǎn)。既然云服務(wù)商可以做芯片,那英偉達(dá)難道不能在AI時代做云嗎?
2.英偉達(dá)做云有機(jī)會嗎?
英偉達(dá)目前是生成式AI革命的*受益者,黃仁勛今年也總是把“AI的iPhone時刻”掛在嘴邊。生成式AI爆發(fā)的需求,讓GPU成為了硬通貨,有人干脆稱“GPU就是新的美元”。
從GPU到云,英偉達(dá)真的有機(jī)會嗎?
生成式AI的訓(xùn)練與推理主要是在云端進(jìn)行,提供AI基礎(chǔ)設(shè)施的云服務(wù)商將是生成式AI浪潮的*受益方之一。根據(jù)硅谷風(fēng)投機(jī)構(gòu)A16Z估算的數(shù)據(jù),生成式AI所產(chǎn)生總收入的10%~20%最終流向了云服務(wù)商。
但是,這個過程不會很快。亞馬遜CEO安迪·賈西在2023年Q2財報電話會上稱:“生成式AI無疑將改變幾乎所有客戶的體驗。但現(xiàn)在還為時尚早,大多數(shù)公司仍在考慮如何實現(xiàn)這一目標(biāo)。我們處于一個非常早期的階段,這是一場馬拉松。”
云服務(wù)的本質(zhì)是將數(shù)據(jù)中心內(nèi)的硬件資源虛擬化,然后租給市場。傳統(tǒng)數(shù)據(jù)中心的服務(wù)器幾乎100%是基于英特爾、AMD的CPU而建設(shè),CPU像是一名“擁有最強(qiáng)大腦的通才”,它向外提供“通用計算”能力——處理操作系統(tǒng)、系統(tǒng)軟件與應(yīng)用程序這一類擁有復(fù)雜指令調(diào)度、循環(huán)、分支、邏輯判斷與執(zhí)行等程序任務(wù)。
但CPU并不擅長大規(guī)模的數(shù)據(jù)處理與并行計算,而這正是人工智能所需要、英偉達(dá)GPU所擅長的。GPU像是一名“暴力計算的專才”,專門對付圖像處理、深度學(xué)習(xí)以及當(dāng)下的大模型訓(xùn)練、推理等任務(wù)。黃仁勛將這種大規(guī)模并行計算能力稱為“加速計算”。
2012年,深度學(xué)習(xí)之父杰夫·辛頓及其徒弟首次嘗試在英偉達(dá)GPU上訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型AlexNet,并在圖像識別大賽中一舉奪冠。這件事催生了接下來十年的深度學(xué)習(xí)大爆發(fā),整個人工智能行業(yè)包括英偉達(dá)自己,都意識到了GPU做加速計算的潛力。
英偉達(dá)命運(yùn)的齒輪開始轉(zhuǎn)動。此后,黃仁勛在很多場合吶喊“摩爾定律已死”。他認(rèn)為,CPU擴(kuò)張的時代已經(jīng)結(jié)束,每五年以同樣成本獲得十倍性能的提升也已經(jīng)結(jié)束。取而代之的將是GPU,黃仁勛專門發(fā)明了一個“黃氏定律”——GPU將推動AI性能實現(xiàn)逐年翻倍。
2012年~2022年的十年間,我們可以稱之為加速計算的從0到1,人工智能在圖像識別等特定行業(yè)、特定場景落地。但是,這一時期AI需求還是不夠大,研究機(jī)構(gòu)Aletheia預(yù)測,當(dāng)前AI服務(wù)器的市場滲透率還不足5%。這對于實現(xiàn)黃仁勛加速計算的夢想還遠(yuǎn)遠(yuǎn)不夠。
直到2022年11月ChatGPT誕生,“AI的iPhone時刻”出現(xiàn)了。這可以看做加速計算從1到10規(guī);鲩L的開始。
生成式AI收入(圖片來自彭博社)
黃仁勛認(rèn)為,加速計算與生成式AI兩大發(fā)展趨勢相結(jié)合,將改變過去60年來的計算方式。隨著公司競相將生成式AI應(yīng)用到每個產(chǎn)品、服務(wù)和業(yè)務(wù)流程中,價值萬億美元的全球數(shù)據(jù)中心基礎(chǔ)設(shè)施將從通用計算過渡到加速計算,由此引發(fā)的數(shù)據(jù)中心重塑必將創(chuàng)造出巨大的市場機(jī)遇。
上一季度的財報電話會中,黃仁勛信誓旦旦地表示:“我們正處于一個為期十年的數(shù)據(jù)中心智能化的*年。”
黃仁勛表示,加速計算是一個全棧挑戰(zhàn),它必須把所有的軟件、所有的框架庫、所有的算法集成在一起進(jìn)行工程化,這些工作不僅僅是針對一顆芯片,而是針對整個數(shù)據(jù)中心。數(shù)據(jù)中心就是一臺超級計算機(jī),要獲得*性能,需要對網(wǎng)絡(luò)操作系統(tǒng)、分布式計算引擎、網(wǎng)絡(luò)設(shè)備、交換機(jī)、計算架構(gòu)等全棧內(nèi)容進(jìn)行優(yōu)化。
比如,通用計算數(shù)據(jù)中心主要使用以太網(wǎng)將所有服務(wù)器進(jìn)行連接,不需要大規(guī)模的數(shù)據(jù)傳輸;英偉達(dá)提出的加速計算數(shù)據(jù)中心使用名為Infinite Band的技術(shù)進(jìn)行連接,具有極高的數(shù)據(jù)吞吐量。
系統(tǒng)性的優(yōu)化也讓加速計算數(shù)據(jù)中心比傳統(tǒng)數(shù)據(jù)中心有更高的效率、更低的成本。
黃仁勛在今年8月舉辦的計算機(jī)圖形年會SIGGRAPH上拋出了一個問題:“花1億美元能買什么?”黃仁勛自問自答:“過去,1億美元能買8800塊x86 CPU組成的數(shù)據(jù)中心,功耗是5MW;今天,1億美元能買2500塊GH200組成的Iso-Budget數(shù)據(jù)中心,功耗是3MW,AI推理性能達(dá)到上述CPU數(shù)據(jù)中心的12倍,能效達(dá)20倍。”
在相同的AI推理性能下,GPU數(shù)據(jù)中心的成本只有CPU數(shù)據(jù)中心的1/12。“買得越多,省得越多。”這是黃仁勛對其加速計算數(shù)據(jù)中心的帶貨宣言。
迄今為止,英偉達(dá)已經(jīng)建設(shè)了5座數(shù)據(jù)中心,并幫助世界各地的客戶建立自己的數(shù)據(jù)中心。而且,傳統(tǒng)的數(shù)據(jù)中心從交付到運(yùn)行可能還需要數(shù)月甚至一年之久,而在英偉達(dá)。這一時間以周為單位。“團(tuán)隊在這方面的專業(yè)知識非常了不起。”黃仁勛表示。
對于三大云巨頭而言,從通用計算數(shù)據(jù)中心到加速計算數(shù)據(jù)中心的過渡不會很快。這不僅關(guān)乎技術(shù)與能力,也關(guān)乎這類巨頭公司的決策與流程,俗話說“船大難掉頭”。
這就給了英偉達(dá)做云的機(jī)會。從數(shù)據(jù)中心向前一步邁向云只是一件水到渠成的事,而且,英偉達(dá)已經(jīng)在嘗試這么做了。
3.暗度陳倉
就在數(shù)據(jù)中心業(yè)務(wù)增速*的2023年Q4財報上,英偉達(dá)同時還預(yù)告了一款新產(chǎn)品——DGX Cloud。在一個月之后的GTC大會上,DGX Cloud正式發(fā)布。
從名字就可以看出,這是一款云服務(wù)產(chǎn)品。難道英偉達(dá)要進(jìn)軍云計算市場了?
先來看下DGX是什么。DGX是英偉達(dá)在2017年首次發(fā)布的超級計算機(jī),黃仁勛稱之為“裝進(jìn)機(jī)箱里的數(shù)據(jù)中心”。
*代DGX內(nèi)部集成了8塊GPU(Tesla P100)與4塊固態(tài)硬盤,并使用了英偉達(dá)NVlink連接技術(shù)。在深度學(xué)習(xí)訓(xùn)練上,單臺DGX的性能相當(dāng)于250臺普通x86服務(wù)器。當(dāng)然,它也很貴,單臺售價12.9萬美元。
會后,黃仁勛將*臺DGX-1贈送給了埃隆·馬斯克。馬斯克是OpenAI的聯(lián)合創(chuàng)始人,OpenAI就是從這臺超級計算機(jī)開始,一步一步打造了今天的ChatGPT。
今天,DGX超級計算機(jī)已經(jīng)發(fā)展到第五代,前四代分別為DGX P100、DGX A100、DGX H100,以及最新的DGX GH200。
英偉達(dá)發(fā)布的DGX Cloud,就是此前發(fā)布的超級計算機(jī)的云版本,一個DGX Cloud實例(云服務(wù)器中的虛擬計算機(jī))配置了8張A100或H100。
然而,DGX Cloud的售價并不便宜,每個月36999美元,大約26.4萬人民幣。作為對比,含有8顆A100的微軟Azure ND96asr實例與其同等規(guī)格,每個月費(fèi)用為19854美元,只有DGX Cloud的一半。
為什么英偉達(dá)敢定如此高的價格?答案在于DGX Cloud是一款集成了軟件與硬件的交鑰匙解決方案。英偉達(dá)現(xiàn)在已經(jīng)不再標(biāo)榜自己是一家GPU芯片公司,而是定位一家計算平臺公司。
DGX Cloud除了硬件資源,還推出了兩個配套軟件平臺,一是NVIDIA AI Foundations,幫助企業(yè)創(chuàng)建定制模型,包括語言、視覺與生物醫(yī)藥模型等;二是NVIDIA AI Enterprise,它包含了4000個不同的AI框架,幫助企業(yè)開箱即用。英偉達(dá)的AI產(chǎn)品與國內(nèi)阿里云等云服務(wù)商推出的MaaS類似。
黃仁勛對這些新的軟件收入來源非常樂觀,并預(yù)計生成式AI領(lǐng)域的收入將從公司總收入的“個位數(shù)”部分增長到未來一年內(nèi)“相當(dāng)大”的一部分。“我們對新商業(yè)模式的拓展感到興奮。”黃仁勛表示。
DGX Cloud的推出客觀上與云服務(wù)商形成了一定的競爭關(guān)系,但英偉達(dá)仍想繼續(xù)與云服務(wù)商保持緊密合作。英偉達(dá)當(dāng)前并不會從零開始構(gòu)建完整的云基礎(chǔ)設(shè)施,而是把DGX Cloud托管在各家云服務(wù)商的云平臺上。
英偉達(dá)將基礎(chǔ)硬件設(shè)施出售給云廠商,再向他們購買云計算資源,最后把云服務(wù)出售給企業(yè)客戶并自留全部收入?蛻魞H通過瀏覽器,就可以訪問英偉達(dá)的AI超級計算機(jī),來使用英偉達(dá)的AI產(chǎn)品與AI模型服務(wù)。
但是,云服務(wù)商會買賬嗎?
對此,黃仁勛是這樣解釋的:“英偉達(dá)云服務(wù)與云服務(wù)商的合作將是一次雙贏,雙方將共同創(chuàng)建新的應(yīng)用程序并開發(fā)新的市場。”黃仁勛表示,理想情況下,客戶采購英偉達(dá)DGX Cloud與云服務(wù)商的云的比例為1:9。
Oracle是*家宣布與英偉達(dá)合作的云服務(wù)商。這家軟件巨頭近幾年正急迫地進(jìn)行云轉(zhuǎn)型,因此有充分的動力與英偉達(dá)組成同盟,以期在云計算市場打一張翻身仗。英偉達(dá)也正在與微軟Azure、谷歌云和其他云平臺合作,預(yù)計也將很快推出。
英偉達(dá)的如意算盤打得響亮,但并不是所有的云服務(wù)商都會接受英偉達(dá)的要求。AWS就拒絕與英偉達(dá)就DGX Cloud產(chǎn)品進(jìn)行合作。
據(jù)路透社報道,亞馬遜彈性云計算副總裁Dave Brown表示:“英偉達(dá)聯(lián)系了我們,我們研究了商業(yè)模式。但對于AWS來說,這沒有多大的意義。”他認(rèn)為,AWS在構(gòu)建可靠服務(wù)器方面擁有長期經(jīng)驗,并且擁有現(xiàn)有的供應(yīng)鏈專業(yè)知識。
AWS在今年3月份開始購買英偉達(dá)的H100芯片,但僅作為其自研系統(tǒng)的一部分。AWS還在考慮使用AMD最新的人工智能芯片MI300,但尚未做出最終決定。
面對一個新興的生成式AI市場,英偉達(dá)與云服務(wù)商的利益分配,還將會持續(xù)地變化。但相當(dāng)明確的是,英偉達(dá)已經(jīng)動了云服務(wù)商的奶酪。
4.釜底抽薪
推出DGX Cloud僅僅是*步,英偉達(dá)對云計算市場的參與度還在進(jìn)一步加深。這一步,英偉達(dá)沒有選擇親自下場,而是選擇扶持三大云巨頭的競爭對手。
今年,一家名為CoreWeave的中小云廠商異軍突起,成為了比三大云巨頭更炙手可熱的云服務(wù)商。CoreWeave稱自己是全球范圍內(nèi)*一家可以“大規(guī)模提供英偉達(dá)H100”的云服務(wù)商。
據(jù)GPU Utils網(wǎng)站預(yù)估,CoreWeave向英偉達(dá)預(yù)定的的H100數(shù)量約為35000-40000張。對比來看,谷歌在今年5月發(fā)布的超級計算機(jī)A3擁有大約26000個H100,亞馬遜AWS在7月上線的EC2 P5 虛擬機(jī)實例基于20000塊H100構(gòu)建,微軟在8月上線的Azure ND H100v5虛擬機(jī),僅僅包含8塊H100。不過,微軟擁有大約28.5萬塊A100。
CoreWeave到底是什么來歷?這家成立于2017年的公司,最初主要經(jīng)營以太坊加密貨幣挖礦業(yè)務(wù),在2018年干到了北美*的以太坊礦工。當(dāng)時的CoreWeave部署了超過50000個GPU,提供了以太坊網(wǎng)絡(luò)1%以上的算力。
在挖礦之外,CoreWeave也開始嘗試服務(wù)一些企業(yè)客戶,比如人工智能、娛樂媒體與計算化學(xué)。2019年,CoreWeave從消費(fèi)級GPU全面轉(zhuǎn)向英偉達(dá)的企業(yè)級GPU,因為企業(yè)級GPU可以全天候運(yùn)行,讓GPU的利用率提高到近乎100%。
2021年,CoreWeave正式上線了基于英偉達(dá)的GPU云平臺。2022年第三季度,隨著以太坊的合并,大規(guī)模顯卡挖礦時代結(jié)束,CoreWeave徹底轉(zhuǎn)型成為一家云服務(wù)提供商,并在這一年11月宣布成為首批提供采用NVIDIA HGX H100超級芯片的云服務(wù)商之一。
與亞馬遜、微軟、谷歌這三大巨頭相比,CoreWeave并不打算自研AI芯片,這得到了英偉達(dá)極大的賞識。
2023年4月,英偉達(dá)深化了與CoreWeave的合作,在業(yè)務(wù)合作之上又跟投了CoreWeave的2.21億美元B1輪融資。最重要的是,英偉達(dá)向CoreWeave提供了稀缺的A100、H100的獨(dú)特渠道。
在近期彭博社的采訪中,CoreWeave聯(lián)合創(chuàng)始人&首席戰(zhàn)略官Brannin McBee表示,英偉達(dá)今年的芯片已經(jīng)賣光了,CoreWeave的訂單也排到明年Q2季度了。
CoreWeave可能囤積了世界上最多的英偉達(dá)GPU。在當(dāng)下GPU短缺的背景下,芯片甚至比股權(quán)更值錢,CoreWeave開創(chuàng)了一種創(chuàng)新性的融資方式。今年8月,CoreWeave將手上的GPU芯片做抵押,以此獲得了23億美元的債務(wù)融資。此前,CoreWeave的B1輪股權(quán)融資僅獲得4.21億美元。
憑借與英偉達(dá)組建的“云+GPU”戰(zhàn)略聯(lián)盟,CoreWeave的業(yè)績也一飛沖天。
在今年之前,CoreWeave還只是一家名不見經(jīng)傳的公司。但現(xiàn)在,CoreWeave準(zhǔn)備通過其GPU從中賺取數(shù)十億美元的收入。在接受VentureBeat采訪時,CoreWeave聯(lián)合創(chuàng)始人兼首席戰(zhàn)略官Brannin McBee透露,2022年CoreWeave的收入為3000萬美元,今年將達(dá)到5億美元,明年已經(jīng)簽訂了近20億美元的合同。
CoreWeave還宣布在德克薩斯州建立一個耗資16億美元的新數(shù)據(jù)中心,并在年底之前將數(shù)據(jù)中心擴(kuò)展到14座。目前,AI明星獨(dú)角獸Inflection正在使用CoreWeave的云來構(gòu)建大約22000塊H100的GPU集群,這家公司在今年7月宣布了新一輪13億美元的融資。值得一提的是,Inflection的投資人中也有英偉達(dá)的身影。
CoreWeave是英偉達(dá)今年投資的*家云計算公司,但不是*的一家。
據(jù)The Information報道,英偉達(dá)即將與另一家云服務(wù)商Lambda Labs達(dá)成投資協(xié)議,英偉達(dá)可能投資3億美元,Lambda Labs的估值將突破10億美元。Lambda Labs稱能提供全世界價格*的NVIDIA A100、H100算力資源。
而當(dāng)前,憑借對GPU資源的“合理”分配,英偉達(dá)成為了實際意義上云計算市場的操盤手,從根源上拿捏了云巨頭的把柄——微軟就是一個很好的案例。
微軟在最近一次財報中添加了一條新的風(fēng)險因素:“如果無法為其數(shù)據(jù)中心獲得足夠的人工智能芯片,服務(wù)可能會中斷。”
面對龐大的AI計算需求,微軟的GPU負(fù)載供不應(yīng)求,甚至不得不向自己的競爭對手中小云廠商求助。據(jù)CNBC報道,微軟“已同意在未來幾年內(nèi)斥資數(shù)十億美元購買初創(chuàng)公司CoreWeave的云計算基礎(chǔ)設(shè)施”。在英偉達(dá)的操控下,微軟不得不允許CoreWeave這樣的中小云服務(wù)商從GPU中賺一層差價。
通過投資入股中小云服務(wù)商,英偉達(dá)的半只腳已經(jīng)涉足云計算領(lǐng)域。雖然還沒有嘗試直接下場構(gòu)建云基礎(chǔ)設(shè)施與云巨頭展開全面的、直接的競爭,但如果將來英偉達(dá)直接通過收購中小云服務(wù)商等方式入場,我們也不會感到驚訝。
無論英偉達(dá)最終是否會躬身入局,它都成了生成式AI浪潮中云計算市場*的幕后玩家。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。