隨著ChatGPT、GPT-4、BARD等生成式AI大模型的爆火,云服務(wù)商圍繞生成式AI的競爭日趨激烈。
微軟將Azure的企業(yè)級功能與OpenAI的生成式AI模型功能相結(jié)合,發(fā)布了Azure OpenAI服務(wù);
緊隨其后,谷歌開放了AI大模型PaLM的API,并在谷歌企業(yè)級線上協(xié)作平臺Google Workspace中引入了生成式AI功能。
近日,亞馬遜云科技也推出了一項名為Amazon Bedrock的生成式AI云托管服務(wù),用戶可以通過API訪問AI21Labs、Anthropic和Stability AI等AI初創(chuàng)公司的預(yù)訓(xùn)練基礎(chǔ)模型,還提供對亞馬遜云科技開發(fā)的基礎(chǔ)模型系列Amazon Titan FMs的獨家訪問。
國內(nèi)云服務(wù)廠商如:百度、阿里、京東、360等,也都密集宣布AI大模型技術(shù)進展以及類ChatGPT項目計劃。
事實上,在這場由ChatGPT掀起的巨大聲浪中,云計算扮演著十分重要的角色。
比如,ChatGPT的模型訓(xùn)練需要大量的數(shù)據(jù)資源和計算資源,云計算則為模型的開發(fā)和運行提供了強大的技術(shù)基礎(chǔ),這或許也是國內(nèi)外眾多云廠商選擇跟進ChatGPT的原因所在。
隨著云廠商們加速對ChatGPT的布局,未來云計算市場的競爭格局是否會被重新改寫呢?
01 云服務(wù)商為何搶占生成式AI模型?
眾所周知,以ChatGPT為代表的生成式AI技術(shù)十分耗錢,背后需要依靠強大的AI模型和海量數(shù)據(jù),其所需要的云服務(wù)算力成本十分龐大。
以ChatGPT為例,據(jù)SimilarWeb數(shù)據(jù),2023年1月ChatGPT官網(wǎng)總訪問量為6.16億次;據(jù)《Fortune》雜志,每次用戶與ChatGPT互動,產(chǎn)生的算力云服務(wù)成本約0.01美元,如果使用總投資30.2億元、算力500P的數(shù)據(jù)中心來支撐ChatGPT的運行,至少需要7-8個這樣的數(shù)據(jù)中心,基礎(chǔ)設(shè)施的投入都是以百億計的。
但對于參與其中的微軟、谷歌、亞馬遜云科技、百度、阿里等廠商而言,其資金實力雄厚,足以覆蓋投入大模型訓(xùn)練的云基建建設(shè)成本。
且隨著未來大模型訓(xùn)練成本的進一步降低,云服務(wù)商也有其自身的優(yōu)勢。
相較于成本問題,生成式AI技術(shù)帶來的前景不可小覷。
首先,AI大模型訓(xùn)練會為云廠商貢獻大量的直接營收。
目前,云服務(wù)商的增速下降已經(jīng)是擺在“明面上的事情了”。
據(jù)去年11月17日發(fā)布的阿里云季報顯示,其增速已經(jīng)降至4%,首次跌至個位數(shù),在此之前其整體增速已經(jīng)連續(xù)三季度低于15%了,創(chuàng)下了多年來新低;與此同時,騰訊云、華為云等前四大云廠商也都呈現(xiàn)出增速下跌的態(tài)勢。
在此背景下,AI大模型訓(xùn)練無疑為其打開了新的空間。
據(jù)投資機構(gòu)A16Z的研究數(shù)據(jù)發(fā)現(xiàn),應(yīng)用程序公司平均將約20%-40%的年收入,用于推理和定制化的微調(diào)。
這部分通常直接支付給云服務(wù)提供商,以獲取實例或支付給第三方模型提供商,后者將大約一半的收入投入于云基礎(chǔ)設(shè)施。
據(jù)此推算,生成式AI將有10%-20%的營收將直接流向云服務(wù)商。
另外,很多初創(chuàng)自有模型的企業(yè),將會將其多達幾十億的風(fēng)險投資中的大部分,用于支付給外部云服務(wù)商身上,以訓(xùn)練自有大模型。
對于云服務(wù)商廠商而言,這樣的新興市場無疑是特別值得期待的事情。
其次,AI大模型的使用將增加云服務(wù)商的市場競爭力。
從技術(shù)上看,對于NLP任務(wù)的場景,ChatGPT等AI大模型擁有更強的優(yōu)勢,能夠智能化生成一系列文本內(nèi)容,為用戶提供更加便捷和高效的應(yīng)用體驗。
現(xiàn)在,各大云服務(wù)商也都推出了自己的AI大模型。
例如,亞馬遜云科技的Amazon SageMaker是業(yè)內(nèi)知名的基于云的機器學(xué)習(xí)開發(fā)平臺,可以使得機器學(xué)習(xí)模型的部署更加簡單和有效,并且在模型更新和部署方面較為靈活。
近日亞馬遜云科技推出的生成式AI托管服務(wù)Amazon Bedrock,則進一步降低了用戶使用生成式AI的門檻,讓用戶可以自由地選擇其自研的基礎(chǔ)大模型Amazon Titan(包含基于不同場景下的兩個子模型TitanText和Titan Embeddings),以及AI21Labs、Anthropic和Stability AI等業(yè)內(nèi)領(lǐng)先的第三方基礎(chǔ)模型,用少量的數(shù)據(jù)就可以在基礎(chǔ)模型上訓(xùn)練自己的定制模型。
通過API的方式訪問基礎(chǔ)模型,構(gòu)建生成式AI應(yīng)用,不必自己管理和運維底層基礎(chǔ)設(shè)施。
谷歌Cloud AI Platform則在模型調(diào)試和優(yōu)化上比較出色,同時可以靈活運用GPU并行計算實現(xiàn)對模型復(fù)雜度和架構(gòu)的把握。
微軟Azure的Cognitive Services主要應(yīng)用于語言音頻、計算視覺等方面,可以幫助企業(yè)在多個領(lǐng)域應(yīng)用AI技術(shù)。
總體而言,AI應(yīng)用已經(jīng)成為了云服務(wù)商的重點發(fā)展領(lǐng)域,推出AI大模型可以滿足客戶需要的AI應(yīng)用,提高云服務(wù)商的技術(shù)實力和市場競爭力。
最后,AI大模型能促進云服務(wù)商自身技術(shù)研發(fā)的深度發(fā)展。
生成式AI或?qū)⑼苿诱麄云服務(wù)行業(yè)的整體升級。
據(jù)OpenAI測算,自2012年以來,全球頭部AI模型訓(xùn)練算力需求3-4個月翻一番,每年增長幅度高達10倍。
但根據(jù)摩爾定律,芯片計算性能每隔18-24個月才能翻一番,也就說芯片性能遠遠跟不上AI訓(xùn)練的算力需求。
云計算發(fā)展到今天,隨著數(shù)據(jù)密集型場景越來越多。
比如,云計算從業(yè)務(wù)處理為中心轉(zhuǎn)向數(shù)據(jù)處理為中心,CPU更多是在處理網(wǎng)絡(luò)事務(wù)而不是用于計算,這相當(dāng)于數(shù)據(jù)中心部署的很多服務(wù)器,被白白浪費了。
此時,解決之道是不再借助CPU,而是打造只為云計算服務(wù)的芯片,相當(dāng)于云上的Windows系統(tǒng)。
為此,云廠商們也有了自己的想法。比如亞馬遜云科技、微軟、阿里等廠商均加大了自研芯片的力度,試圖將AI引領(lǐng)下的“算力自由”牢牢掌控在自己手里。
例如,近日亞馬遜云科技就宣布基于Amazon Inferentia2芯片的Amazon EC2 Inf2實例全面可用,打造最具成本效益的生成式AI云基礎(chǔ)設(shè)施。
同時,亞馬遜云科技基于Amazon Trainium芯片的新型Trn1n實例也正式可用,該實例將網(wǎng)絡(luò)帶寬提高了一倍,為訓(xùn)練生成式AI模型提供了更高的性能。
亞馬遜云科技大中華區(qū)產(chǎn)品部總經(jīng)理陳曉建在采訪中舉例道,在一個BERT環(huán)境中,如果基于英偉達的GPU實例并使用16個節(jié)點,簡單的模型訓(xùn)練可能需要13個小時;但在內(nèi)部測試中,基于亞馬遜云科技自研的Trainium訓(xùn)練芯片,同樣使用16個節(jié)點,只需要5個小時就可以完成訓(xùn)練。
同樣,如果是基于NLP的大模型訓(xùn)練,需要8個GPU卡才能完成。
但是如果采用亞馬遜云科技自研的Inferentia2,同樣的負載只需要4個Inferentia2芯片即可,將用戶整個硬件部署的環(huán)境、復(fù)雜性、和成本資金都降低一半。
02 云服務(wù)或?qū)⒂瓉韮r值重估
隨著生成式AI與云產(chǎn)品的加速融合,以及產(chǎn)業(yè)進入“深度用云”時代,基于云計算的AI能力逐步得到了企業(yè)與行業(yè)的驗證。
AI與云的結(jié)合能夠降低企業(yè)上云的門檻,同時憑借AI的深度學(xué)習(xí)能力發(fā)揮數(shù)據(jù)價值,為企業(yè)搭建更好的“用云”路徑。
具體來說,隨著AI大模型技術(shù)的成熟,未來整個AI應(yīng)用的創(chuàng)新門檻更低(成本更低、迭代更快),初創(chuàng)企業(yè)可以基于大模型創(chuàng)新而不是底層的芯片層和框架層創(chuàng)新。
同時,企業(yè)在用云時候更多會基于云服務(wù)廠商的大模型成熟度,來選擇云廠商。
例如,Airbnb、GE等國際大企業(yè),已經(jīng)在使用亞馬遜云科技底層的計算資源、訓(xùn)練框架、訓(xùn)練平臺,來進行自己大模型訓(xùn)練。
通過Amazon SageMaker,用戶可以實現(xiàn)從數(shù)據(jù)標(biāo)注、大規(guī)模分布式訓(xùn)練以及到機器學(xué)習(xí)模型運維和在線推理的完整的端到端的任務(wù)。
其中,GE Healthcare創(chuàng)建了一個以改進傳統(tǒng)的 X 射線成像技術(shù)(如超聲波和 CT 掃描)為中心的深度學(xué)習(xí)算法庫。
通過將患者報告數(shù)據(jù)、傳感器數(shù)據(jù)和許多其它來源的各種數(shù)據(jù)集合并到掃描過程中,該算法將能夠識別正常結(jié)果和異常結(jié)果之間的差異。
根據(jù)最近的一項調(diào)查,82%的醫(yī)療決策者說,使用數(shù)據(jù)改善了病人的護理,而63%的人報告說再入院率降低。
事實上,這一變化為原本競爭已經(jīng)固化的云服務(wù)市場帶來了重估機會。
從全球范圍來看,AWS第一、Azure第二、阿里云第三的局面,已經(jīng)持續(xù)了很長時間了,從IDC的數(shù)據(jù)來看,至少五年內(nèi)這種3A格局未曾打破過,緊隨其后分居第四、第五位的谷歌云、IBM,始終被前三名的巨頭壓制著。
從國內(nèi)市場來看,阿里云一騎絕塵的領(lǐng)先者優(yōu)勢也已經(jīng)保持多年,市場份額第一很難撼動。
但隨著生成式AI大模型的出現(xiàn),這一局面或?qū)⒌玫綇氐鬃兓,這是因為更接近前端的應(yīng)用普及,對云服務(wù)下半程的競爭至關(guān)重要。
值得一提的是,微軟的高層在宣布接入ChatGPT之后,曾對外表示:“ChatGPT或?qū)游④浽瞥絹嗰R遜云。”同樣的話,百度CEO李彥宏也說了一遍,他表示文心一言帶來的優(yōu)勢,將可能引導(dǎo)百度智能云進入市場第一。從兩大巨頭的高層表態(tài)來看,生成式AI技術(shù)或?qū)⒔o云行業(yè)帶來新的大洗牌。
需要指出的是,當(dāng)前生成式AI技術(shù)的落地還存在一些不確定性,能否確實成為產(chǎn)業(yè)互聯(lián)網(wǎng)的全新應(yīng)用也還需要時間驗證。
有業(yè)內(nèi)人士表示,ChatGPT仍是個不成熟的產(chǎn)品,目前炒作的意味更濃,未來能不能真正帶來產(chǎn)業(yè)價值還是一個未知數(shù)。
可見,生成式AI離真正的產(chǎn)業(yè)化還有相當(dāng)距離,至少還需要不少的時間,能否真的為云服務(wù)產(chǎn)品帶來革命式變化,以及撼動云服務(wù)市場格局,還需要進一步觀察。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。