研究機構TrendForce日前發(fā)布預測,指出隨著AI服務器與AI芯片需求同步看漲,預計2023年AI服務器(包含搭載GPU、FPGA、ASIC等主芯片)出貨量將接近120萬臺,年增38.4%,占整體服務器出貨量近9%,至2026年占比將進一步提升至15%,該機構同步上修2022-2026年AI服務器出貨量年復合增長率至22%,而AI芯片2023年出貨量預計將增長46%。
該機構表示,英偉達GPU已成為AI服務器所搭載芯片的主流,市占率約60-70%,其次為云計算廠商自主研發(fā)的ASIC芯片,市占率逾20%。該機構認為,英偉達市占率高的主要原因有三:
其一,目前各國云服務業(yè)者(CSP)除了采購原有的英偉達A100與A800外,下半年需求也將陸續(xù)導入H100與H800,尤其新機種H100與H800在平均銷售單價(ASP)約為A100與A800的2-2.5倍,且英偉達同時積極銷售自家相關整機解決方案。
其二,高端GPU A100及H100的高獲利模式也是關鍵,由于旗下產品在AI服務器市場已擁有主導權的優(yōu)勢,據(jù)該機構研究,H100本身的價差也依據(jù)買方采購規(guī)模,會產生近5,000美元的差異。
其三,下半年ChatBOT及AI運算風潮將持續(xù)滲透至各種專業(yè)領域(如云端/電商服務、智慧制造、金融保險、智慧醫(yī)療及自動輔助等)的開發(fā)市場,同步帶動每臺搭配4-8張GPU的云端AI,以及每臺搭載2-4張GPU的邊緣AI服務器應用需求漸增,預估今年搭載A100及H100的AI服務器出貨量年增率將超過50%。
此外,該機構認為在高階GPU搭載的HBM上,今年H100等新品將升級至HBM3技術規(guī)格,傳輸速度也較HBM2e快,可提升整體系統(tǒng)運算效能。隨著高端產品如A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求逐步提升下,預計2023年HBM需求量將年增58%,2024年有望再增長約30%。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術、產品設計及應用方面的創(chuàng)新變革,全球領先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產品設計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術和新品亮相,以敢為精神勇闖技術無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導,由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。