行業(yè)唯一!海爾熱聲熱泵技術(shù)獲全國顛覆性技術(shù)創(chuàng)新大賽最高獎OPPO A5 Pro首創(chuàng)獵手天線架構(gòu):信號能穿十堵墻一加 Ace 5 Pro首發(fā)電競Wi-Fi芯片G1 帶來「穿墻王」和「搶網(wǎng)王」般的網(wǎng)絡(luò)體驗電視市場又出黑馬!TCL同檔Mini LED音畫王P12K,萬象分區(qū)打造超強控光!零下25℃如何取暖?海爾水暖通溫暖驛站亮相冰雪大世界馬太效應(yīng),強者恒強?——《中國企業(yè)科創(chuàng)力研究報告(2024)》美團年度報告竟然用上了AI和短?這下是真出圈了消息稱上汽大眾正開發(fā)三款新車,技術(shù)分別來自小鵬、智己和榮威鴻蒙智行泊車代駕VPD正式開啟全量推送!升級自動泊車/接駕等多項功能華為官方翻新手機最高降價4000元曝蘋果研發(fā)帶Face ID的智能家居門鈴:內(nèi)置自研W-Fi芯片李斌回應(yīng)螢火蟲外觀設(shè)計:看過實車的人都喜歡這個設(shè)計林杰:未來 A 級、A0 級、A00 級車型都將是領(lǐng)克純電的“主場”豐巢存包柜亮相南寧地鐵站,助力城市韌性建設(shè)與智慧出行萬象分區(qū)、絢彩XDR、量子點Pro 2025齊出手,TCL引領(lǐng)觀影體驗新變革!QQ音樂年度聽歌報告發(fā)布:誰是你最喜歡的歌手?OpenAI正式發(fā)布o3 - 通往AGI的路上,已經(jīng)沒有了任何阻礙「送禮物」難撬動社交電商,微信小店缺的是供給微軟Phi-4封神,14B小模型數(shù)學(xué)擊敗GPT-4o,合成數(shù)據(jù)占比40%,36頁技術(shù)報告出爐2024年結(jié)束,哪里是原創(chuàng)動畫的應(yīng)許之地?
  • 首頁 > 數(shù)據(jù)存儲頻道 > 數(shù)據(jù).存儲頻道 > 半導(dǎo)體

    2024年AI芯片,競爭加劇

    2024年02月18日 16:41:06   來源:微信公眾號:半導(dǎo)體產(chǎn)業(yè)縱橫

      作為人工智能領(lǐng)域的領(lǐng)軍企業(yè),英偉達有著強大的技術(shù)實力和廣泛的應(yīng)用場景,在過去一年中,生成式 AI 的需求爆發(fā)為其帶來了巨大的增長機遇。

      根據(jù)富國銀行的統(tǒng)計,英偉達目前在數(shù)據(jù)中心AI市場擁有98%的市場份額,而AMD僅有1.2%的市場份額,英特爾則只有不到1%。

      由于英偉達的AI芯片價格高昂,且存在著供應(yīng)不足的問題,這也迫使一些客戶希望選擇其他的替代產(chǎn)品。在競爭對手林立的同時,英偉達也正不斷推動產(chǎn)品研發(fā)和加快更新迭代速度。

      01

      英偉達:兩年12款GPU

      近日,servethehome披露了英偉達的數(shù)據(jù)中心產(chǎn)品路線圖,展示了英偉達面向人工智能市場的產(chǎn)品規(guī)劃,將推出H200、B100和 X100 等多款GPU。

      英偉達正計劃增加面向數(shù)據(jù)中心市場的產(chǎn)品種類,推出多款面向AI計算和HPC的產(chǎn)品,讓不同的客戶可以有針對性購買產(chǎn)品,降低購買芯片難度。通過架構(gòu)圖可以看到,未來英偉達將會對基于Arm 架構(gòu)的產(chǎn)品和基于x86架構(gòu)的產(chǎn)品分開。

      H200:2024 年第二季度開始供貨

      2023年11 月 13 日,英偉達宣布推出 NVIDIA HGX H200,為全球*的 AI 計算平臺帶來強大動力。該平臺基于 NVIDIA Hoppe 架構(gòu),配備 NVIDIA H200 Tensor Core GPU 和高級內(nèi)存,可處理生成 AI 和高性能計算工作負載的海量數(shù)據(jù)。H200 將于 2024 年第二季度開始向全球系統(tǒng)制造商和云服務(wù)提供商供貨。

      NVIDIA H200 是*提供 HBM3e 的 GPU,HBM3e 具有更快、更大的內(nèi)存,可加速生成式 AI 和大型語言模型,同時推進 HPC 工作負載的科學(xué)計算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 內(nèi)存,與前身 NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍。

      英偉達表示,H200 可以部署在各種類型的數(shù)據(jù)中心中,包括本地、云、混合云和邊緣。

      L40S:2023年秋季推出

      L40S是英偉達最強大的GPU之一,其在2023年推出,其旨在處理下一代數(shù)據(jù)中心工作負載:生成式AI、大型語言模型(LLM)推理和訓(xùn)練,3D圖形渲染、科學(xué)模擬等場景。

      與前一代GPU(如A100和H100)相比,L40S在推理性能上提高了高達5倍,在實時光線追蹤(RT)性能上提高了2倍。內(nèi)存方面,它配備48GB的GDDR6內(nèi)存,還加入了對ECC的支持,在高性能計算環(huán)境中維護數(shù)據(jù)完整性還是很重要的。

      L40S配備超過18,000個CUDA核心,這些并行處理器是處理復(fù)雜計算任務(wù)的關(guān)鍵。L40S更注重可視化方面的編解碼能力,而H100則更專注于解碼。盡管H100的速度更快,但價格也更高。

      GH200/GH200NVL:2024年第二季度投產(chǎn)

      2023年8月,英偉達宣布推出新一代GH200 Grace Hopper超級芯片,新芯片將于2024年第二季投產(chǎn)。

      NVIDIA GH200,結(jié)合了H200 GPU和Grace CPU,將Hopper架構(gòu)GPU和Arm架構(gòu)Grace CPU結(jié)合,使用了NVLink-C2C將兩者連接起來。每個Grace Hopper Superchip包含了624GB的內(nèi)存,其中有144GB的HBM3e和480GB的LPDDR5x內(nèi)存。

      GH200和GH200NVL將使用基于Arm 的 CPU 和 Hopper 解決大型語言模型的訓(xùn)練和推理問題。GH200NVL采用了NVL技術(shù),具有更好的數(shù)據(jù)傳輸速度。

      此外,“B”系列GPU也有望在2024年下半年推出,替代之前的第九代GPU Hopper。

      B100、B40、GB200、GB200NVL也將在2024推出

      英偉達計劃推出用基于x86架構(gòu)的B100接替H200,計劃用基于ARM架構(gòu)的推理芯片GB200替代 GH200。此外,英偉達也規(guī)劃了B40產(chǎn)品來替代L40S,以提供更好的面向企業(yè)客戶的AI推理解決方案。

      根據(jù)英偉達公布的信息,該公司計劃于 2024 年發(fā)布 Blackwell 架構(gòu),而采用該架構(gòu)的 B100 GPU 芯片預(yù)計將大幅提高處理能力,初步評估數(shù)據(jù)表明,與現(xiàn)有采用 Hopper 架構(gòu)的 H200 系列相比,性能提升超過 100%。這些性能提升在 AI 相關(guān)任務(wù)中尤為明顯,B100 在 GPT-3 175B 推理性能基準測試中的熟練程度就證明了這一點。

      X100計劃2025 年發(fā)布

      英偉達還披露了 X100 芯片的計劃,計劃于 2025 年發(fā)布,該芯片將擴大產(chǎn)品范圍,包括企業(yè)用途的 X40 和 GX200,在 Superchip 配置中結(jié)合 CPU 和 GPU 功能。同樣,GB200預(yù)計將效仿B100,融入超級芯片概念。

      從英偉達的產(chǎn)品路線來看,在未來1-2 年,AI 芯片市場將再次天翻地覆。

      02

      AMD為生成式AI和大規(guī)模AI系統(tǒng)的可靠替代者

      在英偉達占據(jù)*地位的AI芯片領(lǐng)域中,AMD是為數(shù)不多具備可訓(xùn)練和部署AI的高端GPU公司之一,業(yè)界將其定位為生成式AI和大規(guī)模AI系統(tǒng)的可靠替代者。AMD與英偉達展開競爭的戰(zhàn)略之一,就包括功能強大的MI300系列加速芯片。當前,AMD 正在通過更強大的 GPU、以及創(chuàng)新的CPU+GPU平臺直接挑戰(zhàn)英偉達H100的主導(dǎo)地位。

      AMD最新發(fā)布的MI300目前包括兩大系列,MI300X系列是一款大型GPU,擁有*的生成式AI所需的內(nèi)存帶寬、大語言模型所需的訓(xùn)練和推理性能;MI300A系列集成CPU+GPU,基于最新的CDNA 3架構(gòu)和Zen 4 CPU,可以為HPC和AI工作負載提供突破性能。毫無疑問,MI300不僅僅是新一代AI加速芯片,也是AMD對下一代高性能計算的愿景。

      MI300X 加速卡已在2023年推出

      AMD MI300X 擁有最多 8 個 XCD 核心,304 組 CU 單元,8 組 HBM3 核心,內(nèi)存容量*可達 192GB,相當于英偉達H100(80GB)的2.4 倍,同時HBM內(nèi)存帶寬高達5.3TB/s,Infinity Fabric總線帶寬896GB/s。擁有大量板載內(nèi)存的優(yōu)點是,只需更少的GPU 來運行內(nèi)存中的大模型,省去跨越更多GPU的功耗和硬件成本。

      2023年12 月,AMD 在推出旗艦 MI300X 加速卡之外,還宣布 Instinct MI300A APU 已進入量產(chǎn)階段,預(yù)估2024年開始交付,上市后有望成為世界上最快的 HPC 解決方案。

      MI300A:預(yù)估2024年開始交付

      MI300A 是全球*適用于HPC和AI的數(shù)據(jù)中心APU,結(jié)合了CDNA 3 GPU內(nèi)核、最新的基于AMD“Zen 4” x86的CPU內(nèi)核以及128GB HBM3 內(nèi)存,通過3D封裝和第四代AMD Infinity架構(gòu),可提供HPC和AI工作負載所需的性能。與上一代 AMD Instinct MI250X5 相比,運行HPC和AI工作負載,F(xiàn)P32每瓦性能為1.9 倍。

      能源效率對于HPC和AI領(lǐng)域至關(guān)重要,因為這些應(yīng)用中充斥著數(shù)據(jù)和資源極其密集的工作負載。MI300A APU將CPU和GPU核心集成在一個封裝中,可提供高效的平臺,同時還可提供加速最新的AI模型所需的訓(xùn)練性能。在AMD內(nèi)部,能源效率的創(chuàng)新目標定位為30×25,即2020-2025年,將服務(wù)器處理器和AI加速器的能效提高30倍。

      03

      AMD市場會有小幅上漲

      綜合來看,全球AI熱潮在2023年開始爆發(fā),2024年將繼續(xù)成為業(yè)界的焦點。與2023年不同的是,過去在AI HPC領(lǐng)域占據(jù)主導(dǎo)地位的英偉達,今年將面臨AMD MI300系列產(chǎn)品的挑戰(zhàn)。

      由于微軟、Meta等云端服務(wù)大廠在一兩年前就開始陸續(xù)預(yù)訂英偉達的MI300系列產(chǎn)品,并要求ODM廠商開始設(shè)計專用的AI服務(wù)器,使用MI300系列產(chǎn)品線,以分散風險和降低成本。業(yè)界預(yù)計,今年AMD的MI300系列芯片市場需求至少達到40萬顆,如果臺積電提供更多的產(chǎn)能支持,甚至有機會達到60萬顆。

      AMD的CEO蘇姿豐在圣何塞舉辦的AMD Advancing AI活動上談到,包括GPU、FPGA等在內(nèi)的數(shù)據(jù)中心加速芯片,未來四年每年將以50%以上的速度增長,從2023年的300億市場規(guī)模,到2027年將超過1500億。她表示,從業(yè)多年,這種創(chuàng)新速度比她以往見到的任何技術(shù)都快。

      根據(jù)富國銀行的預(yù)測,AMD雖然在2023年的AI芯片的營收僅為4.61億美元,但是2024年將有望增長到21億美元,將有望拿到4.2%的市場份額。英特爾也可能拿到將近2%的市場份額。這將導(dǎo)致英偉達的市場份額可能將小幅下滑到94%。

      不過,根據(jù)蘇姿豐在1月30日的電話會議上公布的數(shù)據(jù)顯示,AMD在2023年四季度的AI芯片營收已經(jīng)超越此前預(yù)測的4億美元,同時2024年AMD的AI芯片營收預(yù)計也將達到35億美元,高于先前預(yù)測的20億美元。如果,AMD的預(yù)測數(shù)據(jù)準確的話,那么其2024年在AI芯片市場的份額有望進一步提高。

      當然,英偉達也并不會放任其在AI市場的壟斷地位受到侵蝕。在目前的人工智能智能加速芯片市場,英偉達的A100/H100系列AI GPU雖然價格高昂,但一直是市場的*。今年英偉達更為強大的Hopper H200和Blackwell B100也將會上市。而根據(jù)一些研究機構(gòu)的預(yù)測,英偉達計劃今年銷售約 150 萬至 200 萬個 AI GPU,這可能將是其2023年銷量的三倍,這也意味著英偉達將會徹底解決供應(yīng)的瓶頸問題,面對AMD和英特爾的競爭,屆時英偉達的價格策略可能也會有所調(diào)整。

      04

      更多的挑戰(zhàn)即將到來

      英偉達要面對的不僅僅是AMD,如今自研AI芯片的風潮正在科技巨頭之間興起。

      今年2月,科技巨頭Meta Platforms對外證實,該公司計劃今年在其數(shù)據(jù)中心部署最新的自研定制芯片,并將與其他GPU芯片協(xié)調(diào)工作,旨在支持其 AI 大模型發(fā)展。

      研究機構(gòu)SemiAnalysis創(chuàng)始人Dylan Patel表示,考慮到Meta的運營規(guī)模,一旦大規(guī)模成功部署自研芯片,有望將每年節(jié)省數(shù)億美元能源成本,以及數(shù)十億美元芯片采購成本。

      OpenAI也開始尋求數(shù)十億美元的資金來建設(shè)人工智能芯片工廠網(wǎng)絡(luò)。

      外媒報道,OpenAI正在探索制造自己的人工智能芯片。并且Open AI的網(wǎng)站開始招募硬件相關(guān)的人才,官方網(wǎng)站上有數(shù)個軟硬件協(xié)同設(shè)計的職位在招聘,同時在去年九月OpenAI還招募了人工智能編譯器領(lǐng)域的著名牛人Andrew Tulloch加入,這似乎也在印證OpenAI自研芯片方面的投入。

      不止是Meta和OpenAI,據(jù)The Information統(tǒng)計,截至目前,全球有超過18家用于 AI 大模型訓(xùn)練和推理的芯片設(shè)計初創(chuàng)公司,包括Cerebras、Graphcore、壁仞科技、摩爾線程、d-Matrix等,融資總額已超過60億美元,企業(yè)整體估值共計超過250億美元(約合1792.95億元人民幣)。

      這些公司背后的投資方包括紅 杉資本、OpenAI、五源資本、字節(jié)跳動等。如果加上微軟、英特爾、AMD等科技巨頭和芯片龍頭的“造芯”行動,對標英偉達的 AI 芯片企業(yè)數(shù)量最終就將超過20家。

      如此來看,盡管英偉達在數(shù)據(jù)中心、游戲和人工智能加速器等關(guān)鍵增長領(lǐng)域保持著引人注目的技術(shù)領(lǐng)導(dǎo)地位,但公司面臨越來越多的競爭威脅。2024年英偉達也必然會面臨更大的挑戰(zhàn)。

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。

    即時

    新聞

    明火炊具市場:三季度健康屬性貫穿全類目

    奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。

    3C消費

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,高能實力,創(chuàng)

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。

    研究

    中國信通院羅松:深度解讀《工業(yè)互聯(lián)網(wǎng)標識解析體系

    9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。