2024 vivo開發(fā)者大會官宣:OriginOS 5/自研藍河系統(tǒng)2降臨真·AI程序員來了,阿里云「通義靈碼」全面進化,全流程開發(fā)僅用幾分鐘東方甄選烤腸全網(wǎng)銷量及銷售額領先鴻蒙PC要來了 界面很漂亮!余承東:目前華為PC將是最后一批搭載Windows上半年中國AR/VR出貨23.3萬臺,同比下滑了 29.1%IDC:2024 上半年中國 AR / VR 頭顯出貨 23.3 萬臺,同比下滑 29.1%英特爾AI加速器Gaudi3下周發(fā)布,挑戰(zhàn)NVIDIA統(tǒng)治地位!大屏技術(shù)邂逅千年色彩美學!海信激光電視成為電影《只此青綠》官方合作伙伴OpenAI將最新AI模型o1擴展到企業(yè)和教育領域三星新專利探索AR技術(shù)新應用:檢測屏幕指紋殘留,提高手機安全性猛瑪傳奇C1:直播圖傳技術(shù)的革新者JFrog推出首個運行時安全解決方案,實現(xiàn)從代碼到云的全面軟件完整性和可追溯性亞馬遜推出一大波生成式 AI 工具,購物體驗全面升級機器人公司1X推出世界模型Apple Intelligence測試版現(xiàn)已開放革命性AI對話系統(tǒng)Moshi問世:機器也能說人話了?阿里國際推出最新多模態(tài)大模型 Ovis,看菜品就能提供烹飪步驟華為發(fā)布智聯(lián)集成行業(yè)解決方案,助力客戶打造行業(yè)領先的目標網(wǎng)絡AI 3D生成天花板再拉升!清華團隊煉成3D Scaling Law正在逐步覆蓋!騰訊提醒勿為實況圖重裝微信:以免丟失微信聊天記錄
  • 首頁 > 產(chǎn)經(jīng)新聞頻道 > 業(yè)界新聞

    逐項拆解 | 從AI Benchmark跑分看展銳5G芯片T770的AI性能

    2022年06月20日 11:45:27   來源:中文科技資訊

      近日,AI Benchmark發(fā)布了最新Mobile SoCs推理測試結(jié)果。在這份備受AI圈關注的“戰(zhàn)報”中,紫光展銳5G芯片T770取得了86.2K的不俗成績。

      AI Benchmark是全球權(quán)威AI性能評測平臺,由蘇黎世聯(lián)邦理工學院計算機視覺實驗室出品。這個實驗室由計算機視覺領域著名學者Luc Van Gool, 醫(yī)療影像教授Ender Konukoglu,以及計算機視覺及系統(tǒng)教授Fisher Yu的研究組組成,是整個歐洲乃至世界最頂尖的CV/ML研究機構(gòu)之一。

      AI Benchmark涵蓋了26組測試,共計78個測試子項,包括了目標識別、目標分類、人臉識別、光學字符識別、圖像超分,圖像增強、語義分割、語義增強等AI場景,從CPU、AI加速器對INT8和FP16模型的推理速度、準確性、初始化時間等數(shù)據(jù)全方位衡量平臺/設備的AI能力。因此,AI Benchmark可以從比較客觀的角度評估芯片的AI 性能。

      在12個維度的測試里,共計102個測試數(shù)據(jù),T770有超過59.8%的數(shù)據(jù)超過競品。

      具體表現(xiàn)在圖片分類、并發(fā)場景 (量化模型)、目標檢測、文字識別、語義分割、圖像超分、圖像分割、深度估計、圖像增強、視頻超分、自動文本生成等場景 。

      接下來,讓我們從幾個關鍵的測試維度看下T770 AI性能的具體表現(xiàn):

      逐項拆解之MobileNet

      首先來看較為經(jīng)典的MobileNet神經(jīng)網(wǎng)絡維度。這里稍微提一下MobileNet的由來:谷歌在2017年提出了專注于移動端或者嵌入式設備中的輕量級CNN網(wǎng)絡,其最大的創(chuàng)新點是提出了深度可分離卷積。mobileNet-V2是對mobileNet-V1的改進,是一種輕量級的神經(jīng)網(wǎng)絡。mobileNet-V2保留了V1版本的深度可分離卷積,增加了線性瓶頸(Linear Bottleneck)和倒殘差(Inverted Residual),而MobileNet-V3是谷歌基于MobileNet-V2之后的又一項力作,在精度和時間上均有提高。MobileNet-V3做了哪些修改呢?它引入了SE結(jié)構(gòu)、修改了尾部結(jié)構(gòu)和channel的數(shù)量,做了非線性變換的改變。MobileNet-V3提供了兩個版本,一個是mobileNet-V3 Large,也就是AI Benchmark這次測試用的版本,另一個是MobileNet-V3 Small版本,分別對應了對計算和存儲要求高與低的版本。

      AI-Benchmark主要選取了V2和V3 Large兩個版本進行測試。下圖這個數(shù)據(jù)柱狀圖表達的是什么意思呢?這里包含了CPU、AI加速器分別對于量化和浮點模型的處理表現(xiàn),主要從推理速度和準確性兩個維度去評估平臺/設備的AI能力,時間單位是毫秒。

      灰色的柱形圖代表競品,紫色的代表T770?梢钥吹剑趍obileNet-V2維度,T770在CPU量化、CPU浮點、加速器量化的處理上基本是優(yōu)于競品的。加速器浮點上略有差距,在mobileNet-V3 Large維度,T770在CPU量化、CPU浮點、加速器浮點的處理上是優(yōu)于競品的,加速器量化上略有差距,兩者數(shù)據(jù)各有千秋,從MobileNet神經(jīng)網(wǎng)絡整體維度,T770優(yōu)于競品。

      逐項拆解之Inception-V3

      Inception-V3 架構(gòu)的主要思想是 factorized convolutions (分解卷積) 和 aggressive regularization (激進的正則化)。可以看到,在精度基本一致的情況下,在CPU浮點、加速器量化這兩個關鍵維度上,T770運行Inception-V3的運行速度更快,加速器浮點模型數(shù)據(jù)的運行速度上略有差距,但精度略優(yōu)于競品,如下圖所示:

      逐項拆解之EfficientNet

      EfficientNet是谷歌研究人員在一篇 ICML 2019 論文《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》中提出的一種新型模型縮放方法?梢钥吹剑琓770運行EfficientNet的表現(xiàn)與競品相當,在CPU浮點、加速器量化、加速器浮點模型數(shù)據(jù)的運行速度上均有優(yōu)勢。

      剛才提到的MobileNet、Inception-V3、EfficientNet網(wǎng)絡結(jié)構(gòu)常用于圖像分類、目標檢測、語義分割等技術(shù)開發(fā)中。這些神經(jīng)網(wǎng)絡結(jié)構(gòu)可應用的常見場景有手機相冊中的相冊分類,手勢識別等,工業(yè)上可用于快遞分揀、頭盔檢測、頭盔識別等場景,在醫(yī)學領域會用于皮膚真菌識別等應用。當然這些神經(jīng)網(wǎng)絡所能支撐的場景,不限于剛剛介紹到的,可利用這些AI能力開發(fā)出更多的基于對物體/事物的分類場景。

      T770在這些神經(jīng)網(wǎng)絡結(jié)構(gòu)上的不俗表現(xiàn)表明:T770有更全面、更強大的能力去支撐這些場景的開發(fā)。

      逐項拆解之Inception-V3 Parallel

      接下來再看Inception-V3 Parallel (NN-INT8),你肯定會想,怎么又來一個Inception-V3,剛才不是show過了?是重復了嗎?搞錯了嗎?當然沒有!這里介紹的是Inception-V3 Parallel的能力,即同時處理多個Inception-V3,對應的是平臺/設備對于AI并發(fā)處理的能力,怎么去理解這個并發(fā)處理呢?舉個栗子吧,哦,今天忘記帶栗子了,不好意思(╯▽╰)。

      簡單來講,就是應用程序同時下發(fā)多個任務處理,再簡單點講就是,同時在做兩件事情或多件事情,比如圖片分類和手勢識別同時進行。還不明白?再簡單點,就好比人在吃飯的同時刷抖音短視頻。

      OK,我們來看下具體數(shù)據(jù),下圖顯示的是AI加速器對1/2/4/8個量化模型同時處理的能力,可以明顯看到,T770在AI多任務處理能力上占有明顯優(yōu)勢。

      逐項拆解之Yolo-v4 Tiny

      我們再看Yolo-V4 Tiny結(jié)構(gòu),它是Yolo-V4的精簡版,屬于輕量化模型,參數(shù)只有600萬,相當于原來的十分之一,這使檢測速度有了很大提升,非常有利于在端側(cè)進行部署,在智能安防領域中已有大量應用,比如車輛識別、人員識別、路徑預測和跟蹤、行為分析、安全帽識別等。

      先看下具體數(shù)據(jù),如下圖,除加速器量化模型部分略有不足之外,其他均有優(yōu)勢,如CPU量化、浮點,加速器浮點等。

      逐項拆解之DPED – ResNet

      再看一下T770在DPED - ResNet處理維度的表現(xiàn),解釋一下,DPED是DSLR Photo Enhancement Dataset,而DSLR指的是Digital Single Lens Reflex Camera,即數(shù)碼單反相機。講到這一點,不得不提到一篇論文《DSLR-Quality Photos on Mobile Devices with Deep Convolutional Networks》,這是一篇發(fā)布于2017年關于圖像增強的神經(jīng)網(wǎng)絡論文,大概成果就是將手機照片作為輸入,將DSLR相機拍出的照片作為target,通過網(wǎng)絡使其學習到一個映射函數(shù),目的是讓手機拍出單反相機照片的效果。

      基于DPED,我們可以將老舊或低質(zhì)量的照片轉(zhuǎn)化為高質(zhì)量的照片,而且轉(zhuǎn)化效果很好,可用于照片美化等應用場景。如下圖,可以看到T770在對DPED - ResNet處理的錯誤率一致的情況下,錯誤率都很低,處理速度上有明顯優(yōu)勢。

      逐項拆解之LSTM

      接下來,我們再看一下T770在長短期記憶網(wǎng)絡(Long-Short Term Memory,LSTM)方面的性能。由于獨特的設計結(jié)構(gòu),LSTM適合處理和預測時間序列中間隔和延遲非常長的重要事件。LSTM的表現(xiàn)通常比時間遞歸神經(jīng)網(wǎng)絡及隱馬爾科夫模型(HMM)更好,比如用在不分段連續(xù)手寫識別上。

      2009年,用LSTM構(gòu)建的人工神經(jīng)網(wǎng)絡模型贏得ICDAR手寫識別比賽冠軍。LSTM還普遍應用在自主語音識別,2013年,運用TIMIT自然演講數(shù)據(jù)庫實現(xiàn)了17.7%錯誤率紀錄。作為非線性模型,LSTM可作為復雜的非線性單元,用于構(gòu)造更大型深度神經(jīng)網(wǎng)絡。

      下圖可以看到,T770在對LSTM處理的錯誤率一致的情況下,處理速度上有著明顯優(yōu)勢。

      逐項拆解之U-Net

      U-Net是比較早的使用全卷積網(wǎng)絡進行語義分割的算法之一,因網(wǎng)絡形狀酷似U而得名。圖像語義分割(Semantic Segmentation)是圖像處理和機器視覺技術(shù)中,關于圖像理解的重要一環(huán),也是 AI 領域中一個重要的分支。語義分割對圖像中每一個像素點進行分類,確定每個點的類別(如屬于背景、人或車等),從而進行區(qū)域劃分。目前,語義分割已經(jīng)被廣泛應用于自動駕駛、無人機落點判定等場景中。U-Net在醫(yī)學領域也得到了應用,比如醫(yī)學圖像解析,也就是從一副醫(yī)療圖像中,識別出特定的人體部位,比方說“前列腺”、“肝臟”等等。

      下圖可以看到,T770和競品對U-net處理的錯誤率都極低,而T770在擁有極低錯誤率的同時,處理速度明顯占優(yōu)。

      好了,數(shù)據(jù)對比分析先講這么多,大家如果對T770在其他AI場景下的性能數(shù)據(jù)感興趣,可前往AI Benchmark官網(wǎng)自行查看。

      以上可以看到,T770有著不俗的AI性能,可以助力用戶在相冊分類、物體分類、智能美圖、背景虛化、渲染、語音助手、智能家居、車牌識別,人臉識別、視頻超分辨率應用場景中的落地實施,并且在滿足常見CV/NLP應用場景下,可以同時滿足實時、高并發(fā)的AI場景需求,如車牌識別、人臉識別等。

      看罷T770的AI性能精彩展現(xiàn),你是否會有疑問,T770是如何做到在AI上大放異彩的呢?下面我們來簡單介紹下。

      T770擁有多個可用于AI加速的設備,當然,有時候你擁有的資源越多,并不是一件好事,因為對資源的識別、管理和調(diào)度,會是一件極其困難的事情。所以,如何使T770上多個AI加速設備協(xié)同合作,并發(fā)揮出最大效能成為我們技術(shù)研發(fā)最主要的挑戰(zhàn)。

      大家都知道三個和尚挑水喝的故事:一個和尚挑水喝,兩個和尚抬水喝,三個和尚沒水喝。

      故事很簡單,道理也很簡單,借這個故事,這里想表達的是三個核心問題:

      一、任務來了,誰能干?

      二、任務來了,誰來干更合適?

      三、安排好活了,干活的是否積極?

      為了解決上述問題,紫光展銳開發(fā)了兩大核心技術(shù):

      1)Smart Schedule :采用智能算法,精準識別每個AI任務最適合在哪個加速器里進行處理,然后進行分配,使其隨才器使;

      2)Device Boost:采用智能調(diào)節(jié)算法,根據(jù)推理任務大小,智能調(diào)節(jié)加速器負載,使其張弛有度。

      得益于紫光展銳開發(fā)的這兩大核心技術(shù),T770在AI性能上大放異彩,AI多變場景下,可以助力用戶實現(xiàn)豐富的AI場景化落地。

      而且,紫光展銳將持續(xù)針對多種AI場景進行優(yōu)化,屆時,T770的AI性能將得到更大提升,創(chuàng)新不止,敬請期待!

      注:本文測試數(shù)據(jù)來源于AI Benchmark官網(wǎng)發(fā)布

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。

    [No. H001]
    分享到微信

    即時

    TCL實業(yè)榮獲IFA2024多項大獎,展示全球科技創(chuàng)新力量

    近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設計及應用方面的創(chuàng)新變革,全球領先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。

    新聞

    敢闖技術(shù)無人區(qū) TCL實業(yè)斬獲多項AWE 2024艾普蘭獎

    近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。

    企業(yè)IT

    重慶創(chuàng)新公積金應用,“區(qū)塊鏈+政務服務”顯成效

    “以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。

    3C消費

    “純臻4K 視界煥新”——愛普生4K 3LCD 激光工程投影

    2024年3月12日,由愛普生舉辦的主題為“純臻4K 視界煥新”新品發(fā)布會在上海盛大舉行。

    研究

    2024全球開發(fā)者先鋒大會即將開幕

    由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導,由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。