在中國也有華為的Mate10的手機,第一款搭載了寒武紀的1A 神經(jīng)網(wǎng)絡加速器的手機,可以在客戶端也能夠方便運用這樣的計算能力。所以我們自己做研究就會問一個問題,怎么樣去利用這樣的計算力?
我們在Face++很早就意識到計算帶來非常大的變革。我們做了一個曠視科技的Brain,就是為了神經(jīng)計算,這里面最重要的東西是深度學習平臺,底層是NVIDIA 的引擎,右邊是我們GPU集群,最核心的深度學習平臺我們內(nèi)部叫做Brain++,是整個系統(tǒng)管理存儲、標注、深度學習訓練、GPU虛擬化管理甚至模型的發(fā)布,整個一套軟件系統(tǒng)來管理我們所有數(shù)千塊的GPU。
曠視科技的Brain++ 內(nèi)部有一個最重要的東西叫 MegBrain, 它對應的就是一些開源的或者大公司推出的深度學習引擎,比如TensorFlow和Caffe。MegBrain是我們自研的一個引擎,早在TensorFlow之前。據(jù)我所知,這是所有創(chuàng)業(yè)公司中唯一一家自研深度學習引擎并且全員使用的,我們內(nèi)部已經(jīng)到了7.0的版本。這兩個條件非常重要,既要自研又要全員使用,給我們帶來非常多的好處,所以我們要堅持使用自己的深度學習引擎。
4.6 億美元怎么花?
大家可能前兩天看了一些新聞關于Face++拿到了一些融資,那融資拿來怎么用呢?我們主要有兩個大的方向,一方面是繼續(xù)打造類似于Brain++的引擎需要更多的計算力,另外一個方面會在城市大腦上做一些商業(yè)的開拓。
為什么花這么多的資源來做這件事情呢?因為我們相信今天的算法是目前設計的,但是如果問一個問題,如果今天計算量就提高一萬倍,那你應該如何重新設計自己的算法。一萬倍聽上去很多,其實也不是很難達到。比方說去年到今年就從10 TFLOP/S 通過NVIDIA和Google的努力到120-180 TFLOP/S,其實達到了18倍的增速。從計算力來說,如果有500多塊卡,我們就達到了一萬倍的加速。這是我在Face++研究院非常嚴肅地在研究的一個問題。有了這樣的計算變化,那視覺計算產(chǎn)生了什么樣大的變化?
我可以回顧一下,計算機視覺到底要解決什么問題。剛才賈佳亞教授也非常詳細地解釋了視覺計算要處理的一些核心問題。基本上是要描述一張圖片里面都有什么東西,描述這張圖片里正在發(fā)生什么和將要發(fā)生什么。
我們自己將它定義成四個核心問題,分別是分類、檢測、分割,序列分析,分別對應圖象、區(qū)域、像素和視頻的處理,這是Face++研究院核心要做的事。
以前做這一些問題,大家是通過手工設計特征的方式加上一個標準的SVM的分類器,這其實也是在做非線性變換,但是問題是這樣的非線性變換做不了很多次,很多研究嘗試做三次、五次、十次,發(fā)現(xiàn)超過三次就不太有效了。另外就是手工設計特征,人工很難去設計很好的特征。
今天深度神經(jīng)網(wǎng)絡可以做一個非常多次的非線性變換,可以逼近非常復雜的映射。更重要的是,里面的所有參數(shù)都是自動學到的,這是深度學習網(wǎng)絡目前的現(xiàn)狀和基本方式。
這個過程來之不易,里面經(jīng)過了很多代人的研究。有很多認知邊界的突破,比如說很多人之前不相信深度神經(jīng)網(wǎng)絡是好的,是有用的,認為它根本不可能被訓練起來,這個魔咒其實是通過這幾年的發(fā)展才慢慢破除的。
文章內(nèi)容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。