當(dāng)前,人工智能正在迅速部署到商業(yè)和金融的各個(gè)方面。一些令人興奮的成功給行業(yè)帶來了接受這項(xiàng)新技術(shù)的壓力,因?yàn)闆]有人愿意被競(jìng)爭(zhēng)對(duì)手遠(yuǎn)遠(yuǎn)拋在后面。
人工智能背后的核心技術(shù)是神經(jīng)網(wǎng)絡(luò)模型、深度學(xué)習(xí)算法和用于訓(xùn)練的海量數(shù)據(jù)集。該模型是為特定目的而構(gòu)建的,例如對(duì)象識(shí)別、語(yǔ)音識(shí)別和對(duì)象跟蹤。“模型”描述了神經(jīng)網(wǎng)絡(luò)的構(gòu)建方式、網(wǎng)絡(luò)有多少參數(shù)以及有多少層。
神經(jīng)網(wǎng)絡(luò)的總體精度是訓(xùn)練數(shù)據(jù)集的質(zhì)量和大小、參數(shù)數(shù)量和訓(xùn)練過程的函數(shù)。這不是一門精確的科學(xué)。訓(xùn)練過多,模型對(duì)訓(xùn)練集的響應(yīng)良好,但對(duì)現(xiàn)實(shí)情況的響應(yīng)卻不佳。這是模型“過度擬合”。訓(xùn)練太少,模型將無法響應(yīng)所有已知情況。
沒有一個(gè)模型是完美的。總是存在誤差幅度,并且會(huì)出現(xiàn)模型沒有參數(shù)的異常情況。在過去10年中,隨著功能和準(zhǔn)確性的提高,模型變得更加復(fù)雜。
Bard和GPT-4等大型語(yǔ)言模型使用的模型使用數(shù)千億個(gè)參數(shù),需要海量數(shù)據(jù)集進(jìn)行訓(xùn)練。即使是最強(qiáng)大的個(gè)人計(jì)算機(jī)也無法處理需要大量計(jì)算能力和內(nèi)存資源的大型模型。計(jì)算是通過互聯(lián)網(wǎng)(云)在大型數(shù)據(jù)中心計(jì)算機(jī)(服務(wù)器場(chǎng))上完成的。
服務(wù)器場(chǎng)用于自然語(yǔ)言處理、生成文本和圖像、視頻流分類以及物聯(lián)網(wǎng)過程控制和監(jiān)控等應(yīng)用!哆B線》 雜志估計(jì),訓(xùn)練像 GPT-4 這樣的大型模型需要花費(fèi)1億美元,并在11個(gè)月內(nèi)使用多達(dá)10000個(gè)配備強(qiáng)大A100 GPU處理器陣列的系統(tǒng)。已知最大的模型是Google GLaM,擁有超過1 萬億個(gè)參數(shù)。
如今,模型變得越來越大,但這些系統(tǒng)能否繼續(xù)擴(kuò)展?
SemiAnalysis首席分析師Dylan Patel表示,每天運(yùn)行ChatGPT的成本估計(jì)高達(dá)70萬美元。該成本細(xì)分為維護(hù)、計(jì)算機(jī)資源折舊以及服務(wù)器和冷卻系統(tǒng)的電力消耗。在谷歌和加州大學(xué)伯克利分校(《科學(xué)美國(guó)人》)聯(lián)合發(fā)表的一項(xiàng)研究中,GPT-3 的耗電量為1,287 兆瓦時(shí)。
當(dāng)考慮到全球服務(wù)器場(chǎng)的數(shù)量和人工智能處理的成倍增加時(shí),這一點(diǎn)值得高度關(guān)注。隨著越來越多的人開始訪問在線人工智能,服務(wù)器群的功耗可能會(huì)增加。到2025年,服務(wù)器群可能消耗全球20% 以上的電力。
服務(wù)器群使用配備強(qiáng)大計(jì)算機(jī)和GPU的大型機(jī)架。它們包含數(shù)千個(gè)處理核心,可用作并行處理單元來計(jì)算神經(jīng)網(wǎng)絡(luò)的功能。單個(gè)GPU使用的功率可高達(dá)400瓦,服務(wù)器最多可使用32個(gè) GPU。一個(gè)公司的大型數(shù)據(jù)中心集群可能部署多達(dá)250萬臺(tái)服務(wù)器。即使只有一半的服務(wù)器配備GPU,最壞情況下的計(jì)算也將達(dá)到16000兆瓦時(shí)。換言之,這是大量的溫室氣體排放的源泉。
有多種方法可以減少服務(wù)器群對(duì)環(huán)境的影響。解決方案的一部分是更高效的硬件以及可再生能源的使用。另一種方法是使用混合解決方案,在專用的、低功耗但高性能的神經(jīng)形態(tài)硬件中執(zhí)行分布在邊緣的大部分處理。神經(jīng)形態(tài)處理的靈感來自大腦的節(jié)能方法。
人腦包含大約860億個(gè)神經(jīng)元細(xì)胞(大約是最大的大型語(yǔ)言模型GLaM的80倍),估計(jì)有100萬億個(gè)連接(大約是 GLaM 的 100 倍)。每個(gè)細(xì)胞都有不同數(shù)量的電化學(xué)記憶。存儲(chǔ)在這種生物記憶中的信息可以被認(rèn)為等同于神經(jīng)網(wǎng)絡(luò)模型中的參數(shù)。
與人工神經(jīng)網(wǎng)絡(luò)相比,大腦模型是動(dòng)態(tài)的。當(dāng)我們學(xué)習(xí)時(shí),它會(huì)創(chuàng)造新的連接和更多的記憶,當(dāng)我們睡覺時(shí),它會(huì)修剪多余的連接。人腦神經(jīng)網(wǎng)絡(luò)盡管比最大的人工智能模型還要大,但其消耗的能量?jī)H相當(dāng)于20 瓦,比一個(gè)燈泡還少。盡管我們?cè)谶^去幾年中取得了成功,但大腦的結(jié)構(gòu)與當(dāng)今人工智能系統(tǒng)中使用的神經(jīng)網(wǎng)絡(luò)模型有很大不同。
神經(jīng)形態(tài)處理借鑒了大腦的高效處理技術(shù),將其行為復(fù)制到數(shù)字電路中。雖然數(shù)字電路可能不如模擬電路那么節(jié)能,但穩(wěn)定性、可互換性和速度超過了輕微的功耗優(yōu)勢(shì)。由于事件驅(qū)動(dòng)的卷積殼,使用神經(jīng)形態(tài)計(jì)算引擎對(duì)開發(fā)人員和用戶來說是透明的。
神經(jīng)形態(tài)處理可以運(yùn)行卷積神經(jīng)網(wǎng)絡(luò) (CNN),并可以在ImageNet1000上運(yùn)行圖像分類、實(shí)時(shí)視頻分類、氣味和味道識(shí)別、振動(dòng)分析、語(yǔ)音和語(yǔ)音識(shí)別以及疾病和異常檢測(cè)。由于其功耗低,因此可以在便攜式和電池供電的工具中使用這些功能。
通過在快速神經(jīng)形態(tài)計(jì)算設(shè)備中使用分布式人工智能處理,可以減少數(shù)據(jù)中心過多的功耗,從而降低運(yùn)營(yíng)成本并提高邊緣產(chǎn)品的功能和響應(yīng)能力。神經(jīng)形態(tài)處理可以幫助補(bǔ)償人工智能預(yù)期的負(fù)面環(huán)境影響。
本文作者:Peter van der Made 是BrainChip Ltd的創(chuàng)始人兼首席技術(shù)官
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會(huì)上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡(jiǎn)直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會(huì)——工業(yè)互聯(lián)網(wǎng)標(biāo)識(shí)解析專題論壇在沈陽(yáng)成功舉辦。