正在逐步覆蓋!騰訊提醒勿為實(shí)況圖重裝微信:以免丟失微信聊天記錄iPhone16多款機(jī)型破發(fā):最高比官網(wǎng)便宜600元劉積仁不愛“湊熱鬧”,但東軟集團(tuán)喜歡“追風(fēng)口”快手電商新增近800個(gè)“0元開店”類目,推出多項(xiàng)新商入駐權(quán)益年內(nèi)狂攬五項(xiàng)第一,“字節(jié)系大模型”何以后發(fā)先至?科技云報(bào)到:有韌性才能更“任性”,云韌性構(gòu)筑業(yè)務(wù)最后一道防線阿里云盤出“BUG”客服回應(yīng):已修復(fù)圍剿BBA,比亞迪和騰勢也準(zhǔn)備出一份力阿里云服務(wù)器操作系統(tǒng)Alibaba Cloud Linux全新升級(jí),核心場景性能提升超20%屏幕面板 10 月出貨,蘋果 M4 MacBook Air 被曝 2025Q1 發(fā)布蘋果史上最大:iPhone 16系列電池容量公布后移動(dòng)互聯(lián)網(wǎng)時(shí)代,移動(dòng)App兼容測試持續(xù)占據(jù)核心地位歐盟警告蘋果:六個(gè)月內(nèi)開放iPhone系統(tǒng) 否則重罰湖北省電子信息產(chǎn)業(yè)前8月實(shí)現(xiàn)營收5970億元,同比增長13.53%傳三星計(jì)劃2025年推出卷軸屏手機(jī)蘋果新專利探索折疊iPhone未來,任意表面實(shí)現(xiàn)觸敏控制蘋果iPhone16/Pro系列手機(jī)今日首銷,5999~9999元起各方媒體的聚焦關(guān)注,中南高科實(shí)力呈現(xiàn)高科“新質(zhì)”表現(xiàn)力拼多多解開了新疆的“包郵絕緣體”封印宏景智駕完成數(shù)億元C輪融資
  • 首頁 > 云計(jì)算頻道 > 大模型

    天工一刻 | 一文看懂MoE混合專家大模型

    2024年05月07日 14:58:36   來源:DoNews

      隨著大模型技術(shù)迎來顛覆性突破,新興AI應(yīng)用大量涌現(xiàn),不斷重塑著人類、機(jī)器與智能的關(guān)系。

      為此,昆侖萬維集團(tuán)重磅推出《天工一刻》系列產(chǎn)業(yè)觀察欄目。在本欄目中,我們將對(duì)大模型產(chǎn)業(yè)熱點(diǎn)、技術(shù)創(chuàng)新、應(yīng)用案例進(jìn)行深度解讀,同時(shí)邀請(qǐng)學(xué)術(shù)專家、行業(yè)領(lǐng)袖分享優(yōu)秀的大模型行業(yè)趨勢、技術(shù)進(jìn)展,以饗讀者。

      MoE混合專家大模型最近究竟有多火?

      舉個(gè)例子,在此前的GTC 2024上,英偉達(dá)PPT上的一行小字,吸引了整個(gè)硅谷的目光。

      “GPT-MoE 1.8T”

      這行小字一出來,X(推特)上直接炸鍋了。

      “GPT-4采用了MoE架構(gòu)”,這條整個(gè)AI圈瘋傳已久的傳言,竟然被英偉達(dá)給“無意中”坐實(shí)了。消息一出,大量AI開發(fā)者們?cè)谏缃黄脚_(tái)上發(fā)帖討論,有的看戲吐槽、有的認(rèn)真分析、有的開展技術(shù)對(duì)比,一時(shí)好不熱鬧。

      MoE大模型的火熱,可見一斑。

      近半年多以來,各類MoE大模型更是層出不窮。在海外,OpenAI推出GPT-4、谷歌推出Gemini、Mistral AI推出Mistral、連馬斯克xAI的最新大模型Grok-1用的也是MoE架構(gòu)。

      而在國內(nèi),昆侖萬維也于今年4月17日正式推出了新版MoE大語言模型「天工3.0」,擁有4000億參數(shù),超越了3140億參數(shù)的Grok-1,成為全球最大的開源MoE大模型。

      MoE究竟是什么?它有哪些技術(shù)原理?它的優(yōu)勢和缺點(diǎn)是什么?它又憑什么能成為當(dāng)前最火的大模型技術(shù)?

      以上問題,本文將逐一回答。

      MoE核心邏輯:術(shù)業(yè)有專攻

      MoE,全稱Mixture of Experts,混合專家模型。

      MoE是大模型架構(gòu)的一種,其核心工作設(shè)計(jì)思路是“術(shù)業(yè)有專攻”,即將任務(wù)分門別類,然后分給多個(gè)“專家”進(jìn)行解決。

      與MoE相對(duì)應(yīng)的概念是稠密(Dense)模型,可以理解為它是一個(gè)“通才”模型。

      一個(gè)通才能夠處理多個(gè)不同的任務(wù),但一群專家能夠更高效、更專業(yè)地解決多個(gè)問題。

      (圖片來源:《GShard: Scaling Giant Models with Conditional Computation and Automatic Sharding》)

      上圖中,左側(cè)圖為傳統(tǒng)大模型架構(gòu),右圖為MoE大模型架構(gòu)。

      兩圖對(duì)比可以看到,與傳統(tǒng)大模型架構(gòu)相比,MoE架構(gòu)在數(shù)據(jù)流轉(zhuǎn)過程中集成了一個(gè)專家網(wǎng)絡(luò)層(紅框部分)。

      下圖為紅框內(nèi)容的放大展示:

      (圖片來源:Zian (Andy) Wang)

      專家網(wǎng)絡(luò)層的核心由門控網(wǎng)絡(luò)(Gating Network)和一組專家模型(Experts)構(gòu)成,其工作流程大致如下:

      1、數(shù)據(jù)首先會(huì)被分割多個(gè)區(qū)塊(Token),每組數(shù)據(jù)進(jìn)入專家網(wǎng)絡(luò)層時(shí),首先會(huì)進(jìn)入門控網(wǎng)絡(luò)。

      2、門控網(wǎng)絡(luò)將每組數(shù)據(jù)分配給一個(gè)或多個(gè)專家,每個(gè)專家模型可以專注于處理該部分?jǐn)?shù)據(jù),“讓專業(yè)的人做專業(yè)的事”。

      3、最終,所有專家的輸出結(jié)果匯總,系統(tǒng)進(jìn)行加權(quán)融合,得到最終輸出。

      當(dāng)然,以上只是一個(gè)概括性描述,關(guān)于門控網(wǎng)絡(luò)的位置、模型、專家數(shù)量、以及MoE與Transformer架構(gòu)的具體結(jié)合方案,各家方案都略有差別,但核心思路是一致的。

      與一個(gè)“通才網(wǎng)絡(luò)”相比,一組術(shù)業(yè)有專攻的“專家網(wǎng)絡(luò)”能夠提供更好的模型性能、更好地完成復(fù)雜的多種任務(wù),同時(shí),也能夠在不顯著增加計(jì)算成本的情況下大幅增加模型容量,讓萬億參數(shù)級(jí)別的大模型成為可能。

      Scaling Law:讓模型更大

      MoE之所以受到整個(gè)AI大模型行業(yè)的追捧,一個(gè)核心的原因是——今天的大模型,正迫切地需要變得更大。

      而這一切的原因,則要追溯到Scaling Law。

      Scaling Law,規(guī)模定律,也譯為縮放定律。這不是一個(gè)嚴(yán)格的數(shù)學(xué)定律,它只是用來描述物理、生物、計(jì)算機(jī)等學(xué)科中關(guān)于系統(tǒng)復(fù)雜屬性變化的規(guī)律。

      而在大語言模型里,從Scaling Law能夠衍生出一個(gè)通俗易懂的結(jié)論:

      “模型越大,性能越好。”

      更準(zhǔn)確的描述是:當(dāng)AI研究人員不斷增加大語言模型的參數(shù)規(guī)模時(shí),模型的性能將得到顯著提升,不僅能獲得強(qiáng)大的泛化能力,甚至出現(xiàn)智能涌現(xiàn)。

      自人工智能誕生以來,人們一直試圖設(shè)計(jì)出更巧妙的算法、更精密的架構(gòu),希望通過人類的智慧將機(jī)器設(shè)計(jì)得更聰明,達(dá)到通用人工智能。

      但以O(shè)penAI為代表的業(yè)內(nèi)另一種聲音說:“我反對(duì)!”

      2019年,機(jī)器學(xué)習(xí)先驅(qū)Rich Sutton曾經(jīng)發(fā)表過一篇經(jīng)典文章《The Bitter Lesson》,該文幾乎被全體OpenAI成員奉為圭臬。

      文中認(rèn)為,也許這種傳統(tǒng)方法是一種錯(cuò)誤的思路;也許試圖用人類智慧設(shè)計(jì)出通用人工智能的這個(gè)路徑,在過去幾十年間,讓整個(gè)行業(yè)都走了大量彎路,付出了苦澀的代價(jià)。

      而真正正確的路徑是:不斷擴(kuò)大模型規(guī)模,再砸進(jìn)去天文數(shù)字的強(qiáng)大算力,讓Scaling Law創(chuàng)造出更“聰明”的人工智能,而不是靠人類自己去設(shè)計(jì)。

      在這一輪大模型火起來之前,遵循這一思路的科學(xué)家一直是業(yè)內(nèi)的少數(shù)派,但自從GPT路線在自然語言處理上大獲成功之后,越來越多研究人員加入這一陣列。

      追求更大的模型,成為了人工智能性能突破的一大核心思路。

      然而問題隨之而來。

      眾所周知,隨著大模型越來越大,模型訓(xùn)練的困難程度、資源投入、訓(xùn)練時(shí)間都在指數(shù)型提升,可模型效果卻無法保證等比例提升。

      隨著模型越來越大,穩(wěn)定性也越來越差,種種綜合原因讓大模型參數(shù)量長久以來限制在百億與千億級(jí)別,難以進(jìn)一步擴(kuò)大。

      如何在有限的計(jì)算資源預(yù)算下,如何訓(xùn)練一個(gè)規(guī)模更大、效果更好的大模型,成為了困擾行業(yè)的問題。

      此時(shí),人們將目光投向了MoE。

      MoE:突破萬億參數(shù)大關(guān)

      早在1991年,兩位人工智能界的泰斗Michael Jordan與Geoffrey Hinton就聯(lián)手發(fā)布了MoE領(lǐng)域的奠基論文《Adaptive Mixtures of Local Experts》,正式開創(chuàng)了這一技術(shù)路徑。

      2020年,《GShard: Scaling Giant Models with Conditional Computation and Automatic Sharding》論文又首次將MoE技術(shù)引入到Transformer架構(gòu)中,拉開了“MoE+大模型”的大幕。

      2022年,Google《Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity》論文中提出的MoE大模型更是一舉突破了萬億參數(shù)大關(guān)。

      Switch Transformers模型參數(shù)達(dá)到1.57萬億,與此前的T5模型相比,在相同的計(jì)算資源下獲得高達(dá)7倍的模型預(yù)訓(xùn)練速度提升,并實(shí)現(xiàn)了4倍的模型加速。

      而正如文章開頭所言,本屆GTC上英偉達(dá)側(cè)面證實(shí)了那個(gè)公認(rèn)的傳言:OpenAI在2023年推出的GPT-4,同樣采用了MoE架構(gòu),其模型效果與計(jì)算效率都得到了顯著提升。

      總結(jié)起來,MoE在大模型領(lǐng)域的優(yōu)勢包括:

      1、與傳統(tǒng)的Dense模型相比,MoE能夠在遠(yuǎn)少于前者所需的計(jì)算資源下進(jìn)行有效的預(yù)訓(xùn)練,計(jì)算效率更高、速度更快,進(jìn)而使得模型規(guī)模得到顯著擴(kuò)大,獲得更好的AI性能。

      2、由于MoE在模型推理過程中能夠根據(jù)輸入數(shù)據(jù)的不同,動(dòng)態(tài)地選擇不同的專家網(wǎng)絡(luò)進(jìn)行計(jì)算,這種稀疏激活的特性能夠讓模型擁有更高的推理計(jì)算效率,從而讓用戶獲得更快的AI響應(yīng)速度。

      3、由于MoE架構(gòu)中集成了多個(gè)專家模型,每個(gè)專家模型都能針對(duì)不同的數(shù)據(jù)分布和構(gòu)建模式進(jìn)行搭建,從而顯著提升大模型在各個(gè)細(xì)分領(lǐng)域的專業(yè)能力,使得MoE在處理復(fù)雜任務(wù)時(shí)性能顯著變好。

      4、針對(duì)不同的專家模型,AI研究人員能夠針對(duì)特定任務(wù)或領(lǐng)域的優(yōu)化策略,并通過增加專家模型數(shù)量、調(diào)整專家模型的權(quán)重配比等方式,構(gòu)建更為靈活、多樣、可擴(kuò)展的大模型。

      不過,天下沒有免費(fèi)的性能提升,在擁有種種優(yōu)勢之于,MoE架構(gòu)也存在著不少挑戰(zhàn)。

      由于MoE需要把所有專家模型都加載在內(nèi)存中,這一架構(gòu)對(duì)于顯存的壓力將是巨大的,通常涉及復(fù)雜的算法和高昂的通信成本,并且在資源受限設(shè)備上部署受到很大限制。

      此外,隨著模型規(guī)模的擴(kuò)大,MoE同樣面臨著訓(xùn)練不穩(wěn)定性和過擬合的問題、以及如何確保模型的泛化性和魯棒性問題、如何平衡模型性能和資源消耗等種種問題,等待著大模型開發(fā)者們不斷優(yōu)化提升。

      結(jié)語

      總結(jié)來說,MoE架構(gòu)的核心思想是將一個(gè)復(fù)雜的問題分解成多個(gè)更小、更易于管理的子問題,并由不同的專家網(wǎng)絡(luò)分別處理。這些專家網(wǎng)絡(luò)專注于解決特定類型的問題,通過組合各自的輸出來提供最終的解決方案,提高模型的整體性能和效率。

      當(dāng)前,MoE仍舊是一個(gè)新興的大模型研究方向,研究資料少、資源投入大、技術(shù)門檻高,其研發(fā)之初仍舊以海外巨頭為主導(dǎo),國內(nèi)只有昆侖萬維等少數(shù)玩家能夠推出自研MoE大模型。

      不過,值得注意的是,雖然以擴(kuò)大模型參數(shù)為核心的“暴力出奇跡”路線主導(dǎo)了當(dāng)前的人工智能行業(yè)研究,但時(shí)至今日也沒有人能拍著胸脯保證,Scaling Law就是人類通往通用人工智能的唯一正確答案。

      從1991年正式提出至今,MoE架構(gòu)已歷經(jīng)了30年歲月;深度神經(jīng)網(wǎng)絡(luò)更是70年前就已提出的概念,直到近十多年間才取得突破,帶領(lǐng)人類攀上人工智能的又一座高峰。

      MoE不是人工智能技術(shù)前進(jìn)道路的終點(diǎn),它甚至不會(huì)是大模型技術(shù)的最終答案。未來,還將有大量感知、認(rèn)知、計(jì)算、智能領(lǐng)域的挑戰(zhàn)擺在研究者面前,等待著人們?nèi)ブ鹨唤鉀Q。

      所幸的是,怕什么真理無窮,進(jìn)一寸有一寸的歡喜。

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。

    即時(shí)

    TCL實(shí)業(yè)榮獲IFA2024多項(xiàng)大獎(jiǎng),展示全球科技創(chuàng)新力量

    近日,德國柏林國際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場的強(qiáng)大影響力。

    新聞

    敢闖技術(shù)無人區(qū) TCL實(shí)業(yè)斬獲多項(xiàng)AWE 2024艾普蘭獎(jiǎng)

    近日,中國家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。

    3C消費(fèi)

    “純臻4K 視界煥新”——愛普生4K 3LCD 激光工程投影

    2024年3月12日,由愛普生舉辦的主題為“純臻4K 視界煥新”新品發(fā)布會(huì)在上海盛大舉行。

    研究

    2024全球開發(fā)者先鋒大會(huì)即將開幕

    由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會(huì)主辦的“2024全球開發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。