一項(xiàng)由斯坦福大學(xué)和 Mila 研究人員提出的新架構(gòu) “Hyena” 正在自然語言處理(NLP)社區(qū)中引起轟動,并被認(rèn)為可能顛覆現(xiàn)有的注意力機(jī)制系統(tǒng)。
該架構(gòu)通過長卷積和逐元素乘法門控制實(shí)現(xiàn)了與注意力機(jī)制相媲美的性能,同時(shí)降低了計(jì)算成本。通過在自動回歸語言建模和圖像分類方面進(jìn)行實(shí)驗(yàn),研究人員發(fā)現(xiàn) Hyena 能夠在性能上與注意力模型相媲美,并且具有更低的計(jì)算復(fù)雜度和參數(shù)數(shù)量。這項(xiàng)研究對于大規(guī)模語言模型的開發(fā)具有重要意義,并可能成為一種高效的替代方案。
研究人員在論文中提到:
二次算子可以大規(guī)模匹配注意力模型的質(zhì)量,而無需在參數(shù)和優(yōu)化成本方面付出高昂的代價(jià);谟嗅槍π缘耐评砣蝿(wù),作者提煉出了對其性能有貢獻(xiàn)的三個最重要的屬性。
數(shù)據(jù)控制
次線性參數(shù)縮放
不受上下文限制。
考慮到這些要點(diǎn),他們隨后引入了鬣狗等級制度。這個新算子結(jié)合了長卷積和逐元素乘法門控,以匹配大規(guī)模注意力的質(zhì)量,同時(shí)降低計(jì)算成本。
進(jìn)行的實(shí)驗(yàn)揭示了令人震驚的結(jié)果。
語言建模。
Hyena 的擴(kuò)展性在自回歸語言模型上進(jìn)行了測試,在基準(zhǔn)數(shù)據(jù)集 WikiText103和 The Pile 上對困惑度進(jìn)行評估時(shí),發(fā)現(xiàn) Hyena 是第一個與 GPT 質(zhì)量相匹配的無注意力卷積架構(gòu),總 FLOPS 降低了20%。
WikiText103上的困惑(相同的分詞器)。* 是來自(Dao 等人,2022c)的結(jié)果。更深更薄的模型(Hyena-slim)可實(shí)現(xiàn)更低的困惑度
訓(xùn)練模型的堆上的困惑,直到令牌總數(shù)達(dá)到50億(每個令牌總數(shù)不同)。所有模型都使用相同的分詞器 (GPT2)。FLOP 計(jì)數(shù)針對150億代幣運(yùn)行
大規(guī)模圖像分類
該論文展示了 Hyena 作為圖像分類通用深度學(xué)習(xí)算子的潛力。在圖像翻譯方面,他們用 Hyena 算子替換了 Vision Transformer(ViT)中的注意力層,并將性能與 ViT 進(jìn)行匹配。
在 CIFAR-2D 上,我們在標(biāo)準(zhǔn)卷積架構(gòu)中測試了2D 版本的 Hyena 長卷積濾波器,該濾波器在2D 長卷積模型 S4ND(Nguyen 等人,2022)的精度上進(jìn)行了改進(jìn),加速率提高了8%,參數(shù)減少了25% 。
在十億級參數(shù)規(guī)模上取得的有希望的結(jié)果表明,注意力可能不是我們所需要的全部,并且像鬣狗這樣的更簡單的二次設(shè)計(jì),通過簡單的指導(dǎo)原則和對機(jī)械可解釋性基準(zhǔn)的評估,構(gòu)成了高效大型模型的基礎(chǔ)。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。