研究人員從清華大學(xué)和北京理工大學(xué)開發(fā)了 DRAGIN,這是一種針對大型語言模型設(shè)計的動態(tài)檢索增強生成框架。
該框架旨在通過在文本生成過程中實時確定何時以及如何檢索外部信息,從而提高語言模型的性能。為了解決當(dāng)前方法在確定何時進(jìn)行檢索和檢索內(nèi)容方面過于靜態(tài)的問題,DRAGIN 引入了 RIND 和 QFS 兩個關(guān)鍵組件。其中,RIND 主要用于確定檢索時機,考慮語言模型的不確定性和令牌重要性;而 QFS 則用于構(gòu)建查詢,利用上下文的自注意力機制優(yōu)先選擇與當(dāng)前上下文相關(guān)的令牌。通過這種動態(tài)檢索的方式,DRAGIN 在四個知識密集型數(shù)據(jù)集上表現(xiàn)出色,而且無需額外的訓(xùn)練或提示工程。
傳統(tǒng)的單輪檢索增強方法通過將初始輸入作為查詢,將外部知識引入到語言模型中。以往的研究已經(jīng)深入探討了這種方法,例如 REPLUG 使用語言模型生成檢索模型的訓(xùn)練數(shù)據(jù),UniWeb 則自我評估是否需要檢索。然而,對于需要大量外部知識的復(fù)雜任務(wù),多輪檢索變得至關(guān)重要。DRAGIN 則采用了新穎的多輪檢索方法,通過 FLARE 在遇到不確定令牌時觸發(fā)檢索,從而提高檢索相關(guān)性,同時考慮了語言模型的實時信息需求。
DRAGIN 是一個旨在解決語言模型動態(tài)檢索增強方法的框架。通過 RIND 和 QFS 優(yōu)化檢索激活時機和查詢精度,使得在知識密集型任務(wù)上取得更好的性能。盡管它依賴于基于 Transformer 的語言模型的自注意力機制,但 DRAGIN 展現(xiàn)出了顯著的有效性。未來的工作旨在克服與自注意力可訪問性相關(guān)的限制,并對查詢構(gòu)建技術(shù)的影響進(jìn)行評估。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。