微軟研究人員挑戰(zhàn)了語言模型(LM)預(yù)訓(xùn)練的傳統(tǒng)方法,該方法在訓(xùn)練語料庫中的所有token上均勻應(yīng)用下一個token預(yù)測損失。相反,他們提出了一種新的語言模型稱為 RHO-1,該模型利用選擇性語言建模(SLM)。
RHO-1方法通過選擇性訓(xùn)練與所需分布一致的有用token,而不是嘗試預(yù)測每一個下一個token。他們引入了 Rho-Math-v0.1模型,其中 Rho-Math-1B 和 Rho-Math-7B 在 MATH 數(shù)據(jù)集上分別實現(xiàn)了15.6% 和31.0% 的少樣本準確率,僅使用預(yù)訓(xùn)練token的3% 與 DeepSeekMath 相匹配。
Rho-Math-1B-Interpreter 是第一個在 MATH 數(shù)據(jù)集上實現(xiàn)超過40% 準確率的1B LLM。
Rho-Math-7B-Interpreter 在 MATH 數(shù)據(jù)集上實現(xiàn)52% 的準確率,僅使用69k 個樣本進行微調(diào)。
RHO-1的 SLM 方法涉及使用參考模型對預(yù)訓(xùn)練token進行評分,并使用更加專注的損失對具有更高多余損失的token進行語言模型訓(xùn)練。這種選擇性過程使 RHO-1能夠在持續(xù)預(yù)訓(xùn)練15B OpenWebMath 語料庫時,將9個數(shù)學(xué)任務(wù)的少樣本準確率提高高達30%。
該模型在微調(diào)后在 MATH 數(shù)據(jù)集上實現(xiàn)了最先進的結(jié)果,并且在80B 通用token預(yù)訓(xùn)練時,在15個不同任務(wù)中平均提升了6.8%。
傳統(tǒng)的訓(xùn)練方法通常使用啟發(fā)式和分類器在文檔級別上過濾數(shù)據(jù),以提高數(shù)據(jù)質(zhì)量和模型性能。然而,即使高質(zhì)量的數(shù)據(jù)集可能包含對訓(xùn)練產(chǎn)生負面影響的嘈雜token。
SLM 方法直接解決了這個問題,通過專注于token級別,并在預(yù)訓(xùn)練期間消除不需要的token損失。
在研究中,SLM 在預(yù)訓(xùn)練期間選擇的token與數(shù)學(xué)相關(guān),有效地調(diào)整了模型對原始語料庫的相關(guān)部分。研究人員在各個檢查點中調(diào)查了token過濾,發(fā)現(xiàn)后續(xù)檢查點選擇的token傾向于在訓(xùn)練的后期具有更高的困惑度,并在早期具有更低的困惑度。
討論部分強調(diào)了未來的工作,包括將 SLM 推廣至數(shù)學(xué)領(lǐng)域以外的領(lǐng)域,將該技術(shù)擴展至更大的模型和數(shù)據(jù)集,以及探索在評分token時是否需要訓(xùn)練參考模型。
對 SLM 的改進可能包括重新加權(quán)token而不是選擇它們,以及使用多個參考模型減少過擬合。
SLM 可以擴展到監(jiān)督微調(diào),以解決數(shù)據(jù)集中的噪聲和分布不匹配,并通過訓(xùn)練一個強調(diào)幫助性、真實性和無害性的參考模型來獲得在預(yù)訓(xùn)練期間獲得本地對齊的基本模型。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風(fēng)險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。