Refuel AI 最近宣布推出兩個新版本的大型語言模型(LLM),RefuelLLM-2和 RefuelLLM-2-small,這兩個模型專為數(shù)據(jù)標注、清洗和豐富任務(wù)而設(shè)計,旨在提高處理大規(guī)模數(shù)據(jù)集的效率。
RefuelLLM-2的主要特點包括:
自動化數(shù)據(jù)標注:能夠自動識別和標記數(shù)據(jù)中的關(guān)鍵信息,如分類數(shù)據(jù)和解析特定屬性。
數(shù)據(jù)清洗:自動檢測并修正數(shù)據(jù)中的錯誤或不一致性,例如拼寫錯誤和格式問題。
數(shù)據(jù)豐富:根據(jù)現(xiàn)有數(shù)據(jù)自動補充缺失信息或提供額外上下文,增加數(shù)據(jù)的價值和可用性。
高準確率:在約30項數(shù)據(jù)標注任務(wù)的基準測試中,RefuelLLM-2以83.82%的準確率優(yōu)于所有其他最先進的大型語言模型,包括 GPT-4-Turbo 和 Claude-3-Opus。
兩款模型的比較:
RefuelLLM-2:基于 Mixtral-8x7B 模型,支持高達32K的最大輸入上下文長度,適合處理長文本輸入。
RefuelLLM-2-small:基于 Llama3-8B 模型,提供一個成本更低、運行更快的選項,同時保持高性能,支持高達8K的輸入上下文長度。
訓練細節(jié):
兩款模型都在超過2750個數(shù)據(jù)集上進行訓練,涵蓋分類、閱讀理解、結(jié)構(gòu)化屬性提取和實體解析等任務(wù)。
訓練方法:包括兩個階段,第一階段專注于指令調(diào)整訓練,第二階段則加入更長上下文的輸入,以提高模型在復雜數(shù)據(jù)處理任務(wù)中的表現(xiàn)。
性能提升:
兩階段訓練方法使得 RefuelLLM-2在基本數(shù)據(jù)處理任務(wù)中表現(xiàn)出色,并能有效處理長上下文輸入。
質(zhì)量評估:
在長上下文數(shù)據(jù)集和非公開數(shù)據(jù)集的評估中,RefuelLLM-2和 RefuelLLM-2-small 均展現(xiàn)出良好的性能和泛化能力。
在置信度分數(shù)質(zhì)量方面,RefuelLLM-2和 RefuelLLM-2-small 顯示出比其他模型更好的置信度分數(shù)校準。
Refuel AI 的這一創(chuàng)新為數(shù)據(jù)標注和清洗領(lǐng)域帶來了新的解決方案,有助于自動化和優(yōu)化大規(guī)模數(shù)據(jù)處理流程。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。