全球AI領(lǐng)導(dǎo)者英偉達(dá)(Nvidia)開源了超強(qiáng)大模型——Llama-3.1-Nemotron-70B-Instruct。
根據(jù)測(cè)試數(shù)據(jù)顯示,這個(gè)模型已經(jīng)擊敗GPT-4o、GPT-4turbo、Gemma-2、Gemini-1.5、Claude-3.5sonnet等140多個(gè)開閉源模型,僅次于OpenAI發(fā)布的最新模型o1。
Nemotron的基礎(chǔ)模型是基于Llama-3.1-70B開發(fā)而成,這個(gè)沒什么新奇。但在訓(xùn)練的過程使用了一種新的混合訓(xùn)練方法,將Bradley-Terry和Regression一起用于訓(xùn)練獎(jiǎng)勵(lì)模型。
值得一提的是,英偉達(dá)把Nemotron的訓(xùn)練數(shù)據(jù)集也開源了,這對(duì)于開發(fā)同類型或超過Nemotron的模型非常重要,因?yàn)檫@個(gè)是使用混合訓(xùn)練方法的關(guān)鍵所在。
有網(wǎng)友表示,英偉達(dá)熱衷于不斷開源超強(qiáng)模型,一方面有大量資金資助他們的科研人員研發(fā),另外主要目的還是為了賣GPU以及培養(yǎng)開發(fā)生態(tài)。而Meta依托他的社交帝國(guó),在商業(yè)化和資金方面都不愁。
最愁的便是那些大模型初創(chuàng)企業(yè)了,錢拼不過這些巨頭,商業(yè)落地和名氣更不用提。所以,很多小企業(yè)可能會(huì)因?yàn)榫揞^的碾壓,很快會(huì)出現(xiàn)資金斷裂等各種問題。
很高興看到AI領(lǐng)域的競(jìng)爭(zhēng),正在以驚人的速度推動(dòng)行業(yè)向前發(fā)展。
這可是重磅開源。
為了新模型,買兩個(gè)4090爽一下吧。
模型是免費(fèi)的,但運(yùn)行的硬件可不免費(fèi)啊。
我正在測(cè)試這個(gè)模型,我是一個(gè)高級(jí)AI用戶說說使用心得:在商業(yè)寫作方面,似乎比Claude3和ChatGPT聰明一些。但它依然會(huì)犯一些錯(cuò)誤,相比于普通的3.170b Instruct,確實(shí)更聰明。
Nvidia可以以1000倍更低的成本實(shí)現(xiàn)這一點(diǎn)。如果Nvidia真的原意這么做,那么將無人能與之競(jìng)爭(zhēng)。
創(chuàng)新混合訓(xùn)練方法
在訓(xùn)練大模型的過程中,為了確保模型在實(shí)際使用中能夠準(zhǔn)確地理解并遵循用戶的提示指令,準(zhǔn)確進(jìn)行翻譯、文本生成、問答等任務(wù),獎(jiǎng)勵(lì)模型發(fā)揮了很重要的作用,主要通過為模型的輸出打分,指導(dǎo)模型生成更高質(zhì)量的回答來實(shí)現(xiàn)。
目前,主流的獎(jiǎng)勵(lì)模型方法主要有Bradley-Terry和Regression兩種:Bradley-Terry風(fēng)格的獎(jiǎng)勵(lì)模型起源于統(tǒng)計(jì)學(xué)中的排名理論,通過最大化被選擇響應(yīng)和被拒絕響應(yīng)之間的獎(jiǎng)勵(lì)差距。這種方法強(qiáng)調(diào)在給定的提示下,用戶會(huì)選擇哪個(gè)響應(yīng),從而為模型提供了一種直接的、基于偏好的反饋。
Regression則借鑒了心理學(xué)中的評(píng)分量表,通過預(yù)測(cè)特定提示下響應(yīng)的分?jǐn)?shù)來訓(xùn)練模型。這種方法允許模型對(duì)響應(yīng)的質(zhì)量進(jìn)行更細(xì)致的評(píng)估,但可能不如基于偏好的方法直觀。
但這兩種方法都有明顯的缺點(diǎn),Bradley-Terry需要用戶在兩個(gè)響應(yīng)中選擇一個(gè);而回歸風(fēng)格的模型需要評(píng)分?jǐn)?shù)據(jù),用戶需要為每個(gè)響應(yīng)打分才能幫助模型提升性能。所以,英偉達(dá)直接把兩個(gè)模型的優(yōu)點(diǎn)放在一起使用來解決這個(gè)難題。
首先是需要開發(fā)一個(gè)包含評(píng)分和偏好注釋的數(shù)據(jù)集HELPSTEER2-PREFERENCE。研究人員是在HELPSTEER2基礎(chǔ)上添加偏好注釋。
這些偏好注釋不僅包括用戶在兩個(gè)響應(yīng)中選擇一個(gè)的偏好方向,還包括用戶對(duì)這種偏好的強(qiáng)度評(píng)分。為了確保數(shù)據(jù)的質(zhì)量和可解釋性,還要求注釋者為他們的偏好提供書面說明。
在訓(xùn)練這種新型混合方法時(shí),研究人員使用AdamW優(yōu)化器來訓(xùn)練模型,通過引入權(quán)重衰減和梯度裁剪來提高訓(xùn)練的穩(wěn)定性和效率。
為了進(jìn)一步提高模型性能,使用了ExPO在訓(xùn)練過程中對(duì)模型的權(quán)重進(jìn)行外推,可以進(jìn)一步提高模型的性能。可以使模型在訓(xùn)練時(shí)更加關(guān)注那些差異較大的響應(yīng)對(duì),從而提高模型的區(qū)分能力。
此外,研究人員還進(jìn)行了廣泛的超參數(shù)搜索,以找到最佳的學(xué)習(xí)率和KL懲罰項(xiàng)。這些超參數(shù)對(duì)于模型的訓(xùn)練至關(guān)重要,因?yàn)樗鼈冎苯佑绊懙侥P偷氖諗克俣群妥罱K性能。
HELPSTEER2-PREFERENCE數(shù)據(jù)集
為了開發(fā)這個(gè)多元化滿足新的混合訓(xùn)練方法數(shù)據(jù)集,在數(shù)據(jù)注釋的過程中,每一對(duì)回應(yīng)都經(jīng)過3—5名標(biāo)注者的評(píng)價(jià)。這些標(biāo)注者需要從多個(gè)維度對(duì)每個(gè)回應(yīng)進(jìn)行評(píng)分,包括有用性、準(zhǔn)確性、連貫性、復(fù)雜性和冗長(zhǎng)程度等。為了更好地理解背后的原因,標(biāo)注者還需要提供簡(jiǎn)短的文字說明,解釋為何選擇了某個(gè)回應(yīng)作為更好的答案。這種方法不僅增強(qiáng)了數(shù)據(jù)的透明度,也為后續(xù)分析提供了豐富的上下文信息。
研究人員還使用了嚴(yán)格的數(shù)據(jù)預(yù)處理步驟來保證數(shù)據(jù)質(zhì)量。例如,他們會(huì)識(shí)別出每個(gè)任務(wù)中相似度最高的三個(gè)偏好注釋,然后取這三個(gè)注釋的平均值并四舍五入到最接近的整數(shù),以此作為該任務(wù)的整體偏好得分。
同時(shí),為了排除那些標(biāo)注者意見分歧較大的樣本,研究人員們會(huì)過濾掉那些注釋之間差異超過一定范圍的任務(wù)。這些措施共同作用,有效提升了數(shù)據(jù)的可靠性和一致性。
根據(jù)測(cè)試數(shù)據(jù)顯示,使用HELPSTEER2-PREFERENCE數(shù)據(jù)集訓(xùn)練的模型性能非常強(qiáng),在RewardBench評(píng)測(cè)中達(dá)到了94.1的高分,超過了同期幾乎所有其他模型的表現(xiàn)。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
11月11日,據(jù)網(wǎng)經(jīng)社數(shù)字零售臺(tái)(DR.100EC.CN)數(shù)據(jù)顯示,秋冬服飾仍是雙11的C位,女士針織衫、女士外套、女士羽絨服等位居服飾消費(fèi)前列,女士夾克銷量同比增長(zhǎng)72%,女士棉衣、女士羊毛衫銷量同比增長(zhǎng)50%以上。男士外套銷量同比增長(zhǎng)30%以上。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡(jiǎn)直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會(huì)——工業(yè)互聯(lián)網(wǎng)標(biāo)識(shí)解析專題論壇在沈陽成功舉辦。