前段時間,微軟公布并開源了最新一代大模型WizardLM-2,號稱性能堪比GPT-4。不過,還未上線一天,模型權(quán)重和公告全被刪除了,原因竟是......
上周,微軟空降了一個堪稱GPT-4級別的開源模型WizardLM-2。
卻沒想到發(fā)布幾小時之后,立馬被刪除了。
有網(wǎng)友突然發(fā)現(xiàn),WizardLM的模型權(quán)重、公告帖子全部被刪除,并且不再微軟集合中,除了提到站點(diǎn)之外,卻找不到任何證據(jù)證明這個微軟的官方項(xiàng)目。
GitHub項(xiàng)目主頁已成404。
包括模型在HF上的權(quán)重,也全部消失了.....
全網(wǎng)滿臉疑惑,WizardLM怎么沒了?
然鵝,微軟之所以這么做,是因?yàn)閳F(tuán)隊(duì)內(nèi)部忘記對模型做「測試」。
隨后,微軟團(tuán)隊(duì)現(xiàn)身道歉并解釋道,自幾個月前WizardLM發(fā)布以來有一段時間,所以我們對現(xiàn)在新的發(fā)布流程不太熟悉。
我們不小心遺漏了模型發(fā)布流程中所需的一項(xiàng)內(nèi)容 :投毒測試
微軟WizardLM升級二代
去年6月,基于LlaMA微調(diào)而來的初代WizardLM一經(jīng)發(fā)布,吸引了開源社區(qū)一大波關(guān)注。
論文地址:https://arxiv.org/pdf/2304.12244.pdf
隨后,代碼版的WizardCoder誕生——一個基于Code Llama,利用Evol-Instruct微調(diào)的模型。
測試結(jié)果顯示,WizardCoder在HumanEval上的pass@1達(dá)到了驚人的 73.2%,超越了原始GPT-4。
時間推進(jìn)到4月15日,微軟開發(fā)者官宣了新一代WizardLM,這一次是從Mixtral 8x22B微調(diào)而來。
它包含了三個參數(shù)版本,分別是8x22B、70B和7B。
最值得一提的是,在MT-Bench基準(zhǔn)測試中,新模型取得了領(lǐng)先的優(yōu)勢。
具體來說,最大參數(shù)版本的WizardLM 8x22B模型性能,幾乎接近GPT-4和Claude 3。
在相同參數(shù)規(guī)模下,70B版本位列第一。
而7B版本是最快的,甚至可以達(dá)到與,參數(shù)規(guī)模10倍大的領(lǐng)先模型相當(dāng)?shù)男阅堋?/p>
WizardLM 2出色表現(xiàn)的背后的秘訣在于,微軟開發(fā)的革命性訓(xùn)練方法論Evol-Instruct。
Evol-Instruct利用大型語言模型,迭代地將初始指令集改寫成越來越復(fù)雜的變體。然后,利用這些演化指令數(shù)據(jù)對基礎(chǔ)模型進(jìn)行微調(diào),從而顯著提高其處理復(fù)雜任務(wù)的能力。
另一個是強(qiáng)化學(xué)習(xí)框架RLEIF,也在WizardLM 2開發(fā)過程中起到了重要作用。
在WizardLM 2訓(xùn)練中,還采用了AI Align AI(AAA)方法,可以讓多個領(lǐng)先的大模型相互指導(dǎo)和改進(jìn)。
AAA框架由兩個主要的組件組成,分別是「共同教學(xué)」和「自學(xué)」。
共同教學(xué)這一階段,WizardLM和各種獲得許可的開源和專有先進(jìn)模型進(jìn)行模擬聊天、質(zhì)量評判、改進(jìn)建議和縮小技能差距。
通過相互交流和提供反饋,模型可向同行學(xué)習(xí)并完善自身能力。
對于自學(xué),WizardLM可通過主動自學(xué),為監(jiān)督學(xué)習(xí)生成新的進(jìn)化訓(xùn)練數(shù)據(jù),為強(qiáng)化學(xué)習(xí)生成偏好數(shù)據(jù)。
這種自學(xué)機(jī)制允許模型通過學(xué)習(xí)自身生成的數(shù)據(jù)和反饋信息來不斷提高性能。
另外,WizardLM 2模型的訓(xùn)練使用了生成的合成數(shù)據(jù)。
在研究人員看來,大模型的訓(xùn)練數(shù)據(jù)日益枯竭,相信AI精心創(chuàng)建的數(shù)據(jù)和AI逐步監(jiān)督的模型將是通往更強(qiáng)大人工智能的唯一途徑。
因此,他們創(chuàng)建了一個完全由AI驅(qū)動的合成訓(xùn)練系統(tǒng)來改進(jìn)WizardLM-2。
手快的網(wǎng)友,已經(jīng)下載了權(quán)重
然而,在資料庫被刪除之前,許多人已經(jīng)下載了模型權(quán)重。
在該模型被刪除之前,幾個用戶還在一些額外的基準(zhǔn)上進(jìn)行了測試。
好在測試的網(wǎng)友對7B模型感到印象深刻,并稱這將是自己執(zhí)行本地助理任務(wù)的首選模型。
還有人對其進(jìn)行了投毒測試,發(fā)現(xiàn)WizardLM-8x22B的得分為98.33,而基礎(chǔ)Mixtral-8x22B的得分為89.46,Mixtral 8x7B-Indict的得分為92.93。
得分越高越好,也就是說WizardLM-8x22B還是很強(qiáng)的。
如果沒有投毒測試,將模型發(fā)出來是萬萬不可的。
大模型容易產(chǎn)生幻覺,人盡皆知。
如果WizardLM 2在回答中輸出「有毒、有偏見、不正確」的內(nèi)容,對大模型來說并不友好。
尤其是,這些錯誤引來全網(wǎng)關(guān)注,對與微軟自身來說也會陷入非議之中,甚至?xí)划?dāng)局調(diào)查。
有網(wǎng)友疑惑道,你可以通過「投毒測試」更新指標(biāo)。為什么要刪除整個版本庫和權(quán)重?
微軟作者表示,根據(jù)內(nèi)部最新的規(guī)定,只能這樣操作。
還有人表示,我們就想要未經(jīng)「腦葉切除」的模型。
不過,開發(fā)者們還需要耐心等待,微軟團(tuán)隊(duì)承諾,會在測試完成后重新上線。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。