前段時(shí)間,微軟公布并開源了最新一代大模型WizardLM-2,號(hào)稱性能堪比GPT-4。不過,還未上線一天,模型權(quán)重和公告全被刪除了,原因竟是......
上周,微軟空降了一個(gè)堪稱GPT-4級(jí)別的開源模型WizardLM-2。
卻沒想到發(fā)布幾小時(shí)之后,立馬被刪除了。
有網(wǎng)友突然發(fā)現(xiàn),WizardLM的模型權(quán)重、公告帖子全部被刪除,并且不再微軟集合中,除了提到站點(diǎn)之外,卻找不到任何證據(jù)證明這個(gè)微軟的官方項(xiàng)目。
GitHub項(xiàng)目主頁(yè)已成404。
包括模型在HF上的權(quán)重,也全部消失了.....
全網(wǎng)滿臉疑惑,WizardLM怎么沒了?
然鵝,微軟之所以這么做,是因?yàn)閳F(tuán)隊(duì)內(nèi)部忘記對(duì)模型做「測(cè)試」。
隨后,微軟團(tuán)隊(duì)現(xiàn)身道歉并解釋道,自幾個(gè)月前WizardLM發(fā)布以來有一段時(shí)間,所以我們對(duì)現(xiàn)在新的發(fā)布流程不太熟悉。
我們不小心遺漏了模型發(fā)布流程中所需的一項(xiàng)內(nèi)容 :投毒測(cè)試
微軟WizardLM升級(jí)二代
去年6月,基于LlaMA微調(diào)而來的初代WizardLM一經(jīng)發(fā)布,吸引了開源社區(qū)一大波關(guān)注。
論文地址:https://arxiv.org/pdf/2304.12244.pdf
隨后,代碼版的WizardCoder誕生——一個(gè)基于Code Llama,利用Evol-Instruct微調(diào)的模型。
測(cè)試結(jié)果顯示,WizardCoder在HumanEval上的pass@1達(dá)到了驚人的 73.2%,超越了原始GPT-4。
時(shí)間推進(jìn)到4月15日,微軟開發(fā)者官宣了新一代WizardLM,這一次是從Mixtral 8x22B微調(diào)而來。
它包含了三個(gè)參數(shù)版本,分別是8x22B、70B和7B。
最值得一提的是,在MT-Bench基準(zhǔn)測(cè)試中,新模型取得了領(lǐng)先的優(yōu)勢(shì)。
具體來說,最大參數(shù)版本的WizardLM 8x22B模型性能,幾乎接近GPT-4和Claude 3。
在相同參數(shù)規(guī)模下,70B版本位列第一。
而7B版本是最快的,甚至可以達(dá)到與,參數(shù)規(guī)模10倍大的領(lǐng)先模型相當(dāng)?shù)男阅堋?/p>
WizardLM 2出色表現(xiàn)的背后的秘訣在于,微軟開發(fā)的革命性訓(xùn)練方法論Evol-Instruct。
Evol-Instruct利用大型語(yǔ)言模型,迭代地將初始指令集改寫成越來越復(fù)雜的變體。然后,利用這些演化指令數(shù)據(jù)對(duì)基礎(chǔ)模型進(jìn)行微調(diào),從而顯著提高其處理復(fù)雜任務(wù)的能力。
另一個(gè)是強(qiáng)化學(xué)習(xí)框架RLEIF,也在WizardLM 2開發(fā)過程中起到了重要作用。
在WizardLM 2訓(xùn)練中,還采用了AI Align AI(AAA)方法,可以讓多個(gè)領(lǐng)先的大模型相互指導(dǎo)和改進(jìn)。
AAA框架由兩個(gè)主要的組件組成,分別是「共同教學(xué)」和「自學(xué)」。
共同教學(xué)這一階段,WizardLM和各種獲得許可的開源和專有先進(jìn)模型進(jìn)行模擬聊天、質(zhì)量評(píng)判、改進(jìn)建議和縮小技能差距。
通過相互交流和提供反饋,模型可向同行學(xué)習(xí)并完善自身能力。
對(duì)于自學(xué),WizardLM可通過主動(dòng)自學(xué),為監(jiān)督學(xué)習(xí)生成新的進(jìn)化訓(xùn)練數(shù)據(jù),為強(qiáng)化學(xué)習(xí)生成偏好數(shù)據(jù)。
這種自學(xué)機(jī)制允許模型通過學(xué)習(xí)自身生成的數(shù)據(jù)和反饋信息來不斷提高性能。
另外,WizardLM 2模型的訓(xùn)練使用了生成的合成數(shù)據(jù)。
在研究人員看來,大模型的訓(xùn)練數(shù)據(jù)日益枯竭,相信AI精心創(chuàng)建的數(shù)據(jù)和AI逐步監(jiān)督的模型將是通往更強(qiáng)大人工智能的唯一途徑。
因此,他們創(chuàng)建了一個(gè)完全由AI驅(qū)動(dòng)的合成訓(xùn)練系統(tǒng)來改進(jìn)WizardLM-2。
手快的網(wǎng)友,已經(jīng)下載了權(quán)重
然而,在資料庫(kù)被刪除之前,許多人已經(jīng)下載了模型權(quán)重。
在該模型被刪除之前,幾個(gè)用戶還在一些額外的基準(zhǔn)上進(jìn)行了測(cè)試。
好在測(cè)試的網(wǎng)友對(duì)7B模型感到印象深刻,并稱這將是自己執(zhí)行本地助理任務(wù)的首選模型。
還有人對(duì)其進(jìn)行了投毒測(cè)試,發(fā)現(xiàn)WizardLM-8x22B的得分為98.33,而基礎(chǔ)Mixtral-8x22B的得分為89.46,Mixtral 8x7B-Indict的得分為92.93。
得分越高越好,也就是說WizardLM-8x22B還是很強(qiáng)的。
如果沒有投毒測(cè)試,將模型發(fā)出來是萬(wàn)萬(wàn)不可的。
大模型容易產(chǎn)生幻覺,人盡皆知。
如果WizardLM 2在回答中輸出「有毒、有偏見、不正確」的內(nèi)容,對(duì)大模型來說并不友好。
尤其是,這些錯(cuò)誤引來全網(wǎng)關(guān)注,對(duì)與微軟自身來說也會(huì)陷入非議之中,甚至?xí)划?dāng)局調(diào)查。
有網(wǎng)友疑惑道,你可以通過「投毒測(cè)試」更新指標(biāo)。為什么要?jiǎng)h除整個(gè)版本庫(kù)和權(quán)重?
微軟作者表示,根據(jù)內(nèi)部最新的規(guī)定,只能這樣操作。
還有人表示,我們就想要未經(jīng)「腦葉切除」的模型。
不過,開發(fā)者們還需要耐心等待,微軟團(tuán)隊(duì)承諾,會(huì)在測(cè)試完成后重新上線。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
近日,德國(guó)柏林國(guó)際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場(chǎng)的強(qiáng)大影響力。
近日,中國(guó)家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無(wú)人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會(huì)主辦的“2024全球開發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。