科學(xué)家們在世界上最強大的超級計算機上取得了巨大突破,僅使用其8%的計算能力,成功訓(xùn)練了一個與ChatGPT規(guī)模相當?shù)哪P。這項研究來自著名的Oak Ridge National Laboratory,他們在Frontier超級計算機上采用了創(chuàng)新技術(shù),僅使用數(shù)千個AMD GPU就訓(xùn)練出了一個擁有萬億參數(shù)的語言模型。
通常,訓(xùn)練像OpenAI的ChatGPT這樣規(guī)模的語言模型需要一個龐大的超級計算機。然而,F(xiàn)rontier團隊采用了分布式訓(xùn)練策略,通過優(yōu)化并行架構(gòu),僅使用Frontier計算能力的8%就成功完成了這一任務(wù)。具體而言,他們采用了隨機數(shù)據(jù)并行和張量并行等技術(shù),以降低節(jié)點之間的通信,同時處理內(nèi)存限制。
這項研究的結(jié)果顯示,在1750億參數(shù)和1萬億參數(shù)模型的情況下,弱擴展效率達到了100%。此外,這個項目還取得了這兩個模型的強擴展效率分別為89%和87%。
然而,訓(xùn)練擁有萬億參數(shù)的大型語言模型始終是一個具有挑戰(zhàn)性的任務(wù)。研究人員指出,這個模型的體積至少為14TB,而Frontier中的一塊MI250X GPU只有64GB。他們強調(diào),需要進一步研究和開發(fā)方法來克服內(nèi)存問題。
在面臨大批次大小導(dǎo)致的損失發(fā)散問題時,研究人員提出,未來關(guān)于大規(guī)模系統(tǒng)訓(xùn)練時間的研究必須改善大批次訓(xùn)練,并采用更小的每副本批次大小。此外,研究人員呼吁在AMD GPU上進行更多工作,指出目前大多數(shù)大規(guī)模模型訓(xùn)練都是在支持Nvidia解決方案的平臺上進行的。盡管研究人員為在非Nvidia平臺上高效訓(xùn)練大型語言模型提供了“藍圖”,但他們認為有必要更深入地研究在AMD GPU上的高效訓(xùn)練性能。
Frontier在最近的Top500榜單中保持其作為最強大超級計算機的地位,超過了Intel推出的Aurora超級計算機。這項研究為未來訓(xùn)練巨大語言模型提供了寶貴的經(jīng)驗和方法,同時也突顯了分布式訓(xùn)練和并行計算在實現(xiàn)這一目標上的關(guān)鍵作用。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風(fēng)險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。