UC伯克利的研究人員提出了一項名為RingAttention的新方法,以解決深度學(xué)習(xí)模型中內(nèi)存需求的挑戰(zhàn)。在最新的研究中,研究人員探討了Transformer模型在處理長序列時面臨的問題,特別是由于自注意力機制引發(fā)的內(nèi)存需求。這一問題已經(jīng)成為了在人工智能領(lǐng)域中提高模型性能的一個重要挑戰(zhàn)。
Transformer模型是一種在自然語言處理等領(lǐng)域取得了重大突破的深度學(xué)習(xí)架構(gòu)。它基于自注意力機制,可以在進行預(yù)測時權(quán)衡輸入序列的不同部分的重要性。然而,隨著輸入序列長度的增加,內(nèi)存需求呈二次增長,這導(dǎo)致了在處理長序列時的挑戰(zhàn)。
UC伯克利的研究人員提出了RingAttention方法,通過將自注意力和前饋網(wǎng)絡(luò)計算分塊進行,可以將輸入序列分布到多個設(shè)備上,從而實現(xiàn)內(nèi)存高效。這一方法的關(guān)鍵思想是將計算塊塊塊地分布在多個設(shè)備上,同時保持內(nèi)存消耗與塊大小成比例。這意味著每個設(shè)備的內(nèi)存需求與原始輸入序列長度無關(guān),從而消除了設(shè)備內(nèi)存的限制。
研究人員的實驗證明,RingAttention可以將Transformer模型的內(nèi)存需求降低,使其能夠訓(xùn)練比以前的內(nèi)存高效方法長500倍以上的序列,而不需要對注意力機制進行近似。此外,RingAttention還允許處理長度超過1億的序列,為處理大規(guī)模數(shù)據(jù)提供了可能性。
盡管這項研究僅涉及方法的有效性評估,而未進行大規(guī)模訓(xùn)練模型,但這一方法的性能取決于設(shè)備數(shù)量,因此還需要進一步的優(yōu)化。研究人員表示,他們將來計劃在最大序列長度和最大計算性能方面進行更多研究,這將為大型視頻-音頻-語言模型、利用擴展反饋和試驗錯誤學(xué)習(xí)、代碼生成和理解科學(xué)數(shù)據(jù)等領(lǐng)域提供激動人心的機會。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。