近日,研究人員在解決大型語言模型(LLM)精細調(diào)整的高成本和計算資源限制方面取得了重要突破。由斯坦福大學(xué)和加州大學(xué)伯克利分校的研究人員合作開發(fā)的S-LoRA技術(shù),使得在單個圖形處理單元(GPU)上運行數(shù)千個LLM模型成為現(xiàn)實。
通常,對LLM進行精細調(diào)整是企業(yè)定制人工智能功能以適應(yīng)特定任務(wù)和個性化用戶體驗的重要工具。然而,這一過程通常伴隨著巨大的計算和財務(wù)開銷,限制了中小型企業(yè)的應(yīng)用。為解決這一難題,研究人員提出了一系列算法和技術(shù),其中S-LoRA技術(shù)成為最新的亮點。
S-LoRA采用了LoRA的方法,該方法由Microsoft開發(fā),通過識別LLM基礎(chǔ)模型中足夠用于精細調(diào)整的最小參數(shù)子集,將可調(diào)整參數(shù)數(shù)量減少數(shù)個數(shù)量級,同時保持與全參數(shù)調(diào)整相當(dāng)?shù)臏蚀_性水平。這極大地減少了個性化模型所需的內(nèi)存和計算資源。
盡管LoRA在精細調(diào)整中的有效性已經(jīng)在人工智能社區(qū)廣泛應(yīng)用,但在單個GPU上運行多個LoRA模型仍然面臨一些技術(shù)挑戰(zhàn),主要是內(nèi)存管理和批處理過程。S-LoRA通過引入動態(tài)內(nèi)存管理系統(tǒng)和"Unified Paging"機制成功解決了這些挑戰(zhàn),實現(xiàn)了多個LoRA模型的高效服務(wù)。
在評估中,S-LoRA在服務(wù)Meta的Llama模型時表現(xiàn)出色,相較于Hugging Face PEFT,吞吐量提高了30倍,同時成功服務(wù)了2,000個適配器,而計算開銷增加微不足道。這使得企業(yè)能夠以較低的成本提供個性化的LLM驅(qū)動服務(wù),從內(nèi)容創(chuàng)作到客戶服務(wù)等領(lǐng)域都有廣泛應(yīng)用前景。
S-LoRA的研究人員表示,該技術(shù)主要面向個性化LLM服務(wù),服務(wù)提供商可以通過相同的基礎(chǔ)模型為用戶提供不同的適配器,這些適配器可以根據(jù)用戶的歷史數(shù)據(jù)進行調(diào)整。此外,S-LoRA還支持與上下文學(xué)習(xí)相容,通過添加最新數(shù)據(jù)作為上下文,進一步提升LLM的響應(yīng)效果。
該技術(shù)的代碼已經(jīng)在GitHub上開源,研究人員計劃將其整合到常見的LLM服務(wù)框架中,以便企業(yè)能夠輕松地將S-LoRA納入其應(yīng)用中。這一創(chuàng)新為企業(yè)提供了更廣闊的LLM應(yīng)用空間,同時降低了運行成本,推動了個性化AI服務(wù)的發(fā)展。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。