下單前先比價不花冤枉錢 同款圖書京東價低于抖音6折日媒感慨中國電動汽車/智駕遙遙領(lǐng)先:本田、日產(chǎn)、三菱合并也沒戲消委會吹風(fēng)機品質(zhì)檢測結(jié)果揭曉 徠芬獨占鰲頭 共話新質(zhì)營銷力,2024梅花數(shù)據(jù)峰會圓滿落幕索尼影像專業(yè)服務(wù) PRO Support 升級,成為會員至少需注冊 2 臺 α 全畫幅相機、3 支 G 大師鏡頭消息稱vivo加碼電池軍備競賽:6500mAh 旗艦機+7500mAh中端機寶馬M8雙門轎跑車明年年初將停產(chǎn),后續(xù)無2026款車型比亞迪:2025 款漢家族車型城市領(lǐng)航智駕功能開啟內(nèi)測雷神預(yù)告2025年首次出席CES 將發(fā)布三款不同技術(shù)原理智能眼鏡realme真我全球首發(fā)聯(lián)發(fā)科天璣 8400 耐玩戰(zhàn)神共創(chuàng)計劃iQOO Z9 Turbo長續(xù)航版手機被曝電池加大到6400mAh,搭驍龍 8s Gen 3處理器普及放緩 銷量大跌:曝保時捷將重新評估電動汽車計劃來京東參與榮耀Magic7 RSR 保時捷設(shè)計預(yù)售 享365天只換不修國補期間電視迎來換機潮,最暢銷MiniLED品牌花落誰家?美團旗下微信社群團購業(yè)務(wù)“團買買”宣布年底停運消息稱微軟正與第三方廠商洽談,試圖合作推出Xbox游戲掌機設(shè)備在海外,要再造一個京東物流?消息稱蘋果正為AirPods開發(fā)多項健康功能,包括心率監(jiān)測和溫度感應(yīng)一加 Ace 5系列將搭載全新游戲助手:大幅提升游戲體驗東芝全部業(yè)務(wù)實現(xiàn)盈利,退市裁員重組后終于賺錢
  • 首頁 > 云計算頻道 > 大模型

    與Sora一樣能生成視頻、圖像,還能一次解讀100萬數(shù)據(jù)!

    2024年02月27日 10:45:43   來源:站長之家

      大語言模型(LLM)在生成文本內(nèi)容方面非常強,但在理解、生成視頻、圖像等方面略顯不足。尤其是在Sora一夜爆紅之后,讓人們意識到未來主流模型一定是文本+音頻+圖像+視頻的多模態(tài)生成、理解功能。

      因此,加州大學(xué)伯克利分校的研究人員開源了一種訓(xùn)練數(shù)據(jù)更多、理解能力更強的基礎(chǔ)模型——大世界模型(Large World Model,簡稱“LWM”)。

      LWM是一種通用的多模態(tài)自回歸模型,與前不久谷歌發(fā)布的Gemini1.5一樣,一次性可精準(zhǔn)解答100萬tokens的視頻、文本,例如,LWM可以正確回答1小時YouTube視頻中包含500多個視頻片段的問題。

      此外,LWM可以精準(zhǔn)檢索100萬tokens文本中的內(nèi)容,同時與Sora一樣具備文本生成視頻、圖像的能力。整體性能非常強悍,目前在github獲得超6000顆星,有純文本、視頻、圖像等多個版本模型可使用。

      LWM模型介紹

      在傳統(tǒng)的注意力機制中,例如,Transformer架構(gòu)中使用的自注意力,模型需要計算序列中每個元素對于其他所有元素的注意力得分,這就會面臨兩大難題。

      1)內(nèi)存需求上升:模型需要存儲每一對元素間的注意力得分,會隨著序列長度的增加而急劇增加內(nèi)存需求。

      2)計算復(fù)雜度:當(dāng)序列很長時,會導(dǎo)致巨大的算力負(fù)擔(dān)。

      LWM的核心技術(shù)是通過Ring Attention(環(huán)形注意力)在長序列上進行擴展訓(xùn)練,并使用Books3數(shù)據(jù)集從32000擴展到100萬標(biāo)記,而無需消耗額外的內(nèi)存、算力并降低計算復(fù)雜度。

      Ring Attention論文地址:https://arxiv.org/abs/2310.01889

      盡管Ring Attention減少了每個片段的直接交互范圍,但仍然允許信息在序列中傳遞,保持了模型對長距離依賴的捕捉能力,減少了長序列的處理損失度。

      這也是LWM能處理高達100萬tokens數(shù)據(jù)的原因之一。

      Ring Attention主要功能

      RingAttention是通過使用循環(huán)結(jié)構(gòu)來擴展,注意力機制的上下文大小。傳統(tǒng)的注意力機制在計算上下文相關(guān)性時,通常只關(guān)注序列中相對較近的位置。

      但在處理長序列時,遠距離的上下文信息也可能對模型的理解和推理能力至關(guān)重要。RingAttention通過引入環(huán)形結(jié)構(gòu)來解決這個難題。

      具體來說,使用了一種環(huán)形緩沖區(qū)來存儲先前計算的注意力權(quán)重。模型可以在計算當(dāng)前位置的注意力時,考慮到之前計算的位置的信息,從而無限擴展了上下文范圍,主要功能模塊如下。

      環(huán)狀分組:該模塊將輸入序列劃分為多個環(huán),每個環(huán)中的位置與其他環(huán)中的位置之間進行相關(guān)性計算。通過這種劃分方式,可以有效降低計算復(fù)雜度。

      環(huán)內(nèi)注意力:在每個環(huán)內(nèi),該模塊計算位置之間的相關(guān)性,并根據(jù)相關(guān)性的權(quán)重對位置進行加權(quán)。這樣,每個位置都可以獲得來自同一環(huán)的其他位置的信息。

      環(huán)間注意力:這個模塊負(fù)責(zé)計算不同環(huán)之間的相關(guān)性。通過將每個環(huán)的表示與其他環(huán)的表示進行比較,計算它們之間的相關(guān)性,這種跨環(huán)的交互有助于在不同環(huán)之間傳遞信息。

      環(huán)間投影:在環(huán)間注意力之后,該模塊將每個環(huán)的表示投影到一個共享的表示空間中,有助于進一步整合不同環(huán)之間的信息。

      通過這些關(guān)鍵模塊的協(xié)同工作,Ring Attention實現(xiàn)了對長序列的高效處理和建模,并為訓(xùn)練大規(guī)模模型提供了高效方法。

      LWM訓(xùn)練流程與數(shù)據(jù)

      第一階段是語言模型的預(yù)訓(xùn)練,主要擴展語言理解的上下文長度。LWM使用了Books3數(shù)據(jù)集, 從32,000tokens逐步擴展到100萬tokens,同時針對長序列的聊天任務(wù)進行了微調(diào)。

      第二階段是多模態(tài)的預(yù)訓(xùn)練,將視覺信息整合到語言模型中。LWM使用了大量包含圖像和視頻的公開數(shù)據(jù)集,例如,LAION-2B、COYO-700M、WebVid10M等。

      同時訓(xùn)練圖像-文本、視頻-文本等多種對齊格式。視頻以每秒4幀的速度提取關(guān)鍵幀,特別針對32K、128K和1M tokens長度進行了優(yōu)化訓(xùn)練。

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。

    即時

    新聞

    明火炊具市場:三季度健康屬性貫穿全類目

    奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。

    3C消費

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,高能實力,創(chuàng)

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。

    研究

    中國信通院羅松:深度解讀《工業(yè)互聯(lián)網(wǎng)標(biāo)識解析體系

    9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。