冰雪大世界盛大開園,美的空調橫跨50℃打造“東北夏威夷”臺灣小土豆勇闖冰雪大世界,美的空調真暖快車成為最熱打卡點京東iPhone 16系列年底大放價!至高補貼1200元價格低過11.11新一季圓滿假期結伴大使出發(fā)在即 LG電子十年相伴助力溫暖傳遞中國聯(lián)通組織“魅力亞冬,與智慧同行” 主題采訪活動“萬象分區(qū)”引領電視行業(yè)新潮流,TCL這步棋下得著實漂亮!百度職業(yè)院校專屬項目“大國智匠”引領職業(yè)教育新范式百度大模型助力2024年碼蹄杯程序設計大賽,全國高校學子展現(xiàn)卓越編程實力碼蹄杯人物特寫:四位編程少年的追夢之旅金倉數(shù)據(jù)庫四項成果入選2024星河案例亞信科技參加2024通信產業(yè)大會 CTO歐陽曄博士等做主題演講用專業(yè)贏得信賴 美好蘊育潤康引領孕產營養(yǎng)新風尚解鎖新成就!愛企查“度秘書”粉絲突破10萬!英特爾終止x86S架構計劃:純64位設計再度戛然而止豆包大模型全面升級,相關概念股瘋漲,字節(jié)發(fā)布緊急警示申通、圓通、韻達發(fā)布 11 月簡報:快遞業(yè)務量、收入均同比增長,單票收入均下降SensorTower發(fā)11月中國手游全球收入排行榜 庫洛入榜“YO!原”千里來相會 華為智能生活館·太原茂業(yè)重裝開業(yè)微軟承認并調查Microsoft 365 應用出現(xiàn)“產品已停用”錯誤SK 海力士被曝贏得博通HBM訂單,預計明年 1b DRAM 月產能將擴大到 16~17 萬片
  • 首頁 > 云計算頻道 > 大模型

    一塊顯卡理解一部電影,最新超長視頻理解大模型出爐!“大海撈針”準確率近95%,代碼已開源

    2024年10月28日 17:13:12   來源:量子位公眾號

      量子位 | 公眾號 QbitAI

      僅需1塊80G顯卡,大模型理解小時級超長視頻。

      智源研究院聯(lián)合上海交通大學、中國人民大學、北京大學和北京郵電大學等多所高校帶來最新成果超長視頻理解大模型Video-XL。

      它借助語言模型(LLM)的原生能力對長視覺序列進行壓縮,不僅保留了短視頻理解的能力,而且在長視頻理解上展現(xiàn)了出色的泛化能力。

      相較于同等參數(shù)規(guī)模的模型,Video-XL在多個主流長視頻理解基準評測的多項任務中排名第一。

      而且在效率與性能之間實現(xiàn)了良好的平衡,僅需一塊80G顯存的顯卡即可處理2048幀輸入(對小時級長度視頻采樣),并在視頻“海中撈針”任務中取得了接近95%的準確率。

      △圖一:不同長視頻模型在單塊80G顯卡上支持的最大幀數(shù)及在Video-MME上的表現(xiàn)

      要知道,長視頻理解是多模態(tài)大模型的核心能力之一,也是邁向通用人工智能(AGI)的關鍵一步。

      然而,現(xiàn)有的多模態(tài)大模型在處理10分鐘以上的超長視頻時,仍然面臨性能差和效率低的雙重挑戰(zhàn)。

      Video-XL正是為此而來,模型代碼均已開源。

      僅需幾秒鐘,VideoXL便可以準確檢索長視頻中植入的廣告內容(https://github.com/VectorSpaceLab/Video-XL/tree/main/examples),也可以像人類一樣準確理解電影中發(fā)生的主要事件。本視頻僅用于學術研究,如有問題,請隨時聯(lián)系。

      未來,它有望在電影摘要、視頻異常檢測、廣告植入檢測等應用場景中展現(xiàn)出廣泛的應用價值,成為得力的長視頻理解助手。

      超長視頻理解難平衡性能和效率

      使用MLLM進行長視頻理解具有極大的研究和應用前景。然而,當前的視頻理解模型往往只能處理較短的視頻,無法處理十分鐘以上的視頻。

      盡管最近研究社區(qū)出現(xiàn)了一些長視頻理解模型,但這些工作主要存在以下問題:

      壓縮視覺token帶來的信息損失:為了使語言模型的固定窗口長度適應長視頻帶來的大量視覺token,眾多方法嘗試設計機制對視覺token進行壓縮,例如LLaMA-VID主要降低token的數(shù)量,而MovieChat, MALMM則設計memory模塊對幀信息進行壓縮。然而,壓縮視覺信息不可避免帶來信息的損失和性能降低。

      性能和效率的不平衡:相關工作LongVA嘗試finetune語言模型擴大其上下文窗口,并成功將短視頻理解能力泛化到了長視頻上。LongVila優(yōu)化了長視頻訓練的開銷,提出了高效訓練長視頻訓練的范式。然而,這些工作并未考慮推理時視頻幀數(shù)增加帶來的計算開銷。

      建立統(tǒng)一視覺編碼機制 模型結構

      △圖二:Video-XL模型結構圖

      如圖二所示,Video-XL的整體模型結構和主流的MLLMs結構相似,由視覺編碼器(CLIP), 視覺-語言映射器(2-layer MLP)以及語言模型(Qwen-7B)構成。

      特別之處在于,為了處理各種格式的多模態(tài)數(shù)據(jù)(單圖,多圖和視頻),Video-XL建立了一個統(tǒng)一的視覺編碼機制。

      針對多圖和視頻數(shù)據(jù),將每幀分別輸入CLIP;針對單圖,將其劃分為多個圖像塊,并將圖像塊輸入CLIP進行編碼。因此,一個N幀的視頻或者一個N圖像塊的圖片都將統(tǒng)一標記成 N × M 視覺tokens。

      視覺上下文隱空間壓縮

      相比于以往長視頻模型直接對視覺token壓縮,Video-XL嘗試利用語言模型對上下文的建模能力對長視覺序列進行無損壓縮。對于視覺語言連接器輸出的視覺信號序列:

      其中n為視覺token的數(shù)量。Video-XL的目標在于將X壓縮成更為緊湊的視覺表示C (|C| < |X|)。在下文中將詳細介紹視覺上下文隱空間壓縮的原理。

      受到Activation Beacon的啟發(fā),Video-XL引入了一種新的特殊標記,稱為視覺摘要標記(VST),記為 。基于此可以將視覺信號的隱層特征壓縮到VST在LLM中的激活表示中(每層的Key和Value值)。具體而言,首先將視覺信號序列X分成大小為w的窗口(默認每個窗口長度為1440):

      接著,對每個窗口首先確定壓縮比,并插入一組VST標記,以交替的方式在視覺標記序列中插入。在該過程中,視覺token表示的變化可以由以下公式表達:

      LLM將逐個處理每個窗口進行編碼,并使用額外的投影矩陣在每層自注意力模塊中處理VST的隱藏值。編碼完成后,普通視覺標記的激活值被丟棄,而VST的激活值被保留并累積,作為處理后續(xù)窗口時的視覺信號代理。

      模型訓練方式 Video-XL通過優(yōu)化在壓縮視覺信號下的生成質量來進行訓練。下一個Token的預測通過以下公式進行計算:

      其中,θ代表模型所有優(yōu)化的參數(shù),包含語言模型,視覺編碼器、視覺語言連接器、VST的投影矩陣,以及VST的token embedding。模型通過最小化標準的自回歸損失進行訓練,訓練過程中不計算VST標記的損失(其標簽設為-100),因為它們僅用于壓縮。同時,為了靈活支持不同的壓縮粒度,訓練時每個窗口的壓縮比會從{2,4,8,12,16}中隨機抽取。在推理時,可以根據(jù)具體的效率需求選擇一個壓縮比并應用于所有窗口。

      模型訓練數(shù)據(jù)

      在預訓練階段,Video-XL使用Laion-2M數(shù)據(jù)集優(yōu)化視覺語言連接器。在微調階段,Video-XL充分利用了MLLM在各種多模態(tài)數(shù)據(jù)集上的能力。對于單圖像數(shù)據(jù),使用了Bunny 695k和Sharegpt-4o的57k張圖片。對于多圖像數(shù)據(jù),使用了從MMDU提取的5k個數(shù)據(jù)。對于視頻數(shù)據(jù),收集了不同時長的視頻樣本,包括來自NExT-QA的32k樣本,Sharegpt-4o的2k視頻樣本,CinePile的10k樣本以及11k個帶有GPT-4V視頻字幕注釋的私有數(shù)據(jù)。

      為了增強長視頻理解能力并釋放視覺壓縮機制的潛力,本工作開發(fā)了一個自動化的長視頻數(shù)據(jù)生產流程,并創(chuàng)建了一個高質量數(shù)據(jù)集——視覺線索順序數(shù)據(jù)(VICO)。該流程首先從CinePile數(shù)據(jù)或YouTube等視頻平臺獲取長視頻,涵蓋電影、紀錄片、游戲、體育等開放領域的內容。每個長視頻被分割成14秒的片段。對于每個片段,本工作使用VILA-1.5 40B模型生成詳細描述。這些描述包括動作序列和關鍵事件,基于這些字幕,本工作利用ChatGPT將線索按時間順序排列。VICO數(shù)據(jù)集通過要求模型檢索關鍵幀并檢測時間變化,提升其長視頻理解能力。

      單項任務超越GPT-4o (一)評測基準

      Video-XL選用多個主流視頻理解評測基準,對于長視頻理解任務,評測了VNBench, LongVideoBench, MLVU和Video-MME;對于短視頻理解任務,評測了MVBench和Next-QA。

      (二)評測結果

      1、長視頻理解:

      △表一 Video-XL在MLVU和VideoMME的性能

      △表二 Video-XL在VNBench和LongVideoBench上的性能

      如表一,表二所示Video-XL在多個主流的長視頻評測基準上展現(xiàn)了卓越性能。其中在VNBench上準確率超過了目前最好的長視頻模型大約10%。

      在MLVU的驗證集上,僅僅具有7B參數(shù)的Video-XL甚至在單項選擇任務上超越了GPT-4o模型。而在Video-MME和LongVideoBench等數(shù)據(jù)集上,Video-XL也在同等量級規(guī)模的長視頻理解模型中排名第一。

      2、超長視頻理解:

      Video-XL通過進行了視頻“大海撈針”測試來評估其處理超長上下文的能力。LLaVA-NexT-Video和LongLLaVA都采用了簡單的位置信息外推算法,但在輸入更多上下文時,仍然難以理解關鍵信息。

      雖然LongVA通過微調LLM來處理更長的輸入,但高昂的計算成本限制了其在單塊80G GPU上處理約400幀的能力。相比之下,Video-XL在相同硬件條件下,以16倍壓縮比和2048幀輸入,達到了近95%的準確率。這表明,Video-XL在準確性和計算效率之間實現(xiàn)了最佳平衡。

      3、短視頻理解:

      盡管Video-XL的設計主要面向長視頻,但它保留了短視頻理解的能力。在MVBench和Next-QA任務評測中,Video-XL取得了和目前SOTA模型相當?shù)男Ч?/p>

      (三)消融實驗

      △表三 Video-XL的消融實驗

      Video-XL對所提出的視覺壓縮機制和VICO數(shù)據(jù)集進行了消融實驗,如表三所示

      1、視覺壓縮的有效性:

      Video-XL使用Bunny 695k數(shù)據(jù)集訓練了兩個模型:一個不使用壓縮,另一個使用隨機壓縮比(從{2, 8, 16}中選取)。對于壓縮模型,在視頻基準MLVU和圖像基準MME、MMBench上測試時應用了不同的壓縮比。值得注意的是,即使使用16的壓縮比,壓縮模型在仍表現(xiàn)出較好的效果,接近甚至超越了基線模型。

      2、VICO數(shù)據(jù)集的有效性:

      Video-XL使用不同數(shù)據(jù)集訓練了四個模型:(a) 僅使用Bunny 695k;(b) Bunny 695k結合NeXTQA 32k;(c) Bunny 695k結合CinePile 10k;(d) Bunny 695k結合長視頻字幕5k;(e) Bunny 695k結合VICO 5k。值得注意的是,即使僅使用5k的VICO數(shù)據(jù),Video-XL也超過了使用NeXTQA 32k訓練的模型。此外,主要事件/動作排序任務比字幕生成任務帶來了更顯著的提升,因為它促使模型從長序列中提取關鍵片段并進行理解。

      (四)可視化結果

      △圖三 Video-XL 在長視頻理解任務上的可視化結果

      目前。Video-XL的模型代碼均已開源,以促進全球多模態(tài)視頻理解研究社區(qū)的合作和技術共享。

      文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。

    即時

    新聞

    明火炊具市場:三季度健康屬性貫穿全類目

    奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。

    企業(yè)IT

    重慶創(chuàng)新公積金應用,“區(qū)塊鏈+政務服務”顯成效

    “以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。

    3C消費

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,高能實力,創(chuàng)

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。

    研究

    中國信通院羅松:深度解讀《工業(yè)互聯(lián)網(wǎng)標識解析體系

    9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。