量子位 | 公眾號 QbitAI
僅需1塊80G顯卡,大模型理解小時級超長視頻。
智源研究院聯(lián)合上海交通大學、中國人民大學、北京大學和北京郵電大學等多所高校帶來最新成果超長視頻理解大模型Video-XL。
它借助語言模型(LLM)的原生能力對長視覺序列進行壓縮,不僅保留了短視頻理解的能力,而且在長視頻理解上展現(xiàn)了出色的泛化能力。
相較于同等參數(shù)規(guī)模的模型,Video-XL在多個主流長視頻理解基準評測的多項任務中排名第一。
而且在效率與性能之間實現(xiàn)了良好的平衡,僅需一塊80G顯存的顯卡即可處理2048幀輸入(對小時級長度視頻采樣),并在視頻“海中撈針”任務中取得了接近95%的準確率。
△圖一:不同長視頻模型在單塊80G顯卡上支持的最大幀數(shù)及在Video-MME上的表現(xiàn)
要知道,長視頻理解是多模態(tài)大模型的核心能力之一,也是邁向通用人工智能(AGI)的關鍵一步。
然而,現(xiàn)有的多模態(tài)大模型在處理10分鐘以上的超長視頻時,仍然面臨性能差和效率低的雙重挑戰(zhàn)。
Video-XL正是為此而來,模型代碼均已開源。
僅需幾秒鐘,VideoXL便可以準確檢索長視頻中植入的廣告內容(https://github.com/VectorSpaceLab/Video-XL/tree/main/examples),也可以像人類一樣準確理解電影中發(fā)生的主要事件。本視頻僅用于學術研究,如有問題,請隨時聯(lián)系。
未來,它有望在電影摘要、視頻異常檢測、廣告植入檢測等應用場景中展現(xiàn)出廣泛的應用價值,成為得力的長視頻理解助手。
超長視頻理解難平衡性能和效率
使用MLLM進行長視頻理解具有極大的研究和應用前景。然而,當前的視頻理解模型往往只能處理較短的視頻,無法處理十分鐘以上的視頻。
盡管最近研究社區(qū)出現(xiàn)了一些長視頻理解模型,但這些工作主要存在以下問題:
壓縮視覺token帶來的信息損失:為了使語言模型的固定窗口長度適應長視頻帶來的大量視覺token,眾多方法嘗試設計機制對視覺token進行壓縮,例如LLaMA-VID主要降低token的數(shù)量,而MovieChat, MALMM則設計memory模塊對幀信息進行壓縮。然而,壓縮視覺信息不可避免帶來信息的損失和性能降低。
性能和效率的不平衡:相關工作LongVA嘗試finetune語言模型擴大其上下文窗口,并成功將短視頻理解能力泛化到了長視頻上。LongVila優(yōu)化了長視頻訓練的開銷,提出了高效訓練長視頻訓練的范式。然而,這些工作并未考慮推理時視頻幀數(shù)增加帶來的計算開銷。
建立統(tǒng)一視覺編碼機制 模型結構
△圖二:Video-XL模型結構圖
如圖二所示,Video-XL的整體模型結構和主流的MLLMs結構相似,由視覺編碼器(CLIP), 視覺-語言映射器(2-layer MLP)以及語言模型(Qwen-7B)構成。
特別之處在于,為了處理各種格式的多模態(tài)數(shù)據(jù)(單圖,多圖和視頻),Video-XL建立了一個統(tǒng)一的視覺編碼機制。
針對多圖和視頻數(shù)據(jù),將每幀分別輸入CLIP;針對單圖,將其劃分為多個圖像塊,并將圖像塊輸入CLIP進行編碼。因此,一個N幀的視頻或者一個N圖像塊的圖片都將統(tǒng)一標記成 N × M 視覺tokens。
視覺上下文隱空間壓縮
相比于以往長視頻模型直接對視覺token壓縮,Video-XL嘗試利用語言模型對上下文的建模能力對長視覺序列進行無損壓縮。對于視覺語言連接器輸出的視覺信號序列:
其中n為視覺token的數(shù)量。Video-XL的目標在于將X壓縮成更為緊湊的視覺表示C (|C| < |X|)。在下文中將詳細介紹視覺上下文隱空間壓縮的原理。
受到Activation Beacon的啟發(fā),Video-XL引入了一種新的特殊標記,稱為視覺摘要標記(VST),記為 。基于此可以將視覺信號的隱層特征壓縮到VST在LLM中的激活表示中(每層的Key和Value值)。具體而言,首先將視覺信號序列X分成大小為w的窗口(默認每個窗口長度為1440):
接著,對每個窗口首先確定壓縮比,并插入一組VST標記,以交替的方式在視覺標記序列中插入。在該過程中,視覺token表示的變化可以由以下公式表達:
LLM將逐個處理每個窗口進行編碼,并使用額外的投影矩陣在每層自注意力模塊中處理VST的隱藏值。編碼完成后,普通視覺標記的激活值被丟棄,而VST的激活值被保留并累積,作為處理后續(xù)窗口時的視覺信號代理。
模型訓練方式 Video-XL通過優(yōu)化在壓縮視覺信號下的生成質量來進行訓練。下一個Token的預測通過以下公式進行計算:
其中,θ代表模型所有優(yōu)化的參數(shù),包含語言模型,視覺編碼器、視覺語言連接器、VST的投影矩陣,以及VST的token embedding。模型通過最小化標準的自回歸損失進行訓練,訓練過程中不計算VST標記的損失(其標簽設為-100),因為它們僅用于壓縮。同時,為了靈活支持不同的壓縮粒度,訓練時每個窗口的壓縮比會從{2,4,8,12,16}中隨機抽取。在推理時,可以根據(jù)具體的效率需求選擇一個壓縮比并應用于所有窗口。
模型訓練數(shù)據(jù)
在預訓練階段,Video-XL使用Laion-2M數(shù)據(jù)集優(yōu)化視覺語言連接器。在微調階段,Video-XL充分利用了MLLM在各種多模態(tài)數(shù)據(jù)集上的能力。對于單圖像數(shù)據(jù),使用了Bunny 695k和Sharegpt-4o的57k張圖片。對于多圖像數(shù)據(jù),使用了從MMDU提取的5k個數(shù)據(jù)。對于視頻數(shù)據(jù),收集了不同時長的視頻樣本,包括來自NExT-QA的32k樣本,Sharegpt-4o的2k視頻樣本,CinePile的10k樣本以及11k個帶有GPT-4V視頻字幕注釋的私有數(shù)據(jù)。
為了增強長視頻理解能力并釋放視覺壓縮機制的潛力,本工作開發(fā)了一個自動化的長視頻數(shù)據(jù)生產流程,并創(chuàng)建了一個高質量數(shù)據(jù)集——視覺線索順序數(shù)據(jù)(VICO)。該流程首先從CinePile數(shù)據(jù)或YouTube等視頻平臺獲取長視頻,涵蓋電影、紀錄片、游戲、體育等開放領域的內容。每個長視頻被分割成14秒的片段。對于每個片段,本工作使用VILA-1.5 40B模型生成詳細描述。這些描述包括動作序列和關鍵事件,基于這些字幕,本工作利用ChatGPT將線索按時間順序排列。VICO數(shù)據(jù)集通過要求模型檢索關鍵幀并檢測時間變化,提升其長視頻理解能力。
單項任務超越GPT-4o (一)評測基準
Video-XL選用多個主流視頻理解評測基準,對于長視頻理解任務,評測了VNBench, LongVideoBench, MLVU和Video-MME;對于短視頻理解任務,評測了MVBench和Next-QA。
(二)評測結果
1、長視頻理解:
△表一 Video-XL在MLVU和VideoMME的性能
△表二 Video-XL在VNBench和LongVideoBench上的性能
如表一,表二所示Video-XL在多個主流的長視頻評測基準上展現(xiàn)了卓越性能。其中在VNBench上準確率超過了目前最好的長視頻模型大約10%。
在MLVU的驗證集上,僅僅具有7B參數(shù)的Video-XL甚至在單項選擇任務上超越了GPT-4o模型。而在Video-MME和LongVideoBench等數(shù)據(jù)集上,Video-XL也在同等量級規(guī)模的長視頻理解模型中排名第一。
2、超長視頻理解:
Video-XL通過進行了視頻“大海撈針”測試來評估其處理超長上下文的能力。LLaVA-NexT-Video和LongLLaVA都采用了簡單的位置信息外推算法,但在輸入更多上下文時,仍然難以理解關鍵信息。
雖然LongVA通過微調LLM來處理更長的輸入,但高昂的計算成本限制了其在單塊80G GPU上處理約400幀的能力。相比之下,Video-XL在相同硬件條件下,以16倍壓縮比和2048幀輸入,達到了近95%的準確率。這表明,Video-XL在準確性和計算效率之間實現(xiàn)了最佳平衡。
3、短視頻理解:
盡管Video-XL的設計主要面向長視頻,但它保留了短視頻理解的能力。在MVBench和Next-QA任務評測中,Video-XL取得了和目前SOTA模型相當?shù)男Ч?/p>
(三)消融實驗
△表三 Video-XL的消融實驗
Video-XL對所提出的視覺壓縮機制和VICO數(shù)據(jù)集進行了消融實驗,如表三所示
1、視覺壓縮的有效性:
Video-XL使用Bunny 695k數(shù)據(jù)集訓練了兩個模型:一個不使用壓縮,另一個使用隨機壓縮比(從{2, 8, 16}中選取)。對于壓縮模型,在視頻基準MLVU和圖像基準MME、MMBench上測試時應用了不同的壓縮比。值得注意的是,即使使用16的壓縮比,壓縮模型在仍表現(xiàn)出較好的效果,接近甚至超越了基線模型。
2、VICO數(shù)據(jù)集的有效性:
Video-XL使用不同數(shù)據(jù)集訓練了四個模型:(a) 僅使用Bunny 695k;(b) Bunny 695k結合NeXTQA 32k;(c) Bunny 695k結合CinePile 10k;(d) Bunny 695k結合長視頻字幕5k;(e) Bunny 695k結合VICO 5k。值得注意的是,即使僅使用5k的VICO數(shù)據(jù),Video-XL也超過了使用NeXTQA 32k訓練的模型。此外,主要事件/動作排序任務比字幕生成任務帶來了更顯著的提升,因為它促使模型從長序列中提取關鍵片段并進行理解。
(四)可視化結果
△圖三 Video-XL 在長視頻理解任務上的可視化結果
目前。Video-XL的模型代碼均已開源,以促進全球多模態(tài)視頻理解研究社區(qū)的合作和技術共享。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。