在多模態(tài)大型語言模型(MLLMs)領域取得顯著進展的同時,盡管在輸入端多模態(tài)理解方面取得了顯著進展,但在多模態(tài)內(nèi)容生成領域仍存在明顯的空白。為填補這一空白,騰訊人工智能實驗室與悉尼大學聯(lián)手推出了GPT4Video,這是一個統(tǒng)一的多模態(tài)框架,賦予大型語言模型(LLMs)獨特的視頻理解和生成能力。
研究團隊的主要貢獻可以總結(jié)如下:
1.引入了GPT4Video,這是一個多功能框架,為LLMs提供了視頻理解和生成的能力。
2. 提出了一種簡單而有效的微調(diào)方法,旨在增強視頻生成的安全性,成為常用RLHF方法的一種吸引人的替代方案。
3. 釋放數(shù)據(jù)集,以促進未來在多模態(tài)LLMs領域的研究。
GPT4Video是對現(xiàn)有多模態(tài)大型語言模型(MLLMs)局限性的回應,盡管這些模型在處理多模態(tài)輸入方面表現(xiàn)出色,但在生成多模態(tài)輸出方面存在不足。GPT4Video的架構(gòu)包括三個重要組件:
1. **視頻理解模塊:** 利用視頻特征提取器和視頻摘要生成器,將視頻信息編碼并對齊到LLM的詞嵌入空間。
2. **LLM主體:** 借鑒LLaMA結(jié)構(gòu),采用參數(shù)高效微調(diào)(PEFT)方法,特別是LoRA,同時保留原始預訓練參數(shù)。
3. **視頻生成組件:** 通過精心構(gòu)建的指令跟蹤數(shù)據(jù)集,使LLM生成模型庫中模型的提示。
團隊首先利用凍結(jié)的ViT-L/14模型捕捉原始視頻特征,然后使用視頻抽象模塊在時間和空間軸上壓縮視頻信息。GPT4Video的核心由凍結(jié)的LLaMA模型驅(qū)動,通過LoRA和自定義的視頻中心化、安全對齊數(shù)據(jù)進行高效微調(diào)。這使其能夠理解視頻并生成適當?shù)囊曨l提示,隨后用于從Textto-Video模型庫中生成視頻。
在各種多模態(tài)基準測試中的實驗結(jié)果,包括開放式問答、視頻字幕和文本到視頻生成,驗證了GPT4Video的有效性和普適性。此外,GPT4Video展示了利用LLMs強大的上下文摘要和文本表達能力為視頻生成詳細提示的能力。
GPT4Video通過整合先進的視頻理解和生成功能,顯著提升了大型語言模型的性能。其在多模態(tài)基準測試中表現(xiàn)出色進一步強調(diào)了其卓越性能。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術、產(chǎn)品設計及應用方面的創(chuàng)新變革,全球領先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術和新品亮相,以敢為精神勇闖技術無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導,由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。