2024 vivo開(kāi)發(fā)者大會(huì)官宣:OriginOS 5/自研藍(lán)河系統(tǒng)2降臨真·AI程序員來(lái)了,阿里云「通義靈碼」全面進(jìn)化,全流程開(kāi)發(fā)僅用幾分鐘東方甄選烤腸全網(wǎng)銷(xiāo)量及銷(xiāo)售額領(lǐng)先鴻蒙PC要來(lái)了 界面很漂亮!余承東:目前華為PC將是最后一批搭載Windows上半年中國(guó)AR/VR出貨23.3萬(wàn)臺(tái),同比下滑了 29.1%IDC:2024 上半年中國(guó) AR / VR 頭顯出貨 23.3 萬(wàn)臺(tái),同比下滑 29.1%英特爾AI加速器Gaudi3下周發(fā)布,挑戰(zhàn)NVIDIA統(tǒng)治地位!大屏技術(shù)邂逅千年色彩美學(xué)!海信激光電視成為電影《只此青綠》官方合作伙伴OpenAI將最新AI模型o1擴(kuò)展到企業(yè)和教育領(lǐng)域三星新專利探索AR技術(shù)新應(yīng)用:檢測(cè)屏幕指紋殘留,提高手機(jī)安全性猛瑪傳奇C1:直播圖傳技術(shù)的革新者JFrog推出首個(gè)運(yùn)行時(shí)安全解決方案,實(shí)現(xiàn)從代碼到云的全面軟件完整性和可追溯性亞馬遜推出一大波生成式 AI 工具,購(gòu)物體驗(yàn)全面升級(jí)機(jī)器人公司1X推出世界模型Apple Intelligence測(cè)試版現(xiàn)已開(kāi)放革命性AI對(duì)話系統(tǒng)Moshi問(wèn)世:機(jī)器也能說(shuō)人話了?阿里國(guó)際推出最新多模態(tài)大模型 Ovis,看菜品就能提供烹飪步驟華為發(fā)布智聯(lián)集成行業(yè)解決方案,助力客戶打造行業(yè)領(lǐng)先的目標(biāo)網(wǎng)絡(luò)AI 3D生成天花板再拉升!清華團(tuán)隊(duì)煉成3D Scaling Law正在逐步覆蓋!騰訊提醒勿為實(shí)況圖重裝微信:以免丟失微信聊天記錄
  • 首頁(yè) > 云計(jì)算頻道 > 大模型

    天工大模型登頂多模態(tài)榜單!解決幻覺(jué)、跨語(yǔ)言兩大難題

    2023年09月06日 14:20:56   來(lái)源:微信公眾號(hào)量子位

      本文來(lái)自于微信公眾號(hào) 量子位 (ID:QbitAI),作者:豐色。

      國(guó)產(chǎn)大模型,登頂多模態(tài)榜單!

      昆侖萬(wàn)維最近在大模型圈可謂“風(fēng)生水起”。

      幾天前剛被曝挖來(lái)了AI大牛顏水成,出任天工智能聯(lián)席CEO。

      現(xiàn)在,其「天工」大模型Skywork-MM又登頂多模態(tài)榜單,在騰訊優(yōu)圖實(shí)驗(yàn)室聯(lián)合廈門(mén)大學(xué)開(kāi)展的多模態(tài)大語(yǔ)言模型(Multimodal Large Language Model,簡(jiǎn)稱“MLLM”)測(cè)評(píng)中,綜合得分排名第一。

      騰訊優(yōu)圖實(shí)驗(yàn)室聯(lián)合廈門(mén)大學(xué)在新建的評(píng)測(cè)基準(zhǔn)MME上首次對(duì)全球范圍內(nèi)MLLM模型進(jìn)行了全面定量評(píng)測(cè)并公布了16個(gè)排行榜,包含感知、認(rèn)知兩個(gè)總榜單以及14個(gè)子榜單。

      MME數(shù)據(jù)集是一個(gè)最近發(fā)布的多模態(tài)語(yǔ)言模型測(cè)評(píng)基準(zhǔn)。

      它通過(guò)大型多模態(tài)語(yǔ)言模型在涵蓋感知和認(rèn)知任務(wù)的14個(gè)子任務(wù)上的表現(xiàn)來(lái)全面評(píng)估模型。

      而Skywork-MM只用了不到50M的圖文數(shù)據(jù)——遠(yuǎn)小于其他大模型(>100M),拿下了第一(榜單地址見(jiàn)文末)。

      如何做到?

      主要是解決了現(xiàn)有多模態(tài)大模型中頗為困擾的兩大問(wèn)題:

      幻覺(jué)和較弱的跨語(yǔ)言能力。 多模態(tài)兩大難

      所謂幻覺(jué),是指多模態(tài)大模型在回答問(wèn)題時(shí),傾向于肯定的答案,即使我們所給的問(wèn)題中根本沒(méi)有相關(guān)特征。

      例如面對(duì)下面這張圖像。

      如果問(wèn)它“這個(gè)男人的頭發(fā)是什么顏色?”,即使優(yōu)秀如LLaVA、MiniGPT-4等多模態(tài)大模型,也會(huì)“睜著眼說(shuō)瞎話”:黑色。

      再如這張圖片:一個(gè)玻璃杯、一個(gè)茶杯、一個(gè)浴缸里面有條小金魚(yú)。

      如果問(wèn)它“圖片中的所有物品都是黃色的嗎?”,沒(méi)有誰(shuí)能答對(duì)。

      至于跨語(yǔ)言能力問(wèn)題,主要表現(xiàn)在應(yīng)對(duì)中文場(chǎng)景中的問(wèn)題回答不盡如人意。

      比如辨認(rèn)下面這張圖片是“科羅拉多大峽谷還是蘇州園林”時(shí),3個(gè)雙語(yǔ)多模態(tài)語(yǔ)言模型:LLaVA、 LLaVA-Chinese、ImageBind-LLm全部回答成前者。

      問(wèn)它們從哪里能觀賞到該景色,就更是一言難盡了。

      甚至有時(shí),模型還會(huì)直接回復(fù)純英文。

      這兩大問(wèn)題嚴(yán)重影響著現(xiàn)有多模態(tài)大模型的性能。

      怎么解決? 三方面入手

      昆侖萬(wàn)維天工大模型Skywork-MM從分別從數(shù)據(jù)、模型和訓(xùn)練流程三方面入手。

      其中重點(diǎn)是數(shù)據(jù)和模型。

      先看數(shù)據(jù)。

      首先對(duì)于幻覺(jué)問(wèn)題。

      從本質(zhì)出發(fā),該問(wèn)題主要是整個(gè)模型訓(xùn)練過(guò)程中使用的數(shù)據(jù)太偏重正樣本。

      也就是說(shuō),模型描述的都是圖片中有什么,而沒(méi)有學(xué)習(xí)圖片中沒(méi)有什么。

      如果訓(xùn)練過(guò)程中再碰上弱相關(guān)的圖文數(shù)據(jù),模型就更加放飛聯(lián)想、形成較嚴(yán)重的幻覺(jué)。

      為此,天工大模型多模態(tài)團(tuán)隊(duì)提出以圖像為中心,喂給模型既包含正樣本也包含負(fù)樣本的多模態(tài)指令微調(diào)數(shù)據(jù):

      這使得模型既能夠?qū)W習(xí)一張圖像中存在的視覺(jué)特征,也能學(xué)習(xí)到不存在的特征。

      這樣,模型的指令跟隨能力便得到增強(qiáng):問(wèn)什么答什么,沒(méi)有的也不胡編。

      其次,對(duì)于跨語(yǔ)言中的中文問(wèn)題,一共有兩個(gè)解決思路:

      (1)增強(qiáng)中文的指令追隨能力。

      由于“微調(diào)指令的文化gap很小”,只需將上面解決幻覺(jué)問(wèn)題中構(gòu)造的英文指令微調(diào)數(shù)據(jù)翻譯成中文使用。

      (2)增強(qiáng)中文相關(guān)場(chǎng)景的識(shí)別能力。

      需要注意的是,在解決跨語(yǔ)言問(wèn)題時(shí),我們重點(diǎn)關(guān)注的點(diǎn)是文化偏差——

      即通用的視覺(jué)特征和語(yǔ)言特征可以通過(guò)共有的語(yǔ)料進(jìn)行關(guān)聯(lián),但是各個(gè)語(yǔ)言文化中專有的視覺(jué)特征和語(yǔ)言特征的關(guān)聯(lián)需要大量特殊學(xué)習(xí)。

      因此我們需要加入大規(guī)模的中文圖像-文本對(duì)數(shù)據(jù)。

      不過(guò),這樣的中文語(yǔ)料并不好收集,一是囿于數(shù)據(jù)質(zhì)量,而是困于數(shù)量。

      怎么辦?

      引出Skywork-MM在模型架構(gòu)上的改進(jìn)。

      為了不讓低質(zhì)量的圖文數(shù)據(jù)影響模型效果,天工大模型多模態(tài)團(tuán)隊(duì)在設(shè)計(jì)上選擇將視覺(jué)模型和大語(yǔ)言模型完全凍結(jié)。

      這樣做的目的是保持視覺(jué)模型在前置CLIP訓(xùn)練中學(xué)習(xí)到的視覺(jué)特征不損失,以及大語(yǔ)言模型的語(yǔ)言能力不損失。

      同時(shí),為了更好的關(guān)聯(lián)不同文化環(huán)境中的視覺(jué)特征和語(yǔ)言特征,模型整體包含了一個(gè)可學(xué)習(xí)的視覺(jué)特征采樣器和語(yǔ)言模型的LoRA適配器。

      如下圖所示,Skywork-MM一共包含四大模塊:

      給定一張圖像,LVM先提取圖像特征,然后將圖像特征輸入到重采樣器中,計(jì)算出可為L(zhǎng)LM輸入的token。

      LLM接收token和指令提示(如果有),然后輸出圖像描述或?qū)?wèn)題的回答。

      至于訓(xùn)練流程,主要分為兩階段:

      第一階段使用雙語(yǔ)的大規(guī)模圖文對(duì)數(shù)據(jù)進(jìn)行圖像概念和語(yǔ)言概念的關(guān)聯(lián)學(xué)習(xí)。

      第二階段使用多模態(tài)微調(diào)數(shù)據(jù)進(jìn)行指令微調(diào)。

      此時(shí),各種類(lèi)型的指令微調(diào)數(shù)據(jù)(包括正樣本和負(fù)樣本)就組成統(tǒng)一的Chat Prompt形式。

      Ps. 上圖中的重采樣器和LoRA適配器標(biāo)記了火焰,它們是可訓(xùn)練的。 登頂MME綜合榜單

      如下表所示,Skywork-MM一共用了大約50M圖文數(shù)據(jù),這比當(dāng)前的同類(lèi)大模型都要少得多。

      但經(jīng)過(guò)以上數(shù)據(jù)、模型和訓(xùn)練流程三方面的改進(jìn),Skywork-MM效果拔群。

      如下圖所示:

      它能夠準(zhǔn)確理解圖片中的反常行為;

      也能聽(tīng)明白一些特殊的指令(根據(jù)選項(xiàng)回答問(wèn)題,根據(jù)風(fēng)景寫(xiě)詩(shī),寫(xiě)廣告詞,寫(xiě)獲獎(jiǎng)感言等等);

      對(duì)于中文場(chǎng)景問(wèn)題,表現(xiàn)得也不再像個(gè)“歪果仁”了。

      可謂擁有了良好的指令跟隨和中文場(chǎng)景問(wèn)答能力。

      因此像第一段展示的那些幻覺(jué)和跨語(yǔ)言問(wèn)題,它完全可以信手拈來(lái):

      孟非沒(méi)有頭發(fā)就沒(méi)有,不會(huì)說(shuō)成黑色;蘇州園林、非誠(chéng)勿擾節(jié)目一眼認(rèn)出;三個(gè)物體沒(méi)有一個(gè)是黃色。

      而如開(kāi)頭所示,在與其他模型的橫向測(cè)試中,Skywork-MM直接榮登MME榜單綜合第一,包括感知榜單第一(且與第二名有著43分的差距)、認(rèn)知榜單第二。

      這個(gè)榜單大約今年6月上線、目前GitHub4k標(biāo)星,是當(dāng)前多模態(tài)大模型最新的測(cè)評(píng)基準(zhǔn)之一。

      它一共包含14個(gè)子任務(wù),其中感知任務(wù)除OCR,還包括粗粒度和細(xì)粒度對(duì)象識(shí)別,前者識(shí)別對(duì)象的存在與否、數(shù)量、位置和顏色;后者識(shí)別電影海報(bào)、名人、場(chǎng)景、地標(biāo)和藝術(shù)品。

      認(rèn)知任務(wù)則包括常識(shí)推理、數(shù)值計(jì)算、文本翻譯和代碼推理。

      下表顯示Skywork-MM在該榜單感知任務(wù)中的OCR+粗粒度識(shí)別上的具體得分:

      細(xì)粒度識(shí)別得分:

      以及認(rèn)知任務(wù)得分:

      可以看到,能與Skywork-MM偶爾“平分秋色”的只有MiniGPT-4和BLIP系列。

      而除了MME榜單,Skywork-MM還在另一多模態(tài)基準(zhǔn)MMBench的開(kāi)發(fā)集上表現(xiàn)出色:

      進(jìn)步空間

      需要注意的是,盡管昆侖萬(wàn)維天工大模型這一最新成果,代表了當(dāng)前多模態(tài)大模型的最高水平,但它還是存在很多進(jìn)步空間。

      例如:

      文化和語(yǔ)言障礙仍然存在,還需要我們開(kāi)發(fā)一種多語(yǔ)言的LVM,更有效地提取不同文化特有的視覺(jué)特征,或者再收集更多各語(yǔ)言的大規(guī)模、高質(zhì)量圖像文本對(duì),確保模型準(zhǔn)確掌握視覺(jué)概念和文本概念的關(guān)聯(lián)。

      除此之外,目前的成果只建立在較小規(guī)模的基礎(chǔ)之上(13B),如果研究更大的多模態(tài)模型,我們?cè)谑褂脭?shù)據(jù)、參數(shù)設(shè)置、訓(xùn)練策略等方面可能都需要進(jìn)一步探索。

      評(píng)估基準(zhǔn)也還可以更全面,目前MME和MMBench的測(cè)試范圍都有限。

      以及從上面的粗粒度感知識(shí)別任務(wù)榜單來(lái)看,現(xiàn)有所有多模態(tài)大模型對(duì)于根據(jù)圖片準(zhǔn)確識(shí)別物體位置的能力(對(duì)實(shí)現(xiàn)機(jī)器人感知意義重大)都比較欠缺:

      最高的模型得分才33.33,離滿分100還有很大的差距。

      這個(gè)缺陷從下圖也可以看出:

      毫無(wú)疑問(wèn)的是,人工智能的未來(lái)一定是多模態(tài)的。

      以上這些問(wèn)題說(shuō)明,我們才剛剛開(kāi)始探索它真正的潛力。

      然而,我們相信,在一次又一次的榜單排名更迭之中,屬于多模態(tài)大模型的“ChatGPT時(shí)刻”終將會(huì)到來(lái)。

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。

    即時(shí)

    TCL實(shí)業(yè)榮獲IFA2024多項(xiàng)大獎(jiǎng),展示全球科技創(chuàng)新力量

    近日,德國(guó)柏林國(guó)際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場(chǎng)的強(qiáng)大影響力。

    新聞

    敢闖技術(shù)無(wú)人區(qū) TCL實(shí)業(yè)斬獲多項(xiàng)AWE 2024艾普蘭獎(jiǎng)

    近日,中國(guó)家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開(kāi)幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無(wú)人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來(lái)都要半個(gè)月了,現(xiàn)在方便多了!”打開(kāi)“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。

    3C消費(fèi)

    “純臻4K 視界煥新”——愛(ài)普生4K 3LCD 激光工程投影

    2024年3月12日,由愛(ài)普生舉辦的主題為“純臻4K 視界煥新”新品發(fā)布會(huì)在上海盛大舉行。

    研究

    2024全球開(kāi)發(fā)者先鋒大會(huì)即將開(kāi)幕

    由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開(kāi)放原子開(kāi)源基金會(huì)主辦的“2024全球開(kāi)發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。