清華大學(xué)與智譜AI合作開發(fā)的CogVLM-17B是一款國(guó)產(chǎn)多模態(tài)模型,具有卓越的性能。該模型不僅可以識(shí)別圖像中的對(duì)象,還能分辨完整可見和部分可見的物體。
CogVLM-17B已經(jīng)在10項(xiàng)權(quán)威跨模態(tài)基準(zhǔn)上取得了SOTA(State-of-the-Art)性能,并在多個(gè)領(lǐng)域超越了谷歌的模型。它被形象地稱為“14邊形戰(zhàn)士”,展現(xiàn)了其多模態(tài)處理的出色能力。
試玩地址:
https://36.103.203.44:7861
開源及論文地址:
https://github.com/THUDM/CogVLM
CogVLM-17B采用了獨(dú)特的深度融合方法,通過四個(gè)關(guān)鍵組件實(shí)現(xiàn)了圖像特征和文本特征的深度對(duì)齊。這些組件包括ViT編碼器、MLP適配器、大型預(yù)訓(xùn)練語言模型以及視覺專家模塊。與傳統(tǒng)的淺層對(duì)齊方法相比,CogVLM-17B的深度融合方法提高了性能,同時(shí)避免了微調(diào)語言模型的全部參數(shù)可能損害NLP任務(wù)性能的問題。
CogVLM-17B在視覺問題解決方面表現(xiàn)出色,包括識(shí)別復(fù)雜場(chǎng)景中的對(duì)象、回答關(guān)于圖像內(nèi)容的問題、解決帶圖的編程題等。
此外,它還展示了出色的文字識(shí)別能力,盡管沒有專門的OCR數(shù)據(jù)進(jìn)行訓(xùn)練。CogVLM-17B已經(jīng)開源,并提供了在線試玩,雖然目前僅支持英文,但計(jì)劃在未來提供中英雙語版本。
這款國(guó)產(chǎn)多模態(tài)模型的出現(xiàn),不僅豐富了多模態(tài)領(lǐng)域的技術(shù)研究,還為各種視覺問題的解決提供了強(qiáng)大的工具。其深度融合方法的創(chuàng)新性標(biāo)志著多模態(tài)模型訓(xùn)練范式的改變,為未來的研究和應(yīng)用提供了新的思路和可能性。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
近日,德國(guó)柏林國(guó)際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場(chǎng)的強(qiáng)大影響力。
近日,中國(guó)家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會(huì)主辦的“2024全球開發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。