由北京大學、清華大學、鵬城實驗室、阿里巴巴達摩院以及理海大學(Lehigh University)組成的研究團隊,最新推出了 LLaVA-o1,這是首個具備自發(fā)性(Spontaneous,具體解釋可參考文末)、類似于 GPT-o1 的系統(tǒng)性推理視覺語言模型。
UP 主:唐國梁 Tommy
LLaVA-o1 是一種新型的視覺語言模型(VLM),其設(shè)計目標是進行自主的多階段推理。
LLaVA-o1 擁有 110 億個參數(shù),基于 Llama-3.2-Vision-Instruct 模型開發(fā),設(shè)計了總結(jié)(summary)、描述(caption)、推理(reasoning)和結(jié)論(conclusion)4 個推理階段。
該模型使用名為 LLaVA-o1-100k 的數(shù)據(jù)集進行微調(diào),該數(shù)據(jù)集源自視覺問答(VQA)來源和由 GPT-4o 生成的結(jié)構(gòu)化推理注釋。
LLaVA-o1 采用了階段級束搜索(stage-level beam search)的推理時間 Scaling 技術(shù),能夠在每個推理階段生成多個候選答案,并選取最佳答案。
該模型在處理復雜任務時具備較強的能力,在復雜視覺問答任務中,可以突破傳統(tǒng)視覺語言模型的局限性。
與基礎(chǔ)模型相比,LLaVA-o1 在多模態(tài)推理基準測試中提高了 8.9% 的性能,超過了許多大型和閉源的競爭對手。
LLaVA-o1 的推出填補了文本和視覺問答模型之間的重要空白,在多個基準測試中的優(yōu)異表現(xiàn),特別是在數(shù)學和科學視覺問題的推理領(lǐng)域,展示了結(jié)構(gòu)化推理在視覺語言模型中的重要性。
自發(fā)性人工智能(Spontaneous AI)是指能夠模擬動物自發(fā)行為的人工智能系統(tǒng)。這種技術(shù)的研究主要集中在如何通過機器學習和復雜的時間模式設(shè)計出具有自發(fā)行為的機器人或智能系統(tǒng)。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
11月11日,據(jù)網(wǎng)經(jīng)社數(shù)字零售臺(DR.100EC.CN)數(shù)據(jù)顯示,秋冬服飾仍是雙11的C位,女士針織衫、女士外套、女士羽絨服等位居服飾消費前列,女士夾克銷量同比增長72%,女士棉衣、女士羊毛衫銷量同比增長50%以上。男士外套銷量同比增長30%以上。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。