Meta日前發(fā)布了一種可以識別圖像中的哪個像素屬于哪個對象的全新人工智能工具Segment Anything Model(SAM),而團隊表示SAM最終可以識別通過AR眼鏡看到的日常對象,并根據(jù)用戶的注視點來交互顯示物品的相關(guān)信息。
SAM可以執(zhí)行計算機視覺觀察和理解周圍世界過程的基礎(chǔ)任務(wù)segment。根據(jù)研究人員的說法,SAM能夠理解對象是什么的一般概念,并可以為任何圖像或視頻中的任何對象生成掩碼,甚至包括訓(xùn)練中沒有遇到的對象和圖像類型。換句話說,它可以猜測不同的對象是什么。
SAM不需要你展示數(shù)百種不同的折疊紙巾就可以區(qū)分桌子上的紙巾。SAM可以為你選擇的任何對象生成一個掩碼,并相應(yīng)地進行segment區(qū)分。根據(jù)研究人員的說法,SAM同時可以接受文本提示。
除了發(fā)布這個人工智能模型外,Meta已經(jīng)將訓(xùn)練數(shù)據(jù)集提供給第三方研究人員。
盡管Meta可以輕松通過網(wǎng)絡(luò)找到大量圖像和視頻,但高質(zhì)量的segment數(shù)據(jù)要小眾得多。為了幫助SAM,Meta開發(fā)了一個新的訓(xùn)練數(shù)據(jù)庫:Segment Anything 1-Billion mask dataset(SA-1B)。它包含約1100萬張授權(quán)圖像和超過11億個高質(zhì)量和多樣性的segment掩碼。官方表示,Segment Anything 1-Billion mask dataset(SA-1B)是有史以來最大的分割數(shù)據(jù)集。
值得一提的是,Meta表示SAM最終可以識別通過AR眼鏡看到的日常對象,并根據(jù)用戶的注視點來交互顯示物品的相關(guān)信息。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。