6月9日消息,近期,科學(xué)家們?cè)诮庾x狗叫聲的情感和意圖方面取得了突破性進(jìn)展。
據(jù)媒體報(bào)道,密歇根大學(xué)與墨西哥國(guó)家天體物理、光學(xué)和電子研究所(INAOE)的研究人員合作,開發(fā)了一種AI模型,能夠以高達(dá)70%的準(zhǔn)確率識(shí)別狗的叫聲是在玩耍、生氣還是表達(dá)其他情感。
這項(xiàng)研究的靈感來(lái)源于人工智能在理解人類語(yǔ)音方面的顯著進(jìn)步,特別是在區(qū)分音調(diào)、音色和口音的細(xì)微差別上。
密歇根大學(xué)人工智能實(shí)驗(yàn)室負(fù)責(zé)人Rada Mihalcea指出,人類語(yǔ)音的聲音和模式可以作為分析和理解動(dòng)物發(fā)聲聲學(xué)模式的基礎(chǔ)。
研究團(tuán)隊(duì)面臨的主要挑戰(zhàn)之一是缺乏公開可用的動(dòng)物聲音數(shù)據(jù),為了克服這一難題,研究人員采用了與采集人類語(yǔ)音數(shù)據(jù)相似的方法,收集了74只不同品種、年齡和性別的狗在各種情況下的吠叫、咆哮和嗚嗚聲。
這些聲音信息隨后被用于訓(xùn)練原本設(shè)計(jì)用于分析人類語(yǔ)音的機(jī)器學(xué)習(xí)模型。
實(shí)驗(yàn)結(jié)果顯示,該AI模型不僅能夠理解狗之間的交流,還能夠識(shí)別狗的年齡、性別和品種。
研究人員表示,更好地理解動(dòng)物聲音的細(xì)微差別,可以改善人類對(duì)它們情感和身體需求的解釋和反應(yīng)。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會(huì)上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來(lái)都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來(lái)實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡(jiǎn)直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會(huì)——工業(yè)互聯(lián)網(wǎng)標(biāo)識(shí)解析專題論壇在沈陽(yáng)成功舉辦。