近期上海AI實驗室與Meta合作推出的開源模型標志著在3D空間音頻領(lǐng)域邁出的一大步。該模型通過處理頭戴式麥克風的輸入音頻信號和分析人體姿態(tài)關(guān)鍵點,成功地實現(xiàn)了為人體生成3D空間音頻的目標。這一技術(shù)突破為虛擬環(huán)境的沉浸感和臨場感提供了關(guān)鍵支持,彌補了目前學術(shù)界和企業(yè)在聽覺方面的疏漏。
然而,從技術(shù)層面看,開發(fā)這樣的3D空間音頻模型并非易事。文章指出,面臨著三大技術(shù)難題,其中包括音源位置未知、麥克風距離音源較遠等挑戰(zhàn)。為了解決這些問題,研究人員創(chuàng)新性地構(gòu)建了多模態(tài)融合模式,并引入了身體姿態(tài)信息,從而成功消除了聲源位置的歧義,實現(xiàn)了正確的空間音頻生成。
具體而言,模型包括音頻編碼器、人體姿態(tài)編碼器和音頻解碼器等模塊。音頻編碼器處理頭戴式麥克風的輸入音頻信號,通過時間平移對齊不同身體部位的音源位置,最終得到包含各個可能音源位置信息的音頻特征表達。人體姿態(tài)編碼器則分析人體姿態(tài)關(guān)鍵點,生成姿態(tài)特征表達,為正確生成三維空間音頻提供了重要的提示。
盡管該模型在技術(shù)上取得了顯著進展,成功實現(xiàn)了身臨其境的3D音場效果,但研究人員也指出了其局限性。目前,該模型僅適用于渲染人體音,難以處理非自由音場傳播環(huán)境,且計算量較大,難以在資源受限的消費類設備上部署。這一點對于模型的實際應用和推廣提出了一定挑戰(zhàn)。
綜合而言,上海AI實驗室和Meta聯(lián)合開發(fā)的這一開源模型為人體生成3D空間音頻開辟了新的可能性,為虛擬現(xiàn)實領(lǐng)域的發(fā)展貢獻了有力的技術(shù)支持。然而,未來仍需進一步優(yōu)化和拓展,以滿足更廣泛的應用場景和設備要求。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設計及應用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導,由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。