11月13日消息,據(jù)VentureBeat報(bào)道,在語音嘈雜的環(huán)境中,要想分辨出有幾個(gè)人講話、在什么時(shí)間講話,對于機(jī)器來說非常困難。但谷歌人工智能(AI)研究部門在語音識別方面取得了新進(jìn)展,能以92%的準(zhǔn)確率識別出每個(gè)人聲音的專屬模式。
谷歌AI研究部門在最新名為《Fully Supervised Speaker Diarization》的論文和相關(guān)博客文章中,研究人員描述了一種新的AI系統(tǒng),它“能以一種更有效的方式識別聲音”。
這套系統(tǒng)涉及到Speaker diarization任務(wù),即需要標(biāo)注出“誰”從“什么時(shí)候”到“什么時(shí)候”在說話,將語音樣本分割成獨(dú)特的、同構(gòu)片段的過程。強(qiáng)大的AI系統(tǒng)必須能夠?qū)⑿碌难葜v者發(fā)音與它以前從未遇到過的語音片段關(guān)聯(lián)起來。
這篇論文的作者聲稱,核心算法已經(jīng)可在Github上的開源軟件中可用,它實(shí)現(xiàn)了一個(gè)在線二值化錯(cuò)誤率(DER),在NIST SRE 2000 CALLHOME基準(zhǔn)上是7.6%,這對于實(shí)時(shí)應(yīng)用來說已經(jīng)足夠低了,而谷歌之前使用的方法DER為8.8%。
谷歌研究人員的新方法是通過遞歸神經(jīng)網(wǎng)絡(luò)(RNN)模擬演講者的嵌入(如詞匯和短語的數(shù)學(xué)表示),遞歸神經(jīng)網(wǎng)絡(luò)是一種機(jī)器學(xué)習(xí)模型,它可以利用內(nèi)部狀態(tài)來處理輸入序列。每個(gè)演講者都從自己的RNN實(shí)例開始,該實(shí)例不斷更新給定新嵌入的RNN狀態(tài),使系統(tǒng)能夠?qū)W習(xí)發(fā)言者共享的高級知識。
研究人員在論文中寫道:“由于該系統(tǒng)的所有組件都可以在監(jiān)督環(huán)境下學(xué)習(xí),所以在有高質(zhì)量時(shí)間標(biāo)記演講者標(biāo)簽訓(xùn)練數(shù)據(jù)的情況下,它比無監(jiān)督系統(tǒng)更受青睞。我們的系統(tǒng)受到全面監(jiān)督,能夠從帶有時(shí)間戳的演講者標(biāo)簽例子中學(xué)習(xí)。”
在未來的工作中,研究團(tuán)隊(duì)計(jì)劃改進(jìn)模型,使其能夠集成上下文信息來執(zhí)行脫機(jī)解碼,他們希望這將進(jìn)一步減少DER。研究人員還希望能夠直接對聲學(xué)特征進(jìn)行建模,這樣整個(gè)Speaker diarization系統(tǒng)就可以進(jìn)行端到端訓(xùn)練。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
京東11.11采銷直播探廠為消費(fèi)者揭開答案。近日,京東3C數(shù)碼采銷走進(jìn)武漢攀升工廠、合肥聯(lián)想工廠和科大訊飛展廳,通過直播帶貨廠商爆款產(chǎn)品,并為消費(fèi)者帶來超值低價(jià)與福利。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會(huì)——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。