6月12日消息,Meta 近日在 Github 上開(kāi)源了其 AI 語(yǔ)言模型 MusicGen,該模型基于谷歌 2017 年推出的 Transformer 模型。MusicGen 主要用于音樂(lè)生成,它可以將文本和已有的旋律轉(zhuǎn)化為完整樂(lè)曲。
據(jù)IT之家報(bào)道,研發(fā)團(tuán)隊(duì)表示:“我們使用了 2 萬(wàn)小時(shí)的授權(quán)音樂(lè)來(lái)對(duì)訓(xùn)練該模型,并采用 Meta 的 EnCodec 編碼器將音頻數(shù)據(jù)分解為更小的單元進(jìn)行并行處理,進(jìn)而讓 MusicGen 的運(yùn)算效率和生成速度都比同類型 AI 模型更為出色。”
除此之外,MusicGen 還支持文本與旋律的組合輸入,例如你可以提出生成“一首輕快的曲目”并同時(shí)要求“將它與貝多芬的《歡樂(lè)頌》結(jié)合起來(lái)”。
研發(fā)團(tuán)隊(duì)還對(duì) MusicGen 的實(shí)際表現(xiàn)進(jìn)行了測(cè)試。結(jié)果顯示,與谷歌的 MusicLM 以及 Riffusion、Mousai、Noise2Music 等其他音樂(lè)模型相比,MusicGen 在測(cè)試音樂(lè)與文本提示的匹配度以及作曲的可信度等指標(biāo)上表現(xiàn)更好,總體而言略高于谷歌 MusicLM 的水平。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
近日,德國(guó)柏林國(guó)際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場(chǎng)的強(qiáng)大影響力。
近日,中國(guó)家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開(kāi)幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無(wú)人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。
“以前都要去窗口辦,一套流程下來(lái)都要半個(gè)月了,現(xiàn)在方便多了!”打開(kāi)“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開(kāi)放原子開(kāi)源基金會(huì)主辦的“2024全球開(kāi)發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。