強大的人工智能模型有時會出現(xiàn)錯誤,包括虛構(gòu)錯誤信息或?qū)⑺俗髌纷鳛樽约旱。為了解決后者的問題,德克薩斯大學(xué)奧斯汀分校的研究團(tuán)隊開發(fā)了一種名為 "Ambient Diffusion" 的框架。該框架通過對無法辨認(rèn)的圖像數(shù)據(jù)進(jìn)行訓(xùn)練,繞過了 AI 模型復(fù)制他人作品的問題。
DALL-E、Midjourney 和 Stable Diffusion 是文本到圖像擴散生成的人工智能模型,它們能夠?qū)⑷我庥脩粑谋巨D(zhuǎn)化為高度逼真的圖像。這三個模型都面臨著藝術(shù)家提起訴訟的問題,他們聲稱生成的樣本復(fù)制他們的作品。這些模型是通過訓(xùn)練數(shù)十億個圖像 - 文本對來實現(xiàn)的,這些對外不公開,它們能夠生成高質(zhì)量的圖像,但可能會使用版權(quán)圖像并復(fù)制它們。
"Ambient Diffusion" 框架的提出解決了這個問題,通過僅通過擾亂后的圖像數(shù)據(jù)對擴散模型進(jìn)行訓(xùn)練。初步實驗表明,該框架仍然能夠生成高質(zhì)量的樣本,而不需要看到任何可識別為原始源圖像的內(nèi)容。研究團(tuán)隊首先在一組3000張名人圖片上訓(xùn)練了一個擴散模型,然后使用該模型生成了新的樣本。
在實驗中,用清晰的數(shù)據(jù)訓(xùn)練的擴散模型明顯復(fù)制了訓(xùn)練樣本。但當(dāng)研究人員對訓(xùn)練數(shù)據(jù)進(jìn)行擾亂,隨機遮擋圖像中的個別像素,然后用新的方法對模型進(jìn)行重新訓(xùn)練時,生成的樣本保持了高質(zhì)量,但看起來完全不同。該模型仍然可以生成人臉,但生成的人臉與訓(xùn)練圖像有明顯的區(qū)別。
研究人員表示,這指向了一個解決方案,盡管可能會改變性能,但永遠(yuǎn)不會輸出噪聲。這一框架為學(xué)術(shù)研究人員如何推進(jìn)人工智能以滿足社會需求提供了一個示例。德克薩斯大學(xué)奧斯汀分校已將2024年宣布為 "AI 之年",這是今年的一個關(guān)鍵主題。該研究團(tuán)隊還包括加州大學(xué)伯克利分校和麻省理工學(xué)院的成員。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。