12月14日 消息:谷歌Deepmind宣布了他們最先進的圖像生成模型Imagen2。該模型通過參考圖片和文本生成新圖片和局部編輯的效果比較強大。
這一最新模型的主要特點包括改進的圖像描述理解。為了幫助創(chuàng)建更高質(zhì)量和更準確的圖像,Imagen2的訓練數(shù)據(jù)集中添加了更多描述,幫助該模型學習不同的標題風格,并更好地理解廣泛的用戶提示。
此外,Imagen2的數(shù)據(jù)集和模型在許多領(lǐng)域取得了改進,這些領(lǐng)域通常是文本到圖像工具所困擾的,包括渲染逼真的手部和人臉,以及保持圖像不受干擾的視覺偽影,從而實現(xiàn)更加真實的圖像生成。
Imagen2的擴散技術(shù)提供了高度的靈活性,使得更容易控制和調(diào)整圖像的風格。通過提供參考風格圖像并結(jié)合文本提示,可以訓練Imagen2生成遵循相同風格的新圖像。
該模型還支持圖像編輯功能,如“修補”和“擴展”。通過提供參考圖像和圖像蒙版,用戶可以使用一種稱為修補的技術(shù)直接在原始圖像中生成新內(nèi)容,或者使用擴展技術(shù)將原始圖像延伸到其邊界之外。
為了應對潛在的風險和挑戰(zhàn),Google DeepMind在設(shè)計和開發(fā)過程中設(shè)置了嚴格的防護措施。Imagen2集成了SynthID,這是一種先進的數(shù)字水印工具,使Google Cloud客戶能夠在圖像的像素中添加不可察覺的數(shù)字水印,而不會影響圖像質(zhì)量。這種數(shù)字水印可以在應用修改,如濾鏡、裁剪或使用有損壓縮方案保存后仍然可檢測到。在發(fā)布功能給用戶之前,Google DeepMind進行了嚴格的安全測試,以最小化潛在的危害風險。安全檢查涵蓋了訓練數(shù)據(jù)、輸入提示和系統(tǒng)生成的輸出,以避免生成潛在有問題的內(nèi)容。
現(xiàn)在,開發(fā)人員和云客戶可以通過Google Cloud Vertex AI中的Imagen API使用這一先進的圖像生成模型。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標識解析專題論壇在沈陽成功舉辦。