通過諸如智能手機(jī)等設(shè)備進(jìn)行自拍或者請(qǐng)求別人為自己拍照十分輕松。但對(duì)于XR頭戴式系統(tǒng)而言,由于形狀參數(shù)的固有限制,生成一種自拍圖像或者生成一種看似由他人拍攝的圖片可能十分具有挑戰(zhàn)性。
在名為“Image capturing in extended reality environments”的專利申請(qǐng)中,高通就提出了一種解決方案。
簡單來說,用戶可以“左手臂前伸,手指擺出V字勝利手勢(shì),并且露齒笑嘴角上揚(yáng)”。這時(shí),可以利用頭顯的朝外攝像頭拍攝用戶手臂前伸的手指V字姿勢(shì)和現(xiàn)實(shí)世界場(chǎng)景,并通過頭顯的朝內(nèi)攝像頭拍攝用戶的面容表情。然后,再通過機(jī)器學(xué)習(xí)模型整合成完整的姿勢(shì),并形成一種看似自拍,或者是由他人拍攝的圖片感覺。
但需要注意的是,由于身體姿勢(shì)必須前伸以置于朝外攝像頭視場(chǎng)之內(nèi),并且由于頭顯的固有遮擋限制,朝內(nèi)攝像頭無法確切完整地捕獲面容,疊加機(jī)器學(xué)習(xí)模型的性能問題,所以最終合成的圖像無法精準(zhǔn)表達(dá)用戶的姿勢(shì)表情。換句話說,這種方法存在自己的限制。
在一個(gè)實(shí)施例中,自我圖像捕獲系統(tǒng)可以包括自我圖像啟動(dòng)引擎、Avatar引擎、背景幀引擎和合成引擎。自我圖像幀可以對(duì)應(yīng)于“自拍圖片”或“自拍視頻”。
自我圖像啟動(dòng)引擎可以檢測(cè)與自拍圖片或自拍視頻過程類似的用戶輸入,例如語音命令、手勢(shì)輸入以及其他類型的輸入;跈z測(cè)到用戶輸入,自我圖像捕獲系統(tǒng)可以啟動(dòng)自圖像捕獲過程中的下一操作。
在一個(gè)示例中,Avatar引擎可以確定用戶姿勢(shì)。用戶姿勢(shì)可以包括和/或?qū)?yīng)于用戶的身體特征。例如,用戶姿勢(shì)可以包括用戶當(dāng)前的表情、情感、手勢(shì)、肢體位置等中的一個(gè)或多個(gè)。另外,用戶姿勢(shì)可以包括和/或?qū)?yīng)于用戶在真實(shí)世界環(huán)境中的物理位置。Avatar引擎可以使用各種追蹤和/或掃描技術(shù)和/或算法來確定用戶姿勢(shì)。例如,Avatar引擎3以使用一種或多種眼動(dòng)追蹤技術(shù)、SLAM技術(shù)、六自由度定位技術(shù)、身體追蹤技術(shù)、面部表情追蹤技術(shù)、計(jì)算機(jī)視覺技術(shù)、其任何組合或其他追蹤和/或掃描技術(shù)來確定用戶姿勢(shì)。
接下來,Avatar引擎可以生成反映用戶姿勢(shì)的用戶Avatar。需要注意,“Avatar”可以包括用戶全部或部分的任何數(shù)字表示。在一個(gè)示例中,用戶的Avatar可以包括計(jì)算機(jī)生成圖像數(shù)據(jù)?蛇x地,用戶的Avatar可以包括由圖像傳感器捕獲的圖像數(shù)據(jù)。另外,用戶的Avatar可以對(duì)應(yīng)于用戶的抽象(例如卡通)表示或用戶的照片真實(shí)表示。
在一個(gè)實(shí)施例中,Avatar引擎可以使用一個(gè)或多個(gè)機(jī)器學(xué)習(xí)系統(tǒng)和/或算法生成Avatar。例如,Avatar引擎可以基于使用機(jī)器學(xué)習(xí)算法對(duì)與各種用戶姿勢(shì)相關(guān)聯(lián)的圖像數(shù)據(jù)訓(xùn)練的機(jī)器學(xué)習(xí)模型來生成Avatar。例如,Avatar引擎可以捕獲用戶的一個(gè)或多個(gè)圖像,例如用戶的全身圖像。基于捕捉到的用戶姿勢(shì)和用戶的一個(gè)或多個(gè)圖像,機(jī)器學(xué)習(xí)模型可以輸出姿勢(shì)與用戶相似的Avatar。例如,如果捕捉到的用戶姿勢(shì)包括特定手勢(shì)(例如“勝利手勢(shì)”),則機(jī)器學(xué)習(xí)模型可以輸出與做出特定手勢(shì)的用戶相似的Avatar。
在一個(gè)實(shí)施例中,背景幀引擎可以捕獲一個(gè)或多個(gè)背景幀。背景幀可以包括和/或?qū)?yīng)于將成為自我圖像的背景的任何幀。
基于由Avatar引擎生成的Avatar和由背景幀生成的背景幀,合成引擎可以生成自我圖像幀(或一系列自我圖像幀)。例如,合成引擎可以將生成的Avatar疊加到背景幀。如上所述,Avatar引擎可以確定與用戶姿勢(shì)相對(duì)應(yīng)的用戶3D位置。因此,合成引擎可以將Avatar疊加在相應(yīng)位置的背景幀內(nèi)。通過這種方式,AR/VR頭顯就可以生成看似自拍或者看似由他人拍攝的圖像感覺。
如圖4A-4C所示。在圖4A中,穿戴VR頭顯的用戶可以前伸左手并擺出V字勝利手勢(shì)。這時(shí),系統(tǒng)可以通過頭顯的前置攝像頭拍攝左手前伸并且手指擺出V字勝利手勢(shì)的圖像,以及周遭環(huán)境的背景圖像。同時(shí),系統(tǒng)可以確定頭顯用戶在環(huán)境中的特定位置。
然后,Avatar引擎可以渲染Avatar318。同時(shí),Avatar引擎304可以使用不同的機(jī)器學(xué)習(xí)模型來生成Avatar318(A)和318(B)。在一個(gè)示例中,Avatar引擎304(A)可以使用低保真度機(jī)器學(xué)習(xí)模型生成Avatar318(A),并使用高保真都模型生成Avatar318(B),如圖4B和4C所示。換句話說,Avatar318(B)可以是Avatar318的高保真版本,一種更接近于圖片真實(shí)感的版本。
然后,合成引擎308可以在生成自圖像幀316時(shí)用Avatar318(A)或Avatar318(B)疊加到對(duì)應(yīng)于用戶在環(huán)境中的位置。
名為“Image capturing in extended reality environments”的高通專利申請(qǐng)最初在2021年2月提交,并在日前由美國專利商標(biāo)局公布。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
近日,德國柏林國際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場(chǎng)的強(qiáng)大影響力。
近日,中國家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會(huì)主辦的“2024全球開發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。