羞国产在线拍揄自揄自揄视频,直接看不卡无码免费视频,免费午夜无码片在线观看影,超碰av免费网络

首頁(yè)>要聞>沸點(diǎn) 沸點(diǎn)

美研發(fā)出提升面部表情識(shí)別技術(shù)的新系統(tǒng)

2016年11月01日 16:15 | 來(lái)源:新華社
分享到: 

新華社洛杉磯10月31日電(記者郭爽)美國(guó)迪士尼研究中心最新研發(fā)出一項(xiàng)新技術(shù),可大幅減少訓(xùn)練面部表情捕捉系統(tǒng)所需的大量數(shù)據(jù)。研究人員認(rèn)為,這項(xiàng)新技術(shù)可在保證面部識(shí)別精確度的前提下,提升機(jī)器學(xué)習(xí)的靈活度和工作效率。

機(jī)器學(xué)習(xí)使得實(shí)時(shí)面部表情捕捉系統(tǒng)在電影和游戲創(chuàng)作中得以廣泛運(yùn)用。不過(guò),為了讓電影或游戲角色、動(dòng)畫(huà)人物的面部表情更符合真人面部表情,電影公司通常需要大量記錄某個(gè)演員在多種狀態(tài)下的面部表情數(shù)據(jù),包括不同光線(xiàn)條件和拍攝角度等條件,以訓(xùn)練表情捕捉系統(tǒng),這無(wú)疑需投入大量時(shí)間、人力和物力。

而迪士尼研究中心的最新研究發(fā)現(xiàn),可以利用小樣本數(shù)據(jù)綜合生成訓(xùn)練系統(tǒng)需要的大量數(shù)據(jù)。研究人員利用多攝像機(jī)采集模式,在均勻照明環(huán)境記錄下演員的70個(gè)表情,再利用所得數(shù)據(jù)生成虛擬人臉。相關(guān)數(shù)據(jù)隨后可被用來(lái)生成影片中所需環(huán)境條件和攝像機(jī)屬性的訓(xùn)練數(shù)據(jù),這種方法可有效縮短機(jī)器學(xué)習(xí)的準(zhǔn)備過(guò)程。

研究人員日前在加利福尼亞州舉行的3D視野國(guó)際論壇上展示了這一最新技術(shù)。研究人員認(rèn)為,新方法表明,訓(xùn)練模型所需的數(shù)據(jù)量可比之前減少數(shù)千倍,并且不會(huì)降低準(zhǔn)確性。這不僅將為電影和游戲創(chuàng)作節(jié)省成本、提升效率,還可以為推動(dòng)機(jī)器學(xué)習(xí)發(fā)展提供思路。

編輯:曾珂

關(guān)鍵詞:面部表情識(shí)別技術(shù)

更多

更多

<dd id="mmmmm"></dd>
  • <noscript id="mmmmm"><dd id="mmmmm"></dd></noscript>
    <nav id="mmmmm"><sup id="mmmmm"></sup></nav>
  • <tr id="mmmmm"></tr>
  • <nav id="mmmmm"></nav>
    <tfoot id="mmmmm"><noscript id="mmmmm"></noscript></tfoot><tfoot id="mmmmm"><noscript id="mmmmm"></noscript></tfoot>
    <nav id="mmmmm"><ul id="mmmmm"></ul></nav>