<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 西北工業大學程塨獲國家專利權

          西北工業大學程塨獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉西北工業大學申請的專利一種面向人臉重演中表情分離任務的弱標注學習方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115424310B

          龍圖騰網通過國家知識產權局官網在2025-08-26發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202210853247.2,技術領域涉及:G06V40/16;該發明授權一種面向人臉重演中表情分離任務的弱標注學習方法是由程塨;孫緒祥;仝慧紫;蔡曉妍;韓軍偉;郭雷設計研發完成,并于2022-07-08向國家知識產權局提交的專利申請。

          一種面向人臉重演中表情分離任務的弱標注學習方法在說明書摘要公布了:本發明涉及一種面向人臉重演中表情分離任務的弱標注學習方法,本發明設計了一個人臉重演框架,包含一個面部網絡,一個身份編碼器,一個運動特征提取器,一個AdaAttN模塊和兩個判別器圖像質量判別器和身份判別器。其中,面部網絡和身份編碼器需要通過預訓練分別實現編碼給定圖像的面部信息和身份信息。此外,本發明使用多尺度的驅動圖像的面部信息特征減去身份信息特征得到對應尺度的驅動圖像的面部運動特征,并遷移圖像翻譯任務中的AdaAttN模塊,以融合驅動圖像的多尺度面部運動特征,并將其作為弱標注指導重演圖像的生成。本發明能夠在無需附加面部信息標注如面部標志點、輪廓線等的同時,解決運動特征的解耦問題,實現高質量的人臉重演。

          本發明授權一種面向人臉重演中表情分離任務的弱標注學習方法在權利要求書中公布了:1.一種面向人臉重演中表情分離任務的弱標注學習方法,其特征在于步驟如下: 步驟1、構建并訓練面部重構網絡:由一個面部編碼器和一個面部解碼器串聯而成,其中:面部編碼器的網絡結構由4個下采樣模塊和4個殘差塊串接為以Eface,面部解碼器由4個上采樣模塊連接構成為Dface; 訓練方式如下:將任意一張圖片I輸入面部編碼器得到編碼的面部特征,再將面部特征輸入面部解碼器得到I的重構圖片Irec,對I和Irec做L1度量,并以此作為損失函數對面部網絡進行訓練; 使用一個多尺度的PatchGAN判別器D1與面部重構網絡進行對抗訓練,用于評定生成圖像的真實性,網絡結構如下:首先連接2個下采樣模塊,然后分三個分支,第一個分支繼續連接一個全局自適應最大池化層和一個全連接層為輸出一個標量,第二個分支連接兩個下采樣模塊和一個用于調整通道數的卷積模塊為輸出尺度為1×30×30,第三個分支連接4個下采樣模塊和一個用于調整通道數的卷積模塊為輸出尺度為1×6×6;訓練判別器D1時,分別輸入生成圖像和真實圖像,對得到的三個尺度的輸出特征分別計算損失后相加,優化函數如下: 其中,i表示判別器D1的第i個分支,表示對其輸入求數學期望,log·表示對其輸入求以10為底的對數; 訓練面部重構網絡的總損失函數為: 其中,是判別器提供的對抗損失,用于衡量面部網絡重構圖像的質量; 是I和Irec之間的L1損失; 其中,||·||1表示L1距離; 步驟2、構建并訓練身份編碼器:由4個下采樣模塊和4個殘差塊連接組成為Eid,具有雙生網絡結構; 對身份匹配器Eid進行訓練:將一組圖像I1和I2分別輸入身份編碼器,得到對應的身份編碼向量z1和z2,計算z1和z2之間的L2距離;當I1和I2來自同一個身份時,它們之間距離越小越好;當I1和I2來自不同身份時,它們之間距離越大越好; 訓練身份編碼器的損失函數為: 其中,||·||2表示L2距離;max{·,·}2表示取兩者較大值的平方;N表示批處理大小;Y為兩個樣本是否匹配的標簽,Y=0表示I1和I2來自不同身份,Y=1表示I1和I2來自同一個身份;m=1為設定的閾值; 步驟3、構建面向人臉重演中表情分離任務的弱標注學習框架:包括步驟1中的面部重構網絡,一個身份編碼器,一個運動特征提取器和一個AdaAttN模塊; 所述運動特征提取器由四個下采樣模塊串聯組成; 所述AdaAttN模塊是一個注意力模塊,用于融合源圖像的身份信息與驅動圖像的面部運動特征; 步驟4、訓練面向人臉重演中表情分離任務的弱標注學習框架:訓練過程中需要訓練額外兩個判別器,分別為圖像質量判別器為D2和身份判別器為D3; 所述圖像質量判別器使用與步驟1的判別器D1具有相同架構的多尺度判別器,用于評定生成圖像的真實性; 所述身份判別器采用雙生的ResNeXt50結構,用于判斷輸入的真實人臉和生成人臉是否具有相同的身份; 在訓練整體網絡時,對步驟1和步驟2預訓練好的面部網絡和身份編碼器進行微調;采用自監督的訓練方式,即在訓練階段,驅動圖像和源圖像是來自同一個視頻的不同幀,驅動圖像作為重演圖像的真值;以生成對抗網絡經典的交替訓練的方式端到端地訓練整個網絡; 訓練圖像質量判別器D2,分別輸入生成圖像和源圖像,對得到的三個尺度的輸出特征分別計算損失后相加得到最終損失,優化函數如下: 其中,i表示判別器D2的第i個分支; 對于身份判別器D3,其訓練的優化函數如下: 其中,m=1為設定的閾值,Iss表示與源圖像Is具有相同身份的圖片; 總體損失函數為: 其中,是圖像質量判別器D2提供的對抗損失; 是身份判別器D3提供的對抗損失; 是重演圖片與真值即即驅動圖像之間的L1距離損失; 是重演圖片的面部特征與真值即即驅動圖像的面部特征之間的L1距離損失; 是重演圖片的身份特征與真值即即驅動圖像的身份特征之間的L1距離損失; 步驟5、完成人臉重演:對于任意一張驅動圖像和源圖像,使用步驟4訓練好的面向人臉重演中表情分離任務的弱標注學習框架生成重演圖片,由此,即完成人臉重演任務。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人西北工業大學,其通訊地址為:710072 陜西省西安市友誼西路;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 成人无码av片在线观看蜜桃| 亚洲欧美日韩综合久久久| 99re热这里只有精品视频| 精品国产av 无码一区二区三区 | 青青青国产在线观看资源| 日本一道本高清一区二区| 精品国产一二三产品区别在哪| 第一福利精品500在线导航| 久热这里只有精品99在线观看| 国产在线不卡人成视频| 久久不见久久见免费视频1′| 两女女百合互慰av赤裸无遮挡| 久久www免费人成一看片| 国产福利精品一区二区| 免费久久99精品国产自在现线| 日本va欧美va精品发布| 被灌满精子的波多野结衣| 成人性能视频在线| 国产无套乱子伦精彩是白视频| 一本一道av无码中文字幕﹣百度| 亚洲欧洲美洲无码精品va| 精品久久久久久无码专区| 日本乱人伦aⅴ精品潮喷| 国产成人欧美视频在线观看| www久久只有这里有精品| 忘忧草在线社区www中国中文| 亚洲国产婷婷香蕉久久久久久| 亚洲成a人片在线观看天堂| 人妻无码αv中文字幕久久琪琪布| 国产情侣久久久久aⅴ免费| 国产丰满老熟女重口对白| 欧美成人一区二区三区片免费| 国产亚洲精品一品区99热| 人摸人人人澡人人超碰| 色悠悠成人综合在线视频| 欧美人成片免费观看视频| 免费人妻无码不卡中文视频| 激情综合网激情综合网激情 | 717午夜伦伦电影理论片| 无码专区 人妻系列 在线| 国产女人喷潮视频免费|