<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預(yù)訂訂單
          服務(wù)訂單
          發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標(biāo) 發(fā)布需求

          在線咨詢

          聯(lián)系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務(wù) 國際服務(wù) 商標(biāo)交易 會員權(quán)益 需求市場 關(guān)于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當(dāng)前位置 : 首頁 > 專利喜報 > 中國科學(xué)技術(shù)大學(xué)王上飛獲國家專利權(quán)

          中國科學(xué)技術(shù)大學(xué)王上飛獲國家專利權(quán)

          買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!

          龍圖騰網(wǎng)獲悉中國科學(xué)技術(shù)大學(xué)申請的專利兩階段多尺度自適應(yīng)的低分辨率人臉識別方法及應(yīng)用獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN115588220B

          龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-09-23發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202211223115.8,技術(shù)領(lǐng)域涉及:G06V40/16;該發(fā)明授權(quán)兩階段多尺度自適應(yīng)的低分辨率人臉識別方法及應(yīng)用是由王上飛;王海涵設(shè)計研發(fā)完成,并于2022-10-08向國家知識產(chǎn)權(quán)局提交的專利申請。

          兩階段多尺度自適應(yīng)的低分辨率人臉識別方法及應(yīng)用在說明書摘要公布了:本發(fā)明公開了一種兩階段多尺度自適應(yīng)的低分辨率人臉識別方法及應(yīng)用,其步驟包括:1、對高分辨率人臉數(shù)據(jù)庫和真實的低分辨率人臉圖像數(shù)據(jù)庫分別進(jìn)行預(yù)處理;2、構(gòu)建高、低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)和動量網(wǎng)絡(luò);3、預(yù)訓(xùn)練高分辨率表征學(xué)習(xí)網(wǎng)絡(luò);4、使用兩階段的方式訓(xùn)練構(gòu)建的網(wǎng)絡(luò)模型,并利用訓(xùn)練好的模型對待測的低分辨率人臉圖像進(jìn)行表征提取。本發(fā)明能自適應(yīng)的接受多種分辨率圖像的輸入,在真實的低分辨率場景中有著更好的人臉識別效果。

          本發(fā)明授權(quán)兩階段多尺度自適應(yīng)的低分辨率人臉識別方法及應(yīng)用在權(quán)利要求書中公布了:1.一種兩階段多尺度自適應(yīng)的低分辨率人臉識別方法,其特征是按如下步驟進(jìn)行:步驟1、對高分辨率人臉數(shù)據(jù)庫和真實的低分辨率人臉圖像數(shù)據(jù)庫分別進(jìn)行預(yù)處理: 步驟1.1、對于高分辨率人臉數(shù)據(jù)庫的預(yù)處理: 使用MTCNN神經(jīng)網(wǎng)絡(luò)算法對所述高分辨率人臉數(shù)據(jù)庫中的張高分辨率人臉圖像進(jìn)行人臉檢測與矯正,并將尺寸裁剪到輸入尺寸,從而得到歸一化后的高分辨率人臉圖像數(shù)據(jù)庫; 將歸一化后的高分辨率人臉圖像數(shù)據(jù)庫中的任意一個高分辨率樣本記為,其標(biāo)簽的類別記為,且,表示總的類別數(shù),通過雙三次插值法對進(jìn)行下采樣,得到四種低分辨率樣本后上采樣回到原始輸入尺寸,從而得到合成的四種低分辨率樣本;由構(gòu)成一組合成的人臉圖像,從而得到合成的人臉數(shù)據(jù)庫; 步驟1.2、對于真實的低分辨率人臉圖像數(shù)據(jù)庫的預(yù)處理: 通過雙三次插值法將真實的低分辨率人臉圖像數(shù)據(jù)庫中的張圖像尺寸裁剪到輸入尺寸,并裁剪后的任意一個低分辨率樣本記為,其標(biāo)簽的類別為,由構(gòu)成一組真實的低分辨率人臉圖像,從而得到真實的低分辨率人臉圖像數(shù)據(jù)庫; 步驟2、基于ResNet-50網(wǎng)絡(luò)構(gòu)建高分辨率表征學(xué)習(xí)網(wǎng)絡(luò),低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)和動量網(wǎng)絡(luò); 所述ResNet-50網(wǎng)絡(luò)包括輸入層、個堆疊塊和輸出層,其中,輸入層包括卷積層、實例正則化層、ReLU激活函數(shù)、最大池化層,個堆疊塊均由連接的個殘差塊構(gòu)成,每個殘差塊由卷積層、實例正則化層、ReLU激活函數(shù)組成,輸出層包括平均池化層和全連接層; 令高分辨率表征學(xué)習(xí)網(wǎng)絡(luò)中的所有卷積層、全連接層均使用高斯分布進(jìn)行權(quán)值初始化; 步驟3、預(yù)訓(xùn)練高分辨率表征學(xué)習(xí)網(wǎng)絡(luò): 步驟3.1、所述合成的人臉數(shù)據(jù)庫中任意一個高分辨率樣本輸入到高分辨率表征學(xué)習(xí)網(wǎng)絡(luò)中進(jìn)行處理,得到對應(yīng)的高分辨率表征; 利用式1建立針對高分辨率樣本基于加性角邊距的人臉識別損失函數(shù): 1 式1中,表示和類別為對應(yīng)的最后一個全連接層的權(quán)值之間的角度;是類別附加的角間隔;表示和類別為對應(yīng)的最后一個全連接層的權(quán)值之間的角度;表示對于所述合成的人臉數(shù)據(jù)庫中所有高分辨率表征計算損失函數(shù)并求和; 步驟3.2、使用SGD方法對高分辨率表征學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,并計算所述損失函數(shù)用于更新網(wǎng)絡(luò)參數(shù),當(dāng)訓(xùn)練迭代次數(shù)達(dá)到設(shè)定的次數(shù)或損失誤差達(dá)小于所設(shè)定的閾值時,訓(xùn)練停止,從而得到訓(xùn)練后的高分辨率表征學(xué)習(xí)網(wǎng)絡(luò)及其最優(yōu)參數(shù); 利用訓(xùn)練后的高分辨率表征學(xué)習(xí)網(wǎng)絡(luò)的最優(yōu)參數(shù)對低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)的網(wǎng)絡(luò)參數(shù)進(jìn)行初始化; 步驟4、使用兩階段的方式訓(xùn)練初始化后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò),并利用第二階訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)對待測的低分辨率人臉圖像進(jìn)行表征提取: 步驟4.1、多尺度的蒸餾階段: 步驟4.1.1、所述合成的人臉數(shù)據(jù)庫中任意一個高分辨率樣本輸入到訓(xùn)練后的高分辨率表征學(xué)習(xí)網(wǎng)絡(luò)中,并分別從個堆疊塊的個輸出和輸出層的輸出中取出特征,相應(yīng)得到個尺度的高分辨率特征圖和訓(xùn)練后的高分辨率表征;表示第個堆疊塊輸出的第個尺度的高分辨率特征圖; 將對應(yīng)的合成的4種低分辨率樣本分別輸入初始化后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)中,并分別從個堆疊塊的個輸出和輸出層的輸出中取出特征,相應(yīng)得到四種個尺度的低分辨率特征圖和四種低分辨率表征,并將其中一種個尺度的低分辨率特征圖和一種低分辨率表征分別記為和;表示第個堆疊塊輸出的一種第個尺度的低分辨率特征圖; 步驟4.1.2、利用式2建立針對低分辨率樣本的基于加性角邊距的人臉識別損失函數(shù): 2 式2中,表示和類別為對應(yīng)的最后一個全連接層的權(quán)值之間的角度;表示和類別為對應(yīng)的最后一個全連接層的權(quán)值之間的角度;表示對于合成的人臉數(shù)據(jù)庫中所有低分辨率表征計算損失函數(shù)并求和; 步驟4.1.3、利用式3建立像素值誤差的損失函數(shù): 3 式3中,表示遍歷所有的高、低分辨率的個尺度的特征圖進(jìn)行求和,表示遍歷所有的高、低分辨率的表征進(jìn)行求和,表示L2范數(shù); 步驟4.1.4、將高分辨率和四種低分辨率下的特征圖中的任意一個特征圖經(jīng)過重塑操作后,得到一個二維向量;分別表示特征圖的高度、寬度和通道維度; 利用式4建立親和矩陣: 4 式4中,是softmax函數(shù),矩陣乘法,是矩陣的轉(zhuǎn)置; 利用式5建立親和矩陣蒸餾的損失函數(shù): 5 式5中,表示L1范數(shù); 步驟4.1.5、所述訓(xùn)練后的高分辨率表征所對應(yīng)的高分辨率樣本所在的一個小批量數(shù)據(jù)中,將相同類別的低分辨率表征記為,不同類別的低分辨率表征為,并構(gòu)成正匹配代表聯(lián)合分布中的樣本,構(gòu)成負(fù)匹配代表邊際分布中的樣本; 利用式6建立互信息最大化的損失函數(shù): 6 式6中,代表softplus操作;表示期望; 步驟4.1.6、利用式7構(gòu)建第一階段的總的目標(biāo)函數(shù): 7 式7中,,和均為權(quán)重因子; 步驟4.1.7、使用SGD方法對初始化后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行第一階段訓(xùn)練,并計算所述損失函數(shù),當(dāng)訓(xùn)練迭代次數(shù)達(dá)到設(shè)定的次數(shù)或損失誤差達(dá)小于所設(shè)定的閾值時,訓(xùn)練停止,從而得到第一階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)及其最優(yōu)參數(shù); 步驟4.2、多分辨率的聚類階段:步驟4.2.1、利用第一階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)的最優(yōu)參數(shù)對所述動量網(wǎng)絡(luò)進(jìn)行參數(shù)初始化; 利用式8建立一個用于保存四種低分辨率的表征的鍵存儲器和一個用于保存相應(yīng)標(biāo)簽的類別存儲器: 8 式8中,是存儲庫的長度;分別表示鍵存儲器中第個四種低分辨率的表征,表示類別存儲器中第個標(biāo)簽; 所述合成的人臉數(shù)據(jù)庫中隨機(jī)抽取個樣本,其中任意樣本的四種低分辨率樣本輸入到第一階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò),相應(yīng)得到第一階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)輸出的四種低分辨率表征,將四種低分辨率表征存入鍵存儲器中,將表征對于的標(biāo)簽存入類別存儲器中; 步驟4.2.2、所述個樣本中樣本的四種低分辨率樣本分別輸入到第一階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)和初始化后的動量網(wǎng)絡(luò)中,相應(yīng)得到第一階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)輸出的四種低分辨率表征和動量網(wǎng)絡(luò)輸出的四種低分辨率表征,依次將中任意一個表征當(dāng)作錨點,令錨點的正對是動量網(wǎng)絡(luò)輸出的不同分辨率下的表征和鍵存儲器中相同類別的四種低分辨率下的表征;其中,表示動量網(wǎng)絡(luò)輸出的除外的任意一個表征,錨點的負(fù)對是鍵存儲器中不同類別的四種低分辨率下的表征; 利用式9-式11建立多分辨率損失函數(shù): 9 10 11 式9-式11中,表示合成的低分辨率表征,表示合成的低分辨率人臉圖像表征集,包含四種低分辨率表征;是溫度參數(shù);表示鍵存儲器中第個的第種分辨率的表征,是動量網(wǎng)絡(luò)輸出的第種分辨率表征,表示鍵存儲器中第個的第種分辨率的表征;表示和是否相同,若相同,則令,否則,令;表示和是否相同,若相同,則令,否則,令;表示和是否相同,若相同,則令,否則,令;表示錨點和所有正對和負(fù)對的低分辨率表征計算相似度的和; 步驟4.2.3、使用SGD方法對第一階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行第二階段訓(xùn)練,并計算所述損失函數(shù),當(dāng)訓(xùn)練迭代次數(shù)達(dá)到設(shè)定的次數(shù)或損失誤差達(dá)小于所設(shè)定的閾值時,訓(xùn)練停止,從而得到第二階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò); 步驟4.2.4、將動量網(wǎng)絡(luò)輸出的四種分辨率的表征和標(biāo)簽的類別分別存入鍵存儲器和類別存儲器中以更新動態(tài)隊列; 利用式12更新初始化后的動量網(wǎng)絡(luò)的網(wǎng)絡(luò)參數(shù),得到更新后的網(wǎng)絡(luò)參數(shù): 12 式12中,是第二階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)的參數(shù),是動量系數(shù); 步驟4.3、對于真實的低分辨率人臉圖像的微調(diào): 步驟4.3.1、所述真實的低分辨率人臉圖像數(shù)據(jù)庫中任意一個低分辨率樣本輸入到第二階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)中,得到低分辨率表征,并在新的鍵存儲器中保存,在新的類別存儲器保存標(biāo)簽的類別,其中,表示鍵存儲器中第個低分辨率的表征;表示類別存儲器中第個標(biāo)簽,將表征當(dāng)作新的錨點,令的正對為,的負(fù)對為; 利用式13建立真實低分辨率的對比損失函數(shù): 13 式13中,表示真實的低分辨率表征,表示真實的低分辨率人臉圖像表征集;表示鍵存儲器中第個低分辨率的表征; 步驟4.3.2、使用SGD方法對第二階段訓(xùn)練后的低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行微調(diào),并計算所述損失函數(shù),當(dāng)訓(xùn)練迭代次數(shù)達(dá)到設(shè)定的次數(shù)或損失誤差達(dá)小于所設(shè)定的閾值時,訓(xùn)練停止,從而得到最優(yōu)低分辨率表征學(xué)習(xí)網(wǎng)絡(luò); 步驟4.4、利用最優(yōu)低分辨率表征學(xué)習(xí)網(wǎng)絡(luò)對待測試的低分辨率人臉圖像進(jìn)行處理,得到低分辨率人臉圖像的表征,并與成對的人臉圖像進(jìn)行特征匹配以實現(xiàn)人臉驗證,或者將待測試的低分辨率人臉圖像與數(shù)據(jù)庫的人臉圖像進(jìn)行特征匹配,以實現(xiàn)人臉識別。

          如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人中國科學(xué)技術(shù)大學(xué),其通訊地址為:230026 安徽省合肥市包河區(qū)金寨路96號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

          以上內(nèi)容由AI智能生成
          免責(zé)聲明
          1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
          2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
          主站蜘蛛池模板: 亚洲人成色44444在线观看 | 久久久久影院美女国产主播| 色婷婷综合和线在线| 国产亚洲精品久久久久久青梅| 无码人妻少妇精品无码专区漫画| 久久精品国产亚洲a片高清不卡| 久久精品国产亚洲a片高清不卡| 2021最新在线精品国自产拍视频| 亚洲国产最大av| 国产做无码视频在线观看浪潮 | 欧美成人精品高清视频在线观看| 国产麻豆9l精品三级站| 国产普通话对白刺激| 午夜人成免费视频| 无码尹人久久相蕉无码| 中文字幕亂倫免賛視頻| 不卡国产一区二区三区| 亚洲色噜噜网站在线观看| 国产成AV人片久青草影院| 2021亚洲国产成a在线| 亚欧日韩欧美网站在线看| 一本久久综合亚洲鲁鲁五月天| 中文字幕av一区二区三区人妻少妇 | 国产成人亚洲精品无码mp4| 国产精品亚洲一区二区| 亚洲精品色国语对白在线| 亚洲精品不卡无码福利在线观看| 国产卡二卡三卡四卡免费网址| 国产精品久久中文字幕网| 男女性高爱潮是免费国产| 亚洲午夜不卡无码影院| av色国产色拍| 国内精品美女视频免费直播| 性色a∨人人爽网站| 在线播放免费人成视频在线观看| 亚洲精品久久久久999666| 亚洲欧洲av一区二区久久| 久久人人爽人人爽人人片| 国产麻豆9l精品三级站| 精品av综合导航| 亚洲一区二区三区在线播放无码 |