<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標 發(fā)布需求

          在線咨詢

          聯(lián)系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權(quán)益 需求市場 關(guān)于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 中國—東盟信息港股份有限公司韋濤獲國家專利權(quán)

          中國—東盟信息港股份有限公司韋濤獲國家專利權(quán)

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!

          龍圖騰網(wǎng)獲悉中國—東盟信息港股份有限公司申請的專利一種基于深度學習的人臉翻拍稽核方法及系統(tǒng)獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN115063857B

          龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-09-12發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202210706054.4,技術(shù)領(lǐng)域涉及:G06V40/16;該發(fā)明授權(quán)一種基于深度學習的人臉翻拍稽核方法及系統(tǒng)是由韋濤;杜歡;梁勇;吳康杰;李鵬設(shè)計研發(fā)完成,并于2022-06-21向國家知識產(chǎn)權(quán)局提交的專利申請。

          一種基于深度學習的人臉翻拍稽核方法及系統(tǒng)在說明書摘要公布了:本發(fā)明公開了一種基于深度學習的人臉翻拍稽核方法及系統(tǒng),涉及人臉識別技術(shù)領(lǐng)域,解決傳統(tǒng)圖像處理技術(shù)的方法效率較低的技術(shù)問題,方法包括:收集與人臉稽核的應用場景相關(guān)的人臉圖像數(shù)據(jù),對收集到的人臉圖像數(shù)據(jù)劃分為正樣本和負樣本;對正樣本進行增強處理得到正樣本集,對負樣本進行增強處理得到負樣本集,分別將正樣本集、負樣本集以8:2的比例劃分為訓練集和測試集,訓練集用于模型的學習訓練,測試集用于模型的性能評估;構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,并根據(jù)訓練集訓練神經(jīng)網(wǎng)絡(luò)模型,根據(jù)測試集評估訓練好的神經(jīng)網(wǎng)絡(luò)模型得到人臉翻拍檢測模型;現(xiàn)場采集人臉圖像,并輸入到人臉翻拍檢測模型得到人臉翻拍檢測結(jié)果。

          本發(fā)明授權(quán)一種基于深度學習的人臉翻拍稽核方法及系統(tǒng)在權(quán)利要求書中公布了:1.一種基于深度學習的人臉翻拍稽核方法,其特征在于,包括: 盡可能多地收集與人臉稽核的應用場景相關(guān)的人臉圖像數(shù)據(jù),對收集到的人臉圖像數(shù)據(jù)劃分為正樣本和負樣本; 對所述正樣本進行增強處理得到正樣本集,對所述負樣本進行增強處理得到負樣本集,分別將所述正樣本集、負樣本集以8:2的比例劃分為訓練集和測試集,訓練集用于模型的學習訓練,測試集用于模型的性能評估; 構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,并根據(jù)所述訓練集訓練所述神經(jīng)網(wǎng)絡(luò)模型,根據(jù)所述測試集評估訓練好的神經(jīng)網(wǎng)絡(luò)模型得到人臉翻拍檢測模型; 現(xiàn)場采集人臉圖像,并輸入到所述人臉翻拍檢測模型得到人臉翻拍檢測結(jié)果; 構(gòu)建神經(jīng)網(wǎng)絡(luò)模型具體包括: 構(gòu)建輸入層,輸入層是網(wǎng)絡(luò)的起點,負責接收外部傳入的輸入圖像; 構(gòu)建第一卷積層,用于對輸入層做卷積操作,卷積操作能夠提取輸入圖像的特征,卷積核大小為3×3,個數(shù)為16,卷積步長設(shè)置為1,padding設(shè)置為same,使卷積后不改變圖像的尺寸; 構(gòu)建第一Relu層,用于對第一卷積層的輸出做非線性激活操作,作用是增加網(wǎng)絡(luò)的非線性映射能力; 構(gòu)建第一BN層,用于對第一Relu層的輸出做歸一化操作; 構(gòu)建第一Dropout層,用于對第一BN層的輸出做dropout操作,通過隨機丟棄輸入的神經(jīng)元來達到正則化的目的,dropoutrate設(shè)置為0.5; 構(gòu)建第二卷積層,用于對第一Dropout層的輸出做卷積操作,卷積核大小為3×3,個數(shù)為32,卷積步長設(shè)置為1,padding設(shè)置為same; 構(gòu)建第二Relu層,用于對第二卷積層的輸出做非線性激活操作; 構(gòu)建第二BN層,用于對第二Relu層的輸出做歸一化操作; 構(gòu)建第二Dropout層,用于對第二BN層的輸出做dropout操作,dropoutrate設(shè)置為0.5; 構(gòu)建第一注意力機制模塊,該模塊由第一C模塊和第一S模塊組成,第一C模塊為第一注意力機制模塊的前半部分,第一S模塊為第一注意力機制模塊的后半部分,用于對第二Dropout層的輸出進一步處理; 構(gòu)建第三卷積層,用于對第一注意力機制模塊的輸出層做卷積操作,卷積核大小為3×3,個數(shù)為64,卷積步長設(shè)置為1,padding設(shè)置為same; 構(gòu)建第三Relu層,用于對第三卷積層的輸出做非線性激活操作; 構(gòu)建第三BN層,用于對第三Relu層的輸出做歸一化操作; 構(gòu)建第一MaxPooling層,用于對第三BN層的輸出做最大池化操作,池化窗口大小設(shè)置為2×2,池化步長設(shè)置為2,padding設(shè)置為same; 構(gòu)建第三Dropout層,用于對第一MaxPooling層的輸出做dropout操作,dropoutrate設(shè)置為0.5; 構(gòu)建第二注意力機制模塊,該模塊由第二C模塊和第二S模塊組成,第二C模塊為第二注意力機制模塊的前半部分,第二S模塊為第二注意力機制模塊的后半部分,用于對第三Dropout層的輸出進一步處理; 構(gòu)建第四卷積層,用于對第二注意力機制模塊的輸出層做卷積操作,卷積核大小為3×3,個數(shù)為128,卷積步長設(shè)置為1,padding設(shè)置為same; 構(gòu)建第四Relu層,用于對第四卷積層的輸出做非線性激活操作; 構(gòu)建第四BN層,用于對第四Relu層的輸出做歸一化操作; 構(gòu)建第二MaxPooling層,用于對第四BN層的輸出做最大池化操作,池化窗口大小設(shè)置為2×2,池化步長設(shè)置為2,padding設(shè)置為same; 構(gòu)建第一Flatten層,用于對第二MaxPooling層的輸出做降維展平操作,即將二維矩陣變換為一維向量; 構(gòu)建第一全連接層,神經(jīng)元數(shù)量設(shè)置為256,用于與第一Flatten層進行全連接; 構(gòu)建第五Relu層,用于對第一全連接層的輸出做非線性激活操作; 構(gòu)建第二全連接層,神經(jīng)元數(shù)量設(shè)置為128,用于與第五Relu層進行全連接; 構(gòu)建第六Relu層,用于對第二全連接層的輸出做非線性激活操作; 構(gòu)建輸出層,輸出層是網(wǎng)絡(luò)的終點,用于與第六Relu層全連接,輸出網(wǎng)絡(luò)的計算結(jié)果; 訓練所述神經(jīng)網(wǎng)絡(luò)模型具體包括: 步驟S1.初始化神經(jīng)網(wǎng)絡(luò)模型的所有參數(shù),使模型的所有參數(shù)滿足均值為0,方差為1的高斯分布; 步驟S2.將初始學習率設(shè)置為10-4,學習迭代次數(shù)設(shè)置為50000epoch,批處理大小batch_size設(shè)置為32; 步驟S3.從訓練集中隨機選取batch_size張人臉圖像輸入神經(jīng)網(wǎng)絡(luò),經(jīng)過網(wǎng)絡(luò)前向傳播后輸出網(wǎng)絡(luò)預測得分; 步驟S4.使用下式softmax交叉熵損失函數(shù)作為損失函數(shù),計算網(wǎng)絡(luò)輸出與真實值的損失值: 其中,n為模型預測的類別數(shù),在這里的n的值為2,即二分類;zi為模型預測每個類別的概率;zy為每個樣本的標簽,即該樣本的真實值; 步驟S5.使用Adam自適應梯度下降算法來更新網(wǎng)絡(luò)的權(quán)重參數(shù),迭代次數(shù)加1; 步驟S6.判斷是否達到了設(shè)置的迭代次數(shù),如果達到了,則訓練結(jié)束,保存網(wǎng)絡(luò)的權(quán)重參數(shù);若未達到,則重復步驟S3。

          如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人中國—東盟信息港股份有限公司,其通訊地址為:530000 廣西壯族自治區(qū)南寧市良慶區(qū)秋月路18號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

          以上內(nèi)容由AI智能生成
          免責聲明
          1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
          2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。
          主站蜘蛛池模板: 在线播放免费人成视频在线观看| 视频二区中文字幕在线| 国产精品日本一区二区在线播放| 亚洲 综合 校园 欧美 制服| 午夜在线欧美蜜桃| 日本一本到道免费一区二区 | 无遮挡粉嫩小泬久久久久久久| 亚洲一区二区精品极品| 国产日产欧产美韩系列麻豆| 国产福利在线永久视频| 2021午夜福利理论片| 日韩系列无码一中文字暮| 无码视频网站| 日韩精品一区二区都可以| 无尺码精品产品日韩| 精品亚洲一区二区三区在线播放 | 国产精品久久久久影院| 成人美女黄网站色大免费的| 国产成人av三级在线观看| 国产麻豆精品福利在线| 国产精品一区二区黄色片| 亚洲中文字幕经典三级| 影音先锋啪啪av资源网站| 日本熟妇人妻xxxxx-欢迎您 | 中文字幕亚洲精品人妻| 最新国产精品中文字幕| 夜夜影院未满十八勿进| 国产精品无码av在线一区| 人久久精品中文字幕无码小明47| 国精产品一区一区三区mba下载| 婷婷久久综合九色综合88| 一本大道东京热无码aⅴ| 蜜桃日本免费观看mv| 国产精品熟女高潮视频| 亚洲欧洲日韩在线电影| 免费观看欧美猛交视频黑人| 日本中文字幕乱码aa高清电影| 日韩精品亚洲一区在线综合 | 成人亚洲一区二区三区在线| 亚洲欧美不卡高清在线观看| 国产一区二区不卡91|