大連民族大學張秀峰獲國家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉大連民族大學申請的專利一種基于深度學習的多特征表情識別方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN115410254B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-09-23發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202211031481.3,技術(shù)領(lǐng)域涉及:G06V40/16;該發(fā)明授權(quán)一種基于深度學習的多特征表情識別方法是由張秀峰;齊國斌;張寧;付興魁設(shè)計研發(fā)完成,并于2022-08-26向國家知識產(chǎn)權(quán)局提交的專利申請。
本一種基于深度學習的多特征表情識別方法在說明書摘要公布了:一種基于深度學習的多特征表情識別方法,屬于機器學習和深度學習技術(shù)領(lǐng)域,包括如下:獲取包含人體和環(huán)境的清晰圖像并進行簡單的預(yù)處理,將圖片壓縮到640*640大小或小于這個大小的原色RGB圖片,保留顏色通道,這里使用的是公開數(shù)據(jù)集Emotic表情識別數(shù)據(jù)集;整體網(wǎng)絡(luò)的構(gòu)成為目標檢測網(wǎng)絡(luò)并聯(lián)場景信息識別網(wǎng)絡(luò),最后輸出到分類網(wǎng)絡(luò),而目標檢測網(wǎng)絡(luò)由主干網(wǎng)絡(luò)CSPdarknet53,特征提取的特征金字塔結(jié)構(gòu)并聯(lián)特征增強網(wǎng)絡(luò),最后輸出人體的位置信息和01置信度信息,再送入分類網(wǎng)絡(luò)和場景信息一起進行分類輸出最終結(jié)果。本發(fā)明使用了多尺度的上下文信息提取模塊,上下文注意力模塊和內(nèi)容注意力模塊,實現(xiàn)了提升圖片前景權(quán)重的目的,提升了圖片中人的檢測比重。
本發(fā)明授權(quán)一種基于深度學習的多特征表情識別方法在權(quán)利要求書中公布了:1.一種基于深度學習的多特征表情識別方法,其特征在于,包括如下步驟:獲取包含人體和環(huán)境的清晰圖像并進行預(yù)處理,將圖片壓縮到640*640大小或小于所述大小的原色RGB圖片,保留顏色通道,使用公開數(shù)據(jù)集Emotic表情識別數(shù)據(jù)集; 整體網(wǎng)絡(luò)的構(gòu)成為目標檢測網(wǎng)絡(luò)并聯(lián)場景信息識別網(wǎng)絡(luò),最后輸出到分類網(wǎng)絡(luò),而目標檢測網(wǎng)絡(luò)由主干網(wǎng)絡(luò)CSPdarknet53構(gòu)成主干網(wǎng)絡(luò),特征提取的特征金字塔結(jié)構(gòu)并聯(lián)特征增強網(wǎng)絡(luò),最后輸出人體的位置信息和01置信度信息,再送入分類網(wǎng)絡(luò)和場景信息一起進行分類輸出最終結(jié)果; 所述主干網(wǎng)絡(luò)CSPdarknet53由多個殘差結(jié)構(gòu)組成,保持原生網(wǎng)絡(luò)的輸出不變,在其中的第三層殘差塊、第四層殘差塊和第五層殘差塊的輸出之前,加入一個對多個尺度信息進行采集的空間金字塔池化,空間金字塔池化進行簡化網(wǎng)絡(luò)參數(shù)、融合多尺度信息;并在三層殘差塊、第四層殘差塊和第五層殘差塊輸出三張大小分別為80*80,40*40和20*20的特征圖,使特征提取網(wǎng)絡(luò)進行采樣整合,實現(xiàn)后續(xù)的特征提取過程; CSPdarknet53屬于目標檢測模型YOLO的主干網(wǎng)絡(luò),針對人體特征提取特性,在保證主干網(wǎng)絡(luò)整體的參數(shù)量不額外增加的情況下,修改主干網(wǎng)絡(luò)的損失函數(shù)為mish函數(shù),加入全新的多特征池化分支以增強網(wǎng)絡(luò)的多尺度感知能力; 所述特征增強網(wǎng)絡(luò)使用空洞卷積和注意力機制,對人體目標進行多尺度的,高權(quán)重的特征提取,保證網(wǎng)絡(luò)訓練過程中能夠多注意人體特征,突出人物主體; 采用并行多尺度空洞卷積和正采樣結(jié)構(gòu)對特征提取網(wǎng)絡(luò)中經(jīng)過通道規(guī)整后的特征圖進行進一步特征提取; 多個尺度的空洞卷積將最大化的感知圖片上不同大小的區(qū)域,并聯(lián)上采樣和全連接層后,最大化地保留原有的特征信息; 所述特征增強網(wǎng)絡(luò)是一種模塊化的附加網(wǎng)絡(luò),安插在主干網(wǎng)絡(luò)的輸出,特征金字塔結(jié)構(gòu)的輸出和特征金字塔結(jié)構(gòu)的采樣末端,包含一組全連接和上采樣的簡單輸出網(wǎng)絡(luò)和一組多個可變尺度的空洞卷積層,空洞卷積的大小皆為3×3,擴張率為3到24的可變值,并進行堆疊,擴大特征以學習可變的幾何特征建模能力; 所述特征增強分為上下文信息提取模塊,上下文注意力模塊和內(nèi)容注意力模塊,在獲得特征金字塔提取的特征映射后,利用豐富的上下文信息,將其輸入到上下文信息提取模塊中,上下文信息提取模塊由不同擴張率的多路徑空洞卷積組成,分離的卷積層在不同的感受野中獲取多個特征映射; 在每個路徑中引入可變形的卷積層,可變形的卷積層確保上下文信息提取模塊從給定的數(shù)據(jù)中學習轉(zhuǎn)換不變的特征。
如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人大連民族大學,其通訊地址為:116600 遼寧省大連市經(jīng)濟技術(shù)開發(fā)區(qū)遼河西路18號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。