陜西師范大學裴炤獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉陜西師范大學申請的專利基于HRNet-雙流transformer網(wǎng)絡的人體動作識別方法獲國家發(fā)明授權專利權,本發(fā)明授權專利權由國家知識產(chǎn)權局授予,授權公告號為:CN116612533B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權局官網(wǎng)在2025-08-26發(fā)布的發(fā)明授權授權公告中獲悉:該發(fā)明授權的專利申請?zhí)?專利號為:202310602650.2,技術領域涉及:G06V40/20;該發(fā)明授權基于HRNet-雙流transformer網(wǎng)絡的人體動作識別方法是由裴炤;周彥辛;張艷寧設計研發(fā)完成,并于2023-05-25向國家知識產(chǎn)權局提交的專利申請。
本基于HRNet-雙流transformer網(wǎng)絡的人體動作識別方法在說明書摘要公布了:一種基于HRNet?雙流transformer網(wǎng)絡的人體動作識別方法,由采集人體動作視頻、構建HRNet?雙流transformer網(wǎng)絡、訓練HRNet?雙流transformer網(wǎng)絡、識別人體動作類別步驟組成。本發(fā)明采用了HRNet?雙流transformer網(wǎng)絡,借助HRNet?雙流transformer網(wǎng)絡提取人體動作視頻的特征,降低了現(xiàn)有人體動作識別技術中人體動作視頻的環(huán)境對人體動作識別結果的影響,有效地提高人體動作識別的準確性。本發(fā)明具有對采集的人體動作視頻質量要求低、識別視頻中人體動作準確率高、應用場景廣泛等優(yōu)點,可在街道、教室、餐廳、會議室等場景識別人體動作。
本發(fā)明授權基于HRNet-雙流transformer網(wǎng)絡的人體動作識別方法在權利要求書中公布了:1.一種基于HRNet-雙流transformer網(wǎng)絡的人體動作識別方法,其特征在于由下述步驟組成: 1采集人體動作視頻 用攝像機獲取人體動作視頻,截取人體動作視頻片段,記錄其代表動作作為動作標簽cn,讀取該視頻片段的幀并排列成幀集合V: V={p1,p2,…,pt} 其中pt表示t時刻的幀,t∈{1,2,...,A×Z},A表示視頻片段的長度,A取值為1~10,Z表示幀采樣頻率,Z取值為1~50;將幀集合V和動作標簽cn組成樣本: Qu={Vu,cn} 其中n是動作標簽的種類,n∈{1,2,...,10},c1為行走,c2為坐下,c3為站起,c4為刷牙,c5為戴眼鏡,c6為摘眼鏡,c7為喝水,c8為吃飯,c9為鼓掌,c10為握手,u是人體動作視頻的種類,u取值為100~600,構建人體動作數(shù)據(jù)集J,J∈{Q1,Q2,...,Qu},將人體動作數(shù)據(jù)集J按照5∶1劃分為訓練集、測試集; 2構建HRNet-雙流transformer網(wǎng)絡 HRNet-雙流transformer網(wǎng)絡由HRNet網(wǎng)絡與雙流transformer網(wǎng)絡串聯(lián)構成; 所述的HRNet網(wǎng)絡由第一特征提取模塊與第二特征提取模塊、第三特征提取模塊依次串聯(lián)構成; 所述的雙流transformer網(wǎng)絡由人體關鍵點transformer分支網(wǎng)絡與視頻特征transformer分支網(wǎng)絡并聯(lián)構成;人體關鍵點transformer分支網(wǎng)絡由人體關鍵點輸入層與第一卷積層、第二卷積層、第三卷積層、自注意力模塊、第四卷積層、池化層依次串聯(lián)構成;視頻特征transformer分支網(wǎng)絡由視頻序列輸入層與第一卷積層、第二卷積層、第三卷積層、自注意力模塊、第四卷積層、池化層依次串聯(lián)構成; 3訓練HRNet-雙流transformer網(wǎng)絡 1確定HRNet網(wǎng)絡損失函數(shù) 按式1確定HRNet網(wǎng)絡損失函數(shù)lhr: 其中表示的歐幾里得范式,F(xiàn)t是特征圖,是所有Ft的平均值,EFt是回歸函數(shù),ω是迭代更新參數(shù),O指迭代次數(shù),β是系數(shù),取值為0.2; 2確定特征圖 按式2確定特征圖Ft: 其中,是不同分辨率的特征矩陣,rw表示分辨率,w表示分辨率種類,w∈{1,2,3},r1為高分辨率,r2為中分辨率,r3為低分辨率; 按式3確定不同分辨率的特征矩陣 其中,a表示幀集合V的像素點; 3確定人體關鍵點transformer分支網(wǎng)絡的損失函數(shù) 按式4確定人體關鍵點transformer分支網(wǎng)絡的損失函數(shù)lkey: Sn=Softmaxcn 其中,M表示真實特征,Sn是cn輸入Softmax函數(shù)中得到的標簽; 4確定視頻特征transformer分支的損失函數(shù) 按式5確定視頻特征transformer分支的損失函數(shù)lv: 其中,表示的歐幾里得范式; 5確定雙流transformer網(wǎng)絡的損失函數(shù) 按式6確定雙流transformer網(wǎng)絡的損失函數(shù)ltr: ltr=lkey+δlu6 其中,δ是參數(shù),δ取值為0.01~0.03; 6確定HRNet-雙流transformer網(wǎng)絡的損失函數(shù) 按式7確定HRNet-雙流transformer網(wǎng)絡的損失函數(shù)l: l=lhr+ltr7 7訓練集輸入HRNet-雙流transformer網(wǎng)絡 將訓練集輸入HRNet-雙流transformer網(wǎng)絡進行訓練,數(shù)據(jù)批量為4,學習率α為0.001,迭代次數(shù)O取500,迭代至HRNet-雙流transformer網(wǎng)絡的損失函數(shù)l收斂,得到訓練好的HRNet-雙流transformer網(wǎng)絡; 4識別人體動作類別 將測試集輸入到訓練好的HRNet-雙流transformer網(wǎng)絡中進行測試,得到測試集的人體動作類別作為網(wǎng)絡的識別結果。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯(lián)系本專利的申請人或專利權人陜西師范大學,其通訊地址為:710062 陜西省西安市長安南路199號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。