北京交通大學滕竹獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉北京交通大學申請的專利一種基于時空特征增強網絡的視頻人體行為識別方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116912727B 。
龍圖騰網通過國家知識產權局官網在2025-09-09發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202310669142.6,技術領域涉及:G06V20/40;該發明授權一種基于時空特征增強網絡的視頻人體行為識別方法是由滕竹;陳敏;張寶鵬;李浥東設計研發完成,并于2023-06-07向國家知識產權局提交的專利申請。
本一種基于時空特征增強網絡的視頻人體行為識別方法在說明書摘要公布了:本發明提供了一種基于時空特征增強網絡的視頻人體行為識別方法。該方法包括:將訓練視頻數據的幀圖像輸入到視頻人體行為識別模型中,通過局部時空特征增強模塊提取出幀圖像中的幀級別運動的局部時空特征,利用全局時空特征增強模塊獲取幀圖像中的視頻級運動的全局時空特征,通過多特征融合模塊融合局部時空特征和全局時空特征,將得到的最終的特征表示輸入到全連接層,全連接層輸出視頻數據中的人體行為識別結果;當重復執行上述處理過程迭代訓練視頻人體行為識別模型達到設定次數后,得到訓練好的視頻人體行為識別模型,利用訓練好的視頻人體行為識別模型對待檢測的視頻數據進行人體行為識別。本發明方法可以高效地從視頻中識別出行人的行為。
本發明授權一種基于時空特征增強網絡的視頻人體行為識別方法在權利要求書中公布了:1.一種基于時空特征增強網絡的視頻人體行為識別方法,其特征在于,包括: 構建包括局部時空特征增強模塊、全局時空特征增強模塊和多特征融合模塊的視頻人體行為識別模型; 將訓練視頻數據的幀圖像輸入到所述視頻人體行為識別模型中,通過局部時空特征增強模塊提取出幀圖像中的幀級別運動的局部時空特征,利用全局時空特征增強模塊獲取幀圖像中的視頻級運動的全局時空特征,通過多特征融合模塊融合所述局部時空特征和所述全局時空特征,將得到的最終的特征表示輸入到全連接層,全連接層輸出視頻數據中的人體行為識別結果; 當重復執行上述處理過程迭代訓練所述視頻人體行為識別模型達到設定次數后,得到訓練好的視頻人體行為識別模型,利用所述訓練好的視頻人體行為識別模型對待檢測的視頻數據進行人體行為識別; 所述的通過多特征融合模塊融合所述局部時空特征和所述全局時空特征,將得到的最終的特征表示輸入到全連接層,全連接層輸出視頻數據中的人體行為識別結果,包括: 將分段后稀疏采樣的視頻序列與全局特征增強模塊的輸出FG之和輸入到多特征融合模塊,多特征融合模塊使用卷積從輸入數據中提取時空特征、通道特征和運動特征三類互補關鍵信息,基于注意力機制對時空特征、通道特征與運動特征進行增強,通道特征增強首先經過空間平均池化實現降維,然后經過卷積核為1×1的二維卷積、卷積核為3的一維卷積以及卷積核為1×1的二維卷積得到通道增強特征Fc,時空特征增強首先經過通道平均池化實現降維,經過一個卷積核為3×3×3的三維卷積增強時空特征Fst,運動特征增強首先利用1×1的二維卷積在通道上分成16份得到特征Fmii∈[1,16],將Fmi+1輸入到卷積核為3×3的二維卷積后得到新的特征,再與特征Fmi進行差分運算,再經過一個1×1的二維卷積層得到運動增強特征Fm; 將三類增強的特征之和Fc+Fst+Fm與該多特征融合模塊的原始輸入數據一同送入ResNet50的殘差模塊得到最終的特征表示FM,將最終的特征表示FM輸入到作為分類器的全連接層,全連接層獲取輸入的視頻數據中的人體動作類別,輸出人體行為識別結果。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人北京交通大學,其通訊地址為:100044 北京市海淀區西直門外上園村3號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。