合肥工業大學楊興明獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉合肥工業大學申請的專利基于視線方向對比學習的駕駛員分心行為檢測方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116092058B 。
龍圖騰網通過國家知識產權局官網在2025-08-22發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211357758.1,技術領域涉及:G06V20/59;該發明授權基于視線方向對比學習的駕駛員分心行為檢測方法是由楊興明;景圣恩;吳克偉;張婉;劉家仁;張旭;謝昭設計研發完成,并于2022-11-01向國家知識產權局提交的專利申請。
本基于視線方向對比學習的駕駛員分心行為檢測方法在說明書摘要公布了:本發明公開了一種基于視線方向對比學習的分心駕駛行為檢測方法。本發明設計卷積神經網絡估計駕駛員頭部的凝視點坐標,根據凝視點坐標來計算視線方向。考慮駕駛場景中的感興趣目標位置,來找出視線方向中的感興趣目標,并修正視線方向。本發明通過挖掘容易混淆的駕駛狀態視頻幀,并利用對比學習,來準確辨別易混淆的駕駛狀態。對比學習考慮,使易混淆安全視頻幀特征接近易識別安全視頻幀特征,同時遠離易識別分心視頻幀特征,從而有效的分離易混淆的分心視頻幀和安全視頻幀。本發明估計的視線方向指向明確的感興趣目標,同時,使用對比學習,能夠有效實現容易混淆的視線方向情況下的分心行為檢測。
本發明授權基于視線方向對比學習的駕駛員分心行為檢測方法在權利要求書中公布了:1.一種基于視線方向對比學習的駕駛員分心行為檢測方法,其特征在于:具體包括以下步驟: S1:處理駕駛員的頭部視頻,得到視頻幀; S2:構建凝視點提取網絡,提取駕駛員的凝視點坐標; S3:構建駕駛員視線加權和與物體距離加權的空間圖卷積網絡,提取駕駛員視線方向的空間圖卷積特征; S4:基于對比學習的空間圖卷積網絡訓練; S5:基于對比學習的駕駛員分心行為檢測; 步驟S1具體包括以下步驟: S1-1:在駕駛的過程中,使用位于駕駛員右前方的紅外攝像頭獲取駕駛員頭部視頻Vn和其真實值標簽其中n=1,2...N,表示視頻數量,為0表示非分心駕駛,為1表示分心駕駛; S1-2:將步驟S1-1得到的每個視頻Vn劃分為多幀不重疊的片段Snippetn,m,其中m=1,2...M,表示片段數量; S1-3:對每個片段Snippetn,m進行隨機采樣得到一個視頻幀Framen;m; 步驟S2具體包括以下步驟: S2-1:將步驟1-3得到的視頻幀Framen;m通過頭部位置提取模型,獲得頭部位置坐標ph; S2-2:計算頭部位置坐標的損失函數; 其中ph_gt表示頭部坐標的真實值,dph,ph_gt表示ph和ph_gt之間的歐式距離; S2-3:提取駕駛員的雙眼特征; S2-3-1:對S1-2獲得的視頻幀進行裁剪處理,提取左、右眼的區域,并將其尺寸調整為36×60; S2-3-2:使歸一化后的左眼區域和右眼區域各自通過并行的ResNet-18網絡,獲得的左眼特征表示為fl,右眼特征表示為fr,其維度都為1×224; S2-3-3:將左眼特征fl和右眼特征fr串聯起來通過一個輸出維度為256的全連接層,得到駕駛員的雙眼特征fe; S2-4:預測凝視點坐標pg; S2-4-1:將步驟S2-1得到的頭部位置坐標ph,通過三個輸出維度為256的全連接層,得到頭部位置特征fh; S2-4-2:將步驟S2-3-3得到的雙眼特征fe和步驟S2-4-1得到的頭部位置特征fh串聯起來,通過兩個輸出維度分別為256和2的全連接層,得到凝視點坐標pg; S2-5:計算凝視點坐標的損失函數; S2-5-1:計算駕駛員頭部到凝視點的歸一化向量為 S2-5-2:計算凝視點坐標的損失函數: 其中pg表示預測的凝視點坐標,pg_gt表示凝視點坐標的真實值,ph表示預測的頭部位置坐標。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人合肥工業大學,其通訊地址為:230009 安徽省合肥市包河區屯溪路193號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。