<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 合肥工業大學楊興明獲國家專利權

          合肥工業大學楊興明獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉合肥工業大學申請的專利基于視線方向對比學習的駕駛員分心行為檢測方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116092058B

          龍圖騰網通過國家知識產權局官網在2025-08-22發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211357758.1,技術領域涉及:G06V20/59;該發明授權基于視線方向對比學習的駕駛員分心行為檢測方法是由楊興明;景圣恩;吳克偉;張婉;劉家仁;張旭;謝昭設計研發完成,并于2022-11-01向國家知識產權局提交的專利申請。

          基于視線方向對比學習的駕駛員分心行為檢測方法在說明書摘要公布了:本發明公開了一種基于視線方向對比學習的分心駕駛行為檢測方法。本發明設計卷積神經網絡估計駕駛員頭部的凝視點坐標,根據凝視點坐標來計算視線方向。考慮駕駛場景中的感興趣目標位置,來找出視線方向中的感興趣目標,并修正視線方向。本發明通過挖掘容易混淆的駕駛狀態視頻幀,并利用對比學習,來準確辨別易混淆的駕駛狀態。對比學習考慮,使易混淆安全視頻幀特征接近易識別安全視頻幀特征,同時遠離易識別分心視頻幀特征,從而有效的分離易混淆的分心視頻幀和安全視頻幀。本發明估計的視線方向指向明確的感興趣目標,同時,使用對比學習,能夠有效實現容易混淆的視線方向情況下的分心行為檢測。

          本發明授權基于視線方向對比學習的駕駛員分心行為檢測方法在權利要求書中公布了:1.一種基于視線方向對比學習的駕駛員分心行為檢測方法,其特征在于:具體包括以下步驟: S1:處理駕駛員的頭部視頻,得到視頻幀; S2:構建凝視點提取網絡,提取駕駛員的凝視點坐標; S3:構建駕駛員視線加權和與物體距離加權的空間圖卷積網絡,提取駕駛員視線方向的空間圖卷積特征; S4:基于對比學習的空間圖卷積網絡訓練; S5:基于對比學習的駕駛員分心行為檢測; 步驟S1具體包括以下步驟: S1-1:在駕駛的過程中,使用位于駕駛員右前方的紅外攝像頭獲取駕駛員頭部視頻Vn和其真實值標簽其中n=1,2...N,表示視頻數量,為0表示非分心駕駛,為1表示分心駕駛; S1-2:將步驟S1-1得到的每個視頻Vn劃分為多幀不重疊的片段Snippetn,m,其中m=1,2...M,表示片段數量; S1-3:對每個片段Snippetn,m進行隨機采樣得到一個視頻幀Framen;m; 步驟S2具體包括以下步驟: S2-1:將步驟1-3得到的視頻幀Framen;m通過頭部位置提取模型,獲得頭部位置坐標ph; S2-2:計算頭部位置坐標的損失函數; 其中ph_gt表示頭部坐標的真實值,dph,ph_gt表示ph和ph_gt之間的歐式距離; S2-3:提取駕駛員的雙眼特征; S2-3-1:對S1-2獲得的視頻幀進行裁剪處理,提取左、右眼的區域,并將其尺寸調整為36×60; S2-3-2:使歸一化后的左眼區域和右眼區域各自通過并行的ResNet-18網絡,獲得的左眼特征表示為fl,右眼特征表示為fr,其維度都為1×224; S2-3-3:將左眼特征fl和右眼特征fr串聯起來通過一個輸出維度為256的全連接層,得到駕駛員的雙眼特征fe; S2-4:預測凝視點坐標pg; S2-4-1:將步驟S2-1得到的頭部位置坐標ph,通過三個輸出維度為256的全連接層,得到頭部位置特征fh; S2-4-2:將步驟S2-3-3得到的雙眼特征fe和步驟S2-4-1得到的頭部位置特征fh串聯起來,通過兩個輸出維度分別為256和2的全連接層,得到凝視點坐標pg; S2-5:計算凝視點坐標的損失函數; S2-5-1:計算駕駛員頭部到凝視點的歸一化向量為 S2-5-2:計算凝視點坐標的損失函數: 其中pg表示預測的凝視點坐標,pg_gt表示凝視點坐標的真實值,ph表示預測的頭部位置坐標。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人合肥工業大學,其通訊地址為:230009 安徽省合肥市包河區屯溪路193號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 成人国产精品日本在线观看| 久久中文字幕人妻熟女| av中文字幕在线二区| 越南女子杂交内射bbwxz| 色老99久久九九爱精品| 亚洲精品久久久久69影院| 小雪尝禁果又粗又大的视频 | 亚州日本乱码一区二区三区| 他用舌头给我高潮喷水在线 | 99精品丰满人妻无码a片| 日本丰满护士bbw| 亚洲国产精品久久久久久久| 亚洲区日韩精品中文字幕| 欧美黑人又粗又大久久久| 国产精品久久自在自线不卡 | 米奇影视第四色| 亚洲精品乱码久久久久久自慰 | 亚洲风情亚aⅴ在线发布| 国产欧美国日产高清| 亚洲色精品vr一区区三区| 欧美寡妇xxxx黑人猛交 | 一区二区三区一级黄色片| 无码男男作爱g片在线观看| 久久精品一区二区日韩av| 国产美女被遭强高潮网站不再| 国产av亚洲精品久久久久久| 欧美亚洲日本国产其他| 亚洲色无码综合图区手机| 美女内射毛片在线看免费人动物| 欧美精品亚洲日韩aⅴ| 蜜国产精品jk白丝av网站| 亚洲一区二区三区四区五区六| 国内精品视频一区二区三区| 在线a视频网站| 97久久精品人人澡人人爽| 人妻无码不卡中文字幕在线视频| 69堂人成无码免费视频果冻传媒| 国产佗精品一区二区三区| 日本视频高清一区二区三区| 人妻丰满熟妇av无码区不卡| 内射国产内射夫妻免费频道 |