<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 南京理工大學肖亮獲國家專利權

          南京理工大學肖亮獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉南京理工大學申請的專利基于深度網絡的可見光-紅外目標跟蹤方法及系統獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN114219824B

          龍圖騰網通過國家知識產權局官網在2025-09-05發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202111554433.8,技術領域涉及:G06T7/20;該發明授權基于深度網絡的可見光-紅外目標跟蹤方法及系統是由肖亮;郭朝陽設計研發完成,并于2021-12-17向國家知識產權局提交的專利申請。

          基于深度網絡的可見光-紅外目標跟蹤方法及系統在說明書摘要公布了:本發明公開了一種基于深度網絡的可見光?紅外目標跟蹤方法及系統,包括:構建對稱的雙流孿生網絡,包括可見光子網絡和紅外子網絡;將可見光樣本?候選圖像和紅外樣本?候選圖像分別輸入到可見光子網絡和紅外子網絡,提取模板和候選特征;通過通道注意力模塊和通道?空間聯合注意力模塊增強模板和候選特征;將原始模板和候選特征及增強的模板和候選特征均通過分類分支和回歸分支進行分類、分支,得到對應的分類響應圖和回歸響應圖;對分類響應圖和回歸響應圖進行融合;通過自適應峰值選擇模塊處理分類響應圖和回歸響應圖,獲取目標定位。本發明在保證跟蹤魯棒性的同時仍能高速運行,應用于可見光?紅外目標跟蹤任務具有優異的性能。

          本發明授權基于深度網絡的可見光-紅外目標跟蹤方法及系統在權利要求書中公布了:1.一種基于深度網絡的可見光-紅外目標跟蹤方法,其特征在于,包括步驟: 構建對稱的雙流孿生網絡,包括可見光子網絡和紅外子網絡; 將可見光樣本-候選圖像和紅外樣本-候選圖像分別輸入到可見光子網絡和紅外子網絡,提取模板和候選特征; 通過通道注意力模塊和通道-空間聯合注意力模塊增強模板和候選特征; 將原始模板和候選特征及增強的模板和候選特征均通過分類分支和回歸分支進行分類、分支,得到對應的分類響應圖和回歸響應圖; 對分類響應圖和回歸響應圖進行融合; 通過自適應峰值選擇模塊處理分類響應圖和回歸響應圖,獲取目標定位; 所述通道注意力模塊和通道-空間聯合注意力模塊分別嵌入可見光子網絡和紅外子網絡中;通過通道注意力模塊和通道-空間聯合注意力模塊增強模板和候選特征具體為: 通道注意力模塊的輸入為Featrgb∈Rh×w×c,Feattir∈Rh×w×c,輸出的增強特征為: Featrgb∈Rh×w×c,Feattir∈Rh×w×c Featunion=CatFeatrgb,Feattir Weight=GResizeFCGPFeatunion 其中,Cat·,·表示按通道維度級聯操作,Featunion∈Rh×w×2c表示級聯后的特征;GP·表示全局池化操作,FC·表示全連接層,Resize·表示調整尺寸操作,G·表示激活函數,Weight∈Rh×w×2c表示計算出的權重;*表示矩陣的點乘,表示增強后的特征;Apart·表示按通道維度特征拆分,分別表示增強后的可見光特征和紅外特征,h、w、c分別為可見光圖像數據的三個維度,即高、寬、通道數; 空間注意力模塊的輸入Featrgb∈Rh×w×c,Feattir∈Rh×w×c,輸出的增強特征為: Featrgb∈Rh×w×c,Feattir∈Rh×w×c Featunion=CatFeatrgb,Feattir 其中,Cat·,·表示按通道維度級聯操作,Featunion∈Rh×w×2c表示級聯后的特征;Avg·表示平均池化操作,Max·表示最大池化操作,為二維卷積,Sspatial∈Rk×k×c表示空間注意力模塊二維卷積核,G·表示激活函數,Weight∈Rh×w×2c為計算出的權重;×是廣播乘,表示增強后的特征;Apart·表示按通道維度特征拆分,分別是增強后的可見光特征和紅外特征; 所述通道-空間注意力模塊由串聯的通道注意力模塊和空間注意力模塊構成,將由可見光子網絡和紅外子網絡的骨干網絡提取的可見光候選特征和紅外候選特征進行增強。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人南京理工大學,其通訊地址為:210094 江蘇省南京市孝陵衛200號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 精品午夜久久福利大片| 国产日韩一区二区四季| 国产精品中文字幕二区| 国产精品一码在线播放| 日韩成人无码中文字幕| 国产裸体裸美女无遮挡网站| 丁香五月激情缘综合区| 国产成人精品亚洲日本专区61| 国产精品福利视频萌白酱| 日韩中文字幕区一区有砖一区| 免费久久精品国产片| 亚洲熟女乱色一区二区三区 | 欧美激情猛片xxxⅹ大3| 奇米影视色777四色在线首页 | 精品视频在线观看免费观看| 无码av免费一区二区三区试看| 中文字幕+乱码+中文字幕一区 | 国产精品人妻久久毛片高清无卡| 影视先锋男人无码在线| 国产成人午夜福利在线播放| 波多野结衣绝顶大高潮| 国产精品三级黄色小视频| 韩国18禁啪啪无遮挡免费| 亚洲欧美不卡高清在线观看| 一卡2卡三卡4卡免费网站| 午夜福利理论片在线观看| 中文字幕 欧美精品 第1页| 成人免费乱码大片a毛片| 国产午国产午夜精华 免费| 亚洲欧洲无卡二区视頻| 亚洲日本VA中文字幕在线| 免费无码AV一区二区波多野结衣 | 亚洲 日韩 欧美 有码 在线| 亚洲狼人伊人中文字幕| 国产亚洲一卡2卡3卡4卡新区| 日本丰满妇人成熟免费中文字幕| 久久亚洲国产精品五月天婷| 国产成人精品日本亚洲第一区| 又大又粗又爽的少妇免费视频| 精品人妻系列无码人妻不卡| 2020国产激情视频在线观看|