<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 南京郵電大學霍智勇獲國家專利權

          南京郵電大學霍智勇獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉南京郵電大學申請的專利一種基于混合神經網絡模型的單目圖像深度估計方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116934825B

          龍圖騰網通過國家知識產權局官網在2025-08-26發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202310918311.5,技術領域涉及:G06T7/50;該發明授權一種基于混合神經網絡模型的單目圖像深度估計方法是由霍智勇;趙麗萍設計研發完成,并于2023-07-25向國家知識產權局提交的專利申請。

          一種基于混合神經網絡模型的單目圖像深度估計方法在說明書摘要公布了:本發明屬于計算機視覺領域,公開了一種基于混合神經網絡模型的單目圖像深度估計方法,包括:給定RGB圖像和真實深度值,進行標準化操作,將RGB圖像經過卷積模塊,得到淺層的圖像特征,然后將特征劃分為塊,進行不同區域的特征強化,得到帶有重要程度判別的特征并將該特征依次經過Transformer模塊,得到深層的特征,將淺層的圖像特征與深層的特征組成圖像特征序列,進行特征融合,得到完整的特征表示后利用深度信息輸出塊,獲得的深度圖,將深度圖與真實深度值進行誤差分析,得到最終的網絡模型,完成深度估計。本發明建立了局部信息和遠距離依賴關系,增強了對空間特征的捕獲和對局部結構的表達,實現更準確的深度估計結果。

          本發明授權一種基于混合神經網絡模型的單目圖像深度估計方法在權利要求書中公布了:1.一種基于混合神經網絡模型的單目圖像深度估計方法,其特征在于:所述單目圖像深度估計方法包括如下步驟: 步驟1、給定RGB圖像和其對應的真實深度值; 步驟2、對給定RGB圖像進行標準化操作,使其符合步驟3中卷積模塊的輸入要求; 步驟3、經過標準化操作的RGB圖像依次經過2個卷積模塊,得到淺層的圖像特征; 步驟4、將步驟3獲得的淺層的圖像特征劃分為塊,利用塊注意力模塊進行不同區域的特征強化,得到帶有重要程度判別的特征; 步驟5、將步驟4得到的帶有重要程度判別的特征依次經過Transformer模塊,得到深層的特征; 步驟6、將步驟3獲得的淺層的圖像特征與步驟5得到深層的特征組成不同尺度的圖像特征序列,在特征融合模塊中由深到淺依次進行特征融合,得到完整的特征表示; 步驟7、將步驟6得到完整的特征表示,利用深度信息輸出塊,將其映射到對應的深度表示,獲得的深度圖; 步驟8、將步驟7獲得的深度圖與步驟1中RGB圖像的真實深度值利用平移不變性損失進行誤差分析,在目標損失最小的條件下,優化模型,得到最終的網絡模型,完成深度估計,其中: 所述步驟4將卷積捕捉到的淺層的圖像特征通過塊注意力模塊轉化為具有不同重要性的塊,再送入Transformer模塊,產生更具代表性的標記,塊注意力模塊在垂直和水平方向上聚合淺層的圖像特征,捕捉遠距離的依賴關系,并保留精確的位置信息,具體包括如下步驟: 步驟4-1、由卷積模塊生成淺層的圖像特征圖,并將其分割為塊 分別使用兩個平均池化ph,1或1,pw來編碼每個通道沿水平坐標和垂直坐標,得到: 其中,和分別表示第c個通道在高度ph和寬度pw處的輸出,i為垂直方向的第i個特征塊,j為水平方向的第j個特征塊,p為特征塊的數量; 步驟4-2、將和的輸出相連,再利用卷積進行變換: f=δF1[zph,zpw] 其中,[zph,zpw]表示沿空間維度的連接操作,δ非線性激活函數,f是中間特征映射; 步驟4-3、沿著空間維度將f分割成兩個單獨的序列fph和fpw,同時,另外兩個1×1卷積變換Fph和FPw被用來分別將fph和fpw轉換為具有與輸入塊相同通道數的序列, gph=σFphfph gpw=σFpwfpw 其中,σ表示sigmoid函數,fph和fpw是兩個單獨的序列,Fph和FPw是兩個1×1卷積變換,gph和gpw是兩個權重, 式中,x′ci,j是加權的塊,然后被嵌入到標記中進行進一步處理,xci,j表示輸入的塊,和是兩個空間權重。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人南京郵電大學,其通訊地址為:210003 江蘇省南京市鼓樓區新模范馬路66號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 成年无码av片完整版| 少妇被爽到高潮喷水久久欧美精品| 久爱www人成免费网站| 亚洲欧洲自拍拍偷精品网| 久久精品无码专区免费东京热 | 日韩成视频在线精品| 欲香欲色天天综合和网| 亚洲国产精品成人网址天堂 | 精品国产露脸久久av| 欧洲熟妇色xxxxx欧美老妇伦| 国产美女无遮挡裸色视频| 无码国产精品一区二区色情男同| 99精品全国免费观看视频| 久久成人伊人欧洲精品| 国产999精品2卡3卡4卡| 伊人久久大香线蕉av网禁呦| 最新精品视频2019在线视频| 亚洲色婷婷婷婷五月基地| 国产av一区二区三区| 久久久久久精品色费色费s| 帮老师解开蕾丝奶罩吸乳视频| 免费无码午夜理论电影| 极品少妇被弄得高潮不断| 40岁成熟女人牲交片| 国产午夜激无码av毛片不卡| 久久国产精品无码hdav | 日韩在线视频观看免费网站| 免费观看全黄做爰的视频| 欧美一区二区日韩国产| 欧洲人激情毛片无码视频| 免费视频爱爱太爽了| 野花社区www高清视频| 久久精品国产精品亚洲精品| 人妻无码久久一区二区三区免费 | 乱子伦视频在线看| 国产99久60在线视频 | 传媒| 无码人妻丰满熟妇奶水区码 | 成人无码看片在线观看免费| 日本视频网站www色高清免费| 精品国产午夜肉伦伦影院| 国产精品人成视频免费999|