<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 深圳職業技術大學楊歐獲國家專利權

          深圳職業技術大學楊歐獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉深圳職業技術大學申請的專利基于上下文幾何立方體和扭曲視差優化的立體匹配方法和系統獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN119599967B

          龍圖騰網通過國家知識產權局官網在2025-09-23發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202411639453.9,技術領域涉及:G06T7/00;該發明授權基于上下文幾何立方體和扭曲視差優化的立體匹配方法和系統是由楊歐;吳慶甜;龍婷;劉寧設計研發完成,并于2024-11-18向國家知識產權局提交的專利申請。

          基于上下文幾何立方體和扭曲視差優化的立體匹配方法和系統在說明書摘要公布了:本發明公開了一種基于上下文幾何特征和扭曲視差優化的立體匹配方法,首先通過雙目相機拍攝標定好的左右兩張圖片,提取兩張圖片的多尺度的上下文特征,根據左右特征圖對應不同視差下的特征點計算特征點之間的相似度,也就是匹配代價,從而構造幾何立方體包含著豐富的幾何匹配信息。同時將上下文特征按視差復制擴展成同樣大小的上下文特征立方體,包含著豐富的上下文信息。幾何立方體中包含著不同視差左右視圖特征點的匹配情況,通過左視圖的上下文特征指導代價聚合,初步將上下文特征信息、不同視差下的特征點代價匹配信息以及相鄰特征點的幾何信息融合,來提高代價匹配的可靠性,生成幾何注意力權重立方體。以過濾上下文特征立方體。

          本發明授權基于上下文幾何立方體和扭曲視差優化的立體匹配方法和系統在權利要求書中公布了:1.一種基于上下文幾何特征和扭曲視差優化的立體匹配方法,其特征在于,包括如下步驟: 1獲取雙目相機標定好的待匹配的左右視角圖像,對該待匹配的左右視角圖像對進行預處理,以得到預處理后的左右視角圖像; 2將步驟1得到的預處理后的左右視角圖像輸入預先訓練好的立體匹配模型中,以得到最終的視差圖作為立體匹配結果;立體匹配模型包含順次相連的輕量化多尺度特征提取網絡、3D正則化網絡、扭曲視差優化模塊、3D深度可分離卷積模塊四個部分; 3D正則化網絡包括沙漏網絡模塊以及上下文幾何注意力模塊; 沙漏網絡模塊包含下采樣和上采樣兩個部分; 下采樣部分包括: 第一層解碼器,其輸入是一個形狀為B,C,D4,H4,W4的五維張量,其首先將該五維張量輸入一個維度為3×3×3的3D卷積核,將該五維張量的通道數轉換成2C,從而輸出一個形狀為B,2C,D8,H8,W8的五維張量;然后,將該五維張量先后輸入第二個維度為3×3×3的3D卷積核和BN+ReLU層,最終輸出一個形狀為B,2C,D8,H8,W8的五維張量,其中D表示左右視角圖像的視差; 第二層解碼器,其輸入是第一層解碼器輸出的形狀為B,2C,D8,H8,W8的五維張量,其首先將該五維張量輸入一個維度為3×3×3的3D卷積核,將該五維張量的通道數轉換成4C,從而輸出一個形狀為B,4C,D16,H16,W16的五維張量;然后,將該五維張量先后輸入第二個維度為3×3×3的3D卷積核和BN+ReLU層,最終輸出一個形狀為B,4C,D16,H16,W16的五維張量; 第三層解碼器,其輸入為第二層解碼器輸出的形狀為B,4C,D16,H16,W16的五維張量,其首先將該五維張量輸入一個維度為3×3×3的3D卷積核,將該五維張量的通道數轉換成6C,從而輸出一個形狀為B,6C,D32,H32,W32的五維張量;然后,將該五維張量先后輸入第二個維度為3×3×3的3D卷積核和BN+ReLU層,最終輸出一個形狀為B,6C,D32,H32,W32的五維張量; 上采樣部分包括: 第一層編碼器,其輸入為下采樣第三層解碼器輸出的形狀為B,6C,D32,H32,W32的五維張量,其首先將該五維張量輸入一個維度為4×4×4的3D卷積核,將該五維張量的通道數轉換成4C,從而輸出一個形狀為B,4C,D16,H16,W16的五維張量;然后,將該五維張量先后輸入BN+ReLU層,最終輸出一個形狀為B,4C,D16,H16,W16的五維張量; 第二層編碼器,其輸入為第一層解碼器輸出形狀為B,4C,D16,H16,W16的五維張量,其首先將該五維張量輸入一個維度為4×4×4的3D卷積核,將該五維張量的通道數轉換成2C,從而輸出一個形狀為B,2C,D8,H8,W8的五維張量;然后,將該五維張量先后輸入BN+ReLU層,最終輸出一個形狀為B,2C,D8,H8,W8的五維張量; 第三層編碼器,其輸入為第二層解碼器輸出形狀為B,2C,D8,H8,W8的五維張量,其首先將該五維張量輸入一個維度為4×4×4的3D卷積核,將該五維張量的通道數轉換成C,從而輸出一個形狀為B,C,D4,H4,W4的五維張量;然后,將該五維張量先后輸入BN+ReLU層,最終輸出一個形狀為B,C,D4,H4,W4的五維張量; 上下文幾何注意力模塊包括兩個輸入,一個輸入是左視角特征圖Fc,其是一個形狀為B,C,H,W的四維張量,其包含了豐富的上下文特征信息;另一個輸入是幾何立方體FG,其形狀為B,C,D,H,W的五維張量,其包含了豐富的幾何信息; 上下文幾何注意力模塊首先將左視角特征圖按視差維度擴展成形狀為B,C,D,H,W的五維張量,即上下文特征立方體F′c,并將幾何立方體FG和上下文特征立方體F′c沿通道維度進行拼接,以得到形狀為B,2C,D,H,W的五維張量,即拼接立方體;然后,將該五維張量輸入一個維度為1×5×5的3D卷積核,將該五維張量的通道數減少為C,從而輸出一個形狀為B,C,D,H,W的五維張量;隨后,將該五維張量使用σSigmoid函數激活,從而輸出一個形狀為B,C,D,H,W的五維張量,即拼接融合立方體ACF,其公式如下: ACF=σconv3dconcat{F′c,FG} 其中concat表示輸入的張量沿通道維度進行拼接,conv3d表示3D卷積; 然后,通過拼接融合立方體ACF∈RB×C×D×H×W與上下文特征立方體F′c來逐元素相乘得到初始上下文集合注意力,其是一個形狀為B,C,D,H,W的五維張量,隨后,將該五維張量與幾何立方體沿通道維度拼接,輸出一個形狀為B,2C,D,H,W的五維張量;最后將該五維張量輸入一個維度為1×5×5的3D卷積核,將該五維張量的通道數減少為C,從而輸出一個形狀為B,C,D,H,W的五維張量,即上下文幾何注意力立方體G,其充分融合上下文特征信息和幾何信息,以得到包含豐富信息的上下文幾何注意力立方體G,其公式如下所示: G=conv3dconcat{FG,ACF⊙F′c} 其中⊙表示逐元素相乘; 扭曲視差優化模塊包括: 第一部分是扭曲視差變換層,其輸入是右視角特征圖和初始視差圖,右視角特征圖是一個形狀為B,C,H,W的四維張量,初始視差圖是一個形狀為B,1,H,W的四維張量,扭曲視差變換層首先根據輸入的右視角特征圖的通道數C、高度H和寬度W創建網格坐標xx,yy,用于表示右視角特征圖中每個像素點的坐標;然后,根據初始視差圖對網格橫坐標xx進行扭曲調整,以得到更新后的網格橫坐標,將該網格橫坐標調整到標準化范圍[-1,1],并將標準化調整后的網格橫坐標轉換為PyTorch的grid格式,以得到初始視差調整后的扭曲網格坐標warpedxx,warpedyy;隨后,使用nn.functional.grid_sample函數,并利用初始視差調整后的扭曲網格坐標,對右視角特征圖進行雙線性插值采樣出庫,以得到扭曲后的圖像;最后,創建一個與右視角特征圖相同大小的全為1的掩碼mask,使用nn.functional.grid_sample函數,并利用初始視差調整后的扭曲網格坐標對掩碼mask進行雙線性插值采樣,得到扭曲網格坐標目標位置的掩碼的值,以確定右視角特征圖中的有效像素,并保留有效像素,從而得到視差扭曲之后的形狀為B,C,H,W的四維張量,即扭曲后的右視角特征圖; 第二部分是扭曲代價立方體構建層,其輸入是扭曲視差變換層得到的扭曲后的右視角特征圖、左視角特征圖和最大視差值maxdisp,扭曲代價立方體構建層首先根據左視角特征圖的形狀,創建一個與左視角特征圖相同數據類型的全零張量volume,用于存儲相關性體積;然后,根據最大視差值maxdisp確定視差值范圍[-maxdisp,maxdisp],遍歷視差值范圍中的所有整數視差,并使用余弦相似性計算左視角特征圖和扭曲右視角特征圖在每個整數視差下的相關性;最后;將獲得的所有整數視差下的相關性存儲在全零張量volume中,以得到扭曲成本體,其形狀為B,C,D,H,W的五維張量; 第三部分是扭曲視差優化層,其輸入是左視角特征圖、初始視差圖,以及第二層得到的扭曲成本體,扭曲視差優化層首先將左視角特征圖減去扭曲右視角特征圖,以得到重建誤差,其是形狀為B,C,H,W的四維張量;然后,將重建誤差、左視角特征圖、初始視差圖、扭曲成本體沿通道維度進行張量的拼接,以得到拼接體,其是形狀為B,C′,H,W的四維張量;然后,將拼接體和初始視差輸入8個卷積層構成的亞精度模塊中進行視差優化,以提取其中的殘差視差值disp,即視差維度值。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人深圳職業技術大學,其通訊地址為:518055 廣東省深圳市南山區西麗街道留仙大道7098號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          以上內容由AI智能生成
          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 国产精品免费久久久久影院| 日本欧美一区二区三区高清| 亚洲一区二区| 久久人人97超碰人人澡| 高潮潮喷奶水飞溅视频无码| 国产成人久久久精品二区三区| 欧美最猛性视频另类| 久热这里只有精品12| 国产乱码人妻一区二区三区| 无码人妻一区二区三区免费看 | 国产精品亚亚洲欧关中字幕| 精品国内在视频线2019| 女人被狂躁到高潮视频免费无遮挡| 亚洲熟女av综合网五月| 亚洲综合久久成人a片红豆| 久久人人爽人人爽人人片av| 久久99精品久久久久麻豆| 天天摸日日摸狠狠添| 双乳被老汉揉搓a毛片免费观看| 最美女人体内射精一区二区 | 国产一区日韩二区欧美三区| 国产精品中文字幕综合| 不卡国产一区二区三区| 色窝窝免费播放视频在线| 国产99视频精品免费视频36| 久久久久久伊人高潮影院| h动漫无遮挡成本人h视频 | 精品国产品香蕉在线| 闺蜜张开腿让我爽了一夜| 久久se精品一区二区三区| 亚洲国产无线乱码在线观看| 国产午夜羞羞小视频在线观看免费 | 国产久免费热视频在线观看| 日韩精品无码区免费专区| 免费无码AV一区二区波多野结衣| 国产欧美日韩高清在线不卡| 女性爽爽影院免费观看| 一个色综合国产色综合| 欧美色欧美亚洲另类二区| 粗壮挺进人妻水蜜桃成熟| 国产杨幂av在线播放|