<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 廈門大學陳祥獲國家專利權

          廈門大學陳祥獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉廈門大學申請的專利基于自適應學習和聚合的多視圖立體重建方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115631223B

          龍圖騰網通過國家知識產權局官網在2025-09-19發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211183328.2,技術領域涉及:G06T7/593;該發明授權基于自適應學習和聚合的多視圖立體重建方法是由陳祥;董繼揚;張曉燕;石浩;羅攀;韓超;廖加銘設計研發完成,并于2022-09-27向國家知識產權局提交的專利申請。

          基于自適應學習和聚合的多視圖立體重建方法在說明書摘要公布了:本發明涉及一種基于自適應學習和聚合的多視圖立體重建方法,它包括以下步驟:S1.特征提取,從輸入圖像中提取圖像特征,將眾多信息中不重要的信息剔除;S2.匹配代價構建,在每個采樣深度假設下,計算參考攝像機中的每個像素與其相鄰攝像機對應匹配像素之間的匹配成本;S3.匹配代價正則化,對匹配代價中的代價體進行去噪處理;S4.深度圖估計,將匹配代價正則化后的結果利用函數回歸加權得到初始深度圖;S5.深度圖優化,將初始深度圖的邊緣部分減輕過平滑的影響。本發明的目的在于提供一種基于自適應學習和聚合的多視圖立體重建方法,相比MVSNet有著更高的重建精度和完整度,并且極大降低時間消耗和顯卡內存消耗。

          本發明授權基于自適應學習和聚合的多視圖立體重建方法在權利要求書中公布了:1.一種基于自適應學習和聚合的多視圖立體重建方法,它包括以下步驟: S1.特征提取,從輸入圖像中提取圖像特征,將眾多信息中不重要的信息剔除,只保留場景關鍵信息; S2.匹配代價構建,在每個采樣深度假設下,計算參考攝像機中的每個像素與其相鄰攝像機對應匹配像素之間的匹配成本; S3.匹配代價正則化,對匹配代價中的代價體進行去噪處理; S4.深度圖估計,將匹配代價正則化后的結果利用函數回歸加權得到初始深度圖; S5.深度圖優化,將初始深度圖的邊緣部分減輕過平滑的影響; 其特征在于,步驟S1中構建多尺度特征聚合提取器,多尺度特征聚合提取器包含三個卷積單元,每個卷積單元由三層卷積層組成,除最后一個卷積層外,前面兩個卷積層后面均緊跟著一個批量歸一化層和一個ReLU激活函數層; 每幅輸入圖像均會生成三個大小分別為H4xW4、H2xW2和HxW的特征圖,之后將三個尺度的特征圖分別輸入可變形卷積層處理;當輸出H4xW4大小的特征圖時,將其他兩個尺度的特征圖分別下采樣至H4xW4;接著將三個尺度的特征圖沿著特征維度進行拼接,得到多尺度聚合后的特征圖,其分辨率為H4xW4x64; 其他分辨率以此類推,最終輸出特征圖分別為H4xW4x64、H2xW2x64和HxWx64; 步驟S2中將特征圖和相應相機的內外參數結合起來,使用單應性變換構建三維空間的匹配代價; 給定一張參考圖像和一系列源圖像集合S,S定義為: ; 其中N表示輸入圖像的數量,H和W分別是圖像的高度和寬度; 以參考圖像為基準,使用單應性變換將第i個視角對應的特征圖變換為與參考圖像對應的特征圖平行的平面,單應性變換公式如下: ; 其中,為參考圖像,為與進行多視角立體匹配的匹配視圖,為各個視圖對應的相機內參數、旋轉矩陣和平移向量,d為深度范圍內的均勻采樣值,為參考圖像對應相機的主軸線,上標T為矩陣里面的轉置,I為單位矩陣; 接著利用單應矩陣建立源圖像和參考圖像的特征映射之間的對應關系,公式如下: ; 其中,表示源圖像特征圖映射至參考圖像視角后的特征圖; 再計算與相似性,以此來衡量兩個視角的匹配程度,定義為以下等式: ; 其中,表示內積,的維度為WxHxDxC; 得到逐視角代價體后通過一個三層的三維卷積網絡,最后一層輸出通道維度為1,再通過sigmoid函數,將代價體轉換成各個像素可見性概率圖; 最終將每個匹配代價體乘以一個權重值后求和得出最終聚合的匹配代價體,聚合匹配代價定義為: ; 其中表示源視圖和參考視圖之間的像素可見度。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人廈門大學,其通訊地址為:361005 福建省廈門市思明區思明南路422號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          以上內容由AI智能生成
          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 无码精品毛片波多野结衣| 国产蜜臀av在线一区尤物 | 人妻人人做人碰人人添| 亚洲国产精品一区二区成人片 | 九色综合国产一区二区三区| 国产成人一区二区无码不卡在线| 亚洲精品日韩精品久久| 国产精品久久久久久人妻无| 国产av一区二区三区传媒| 老司机午夜精品视频资源| 亚洲欧美日韩国产制服另类| 色妞www精品视频二| 国产日产欧产精品品不卡| 中文国产不卡一区二区| 国产精品18久久久| 国产精品久久自在自线不卡| 久久av无码精品人妻系列果冻传媒| 日本一区二区在线高清观看| 国产午夜成人精品视频app| 日本在线a一区视频高清视频| 亚洲熟妇自偷自拍另欧美| 久久国产精品福利一区二区三区| 人妻系列中文字幕精品| 人人妻人人爽人人澡av| 国产v亚洲v天堂a_亚洲| 人妻少妇无码专视频在线| 亚洲嫩模喷白浆在线观看| 久女女热精品视频在线观看| 曰韩无码av片免费播放不卡| 国产精品无码无需播放器| 国产亚洲日韩av在线播放不卡| h动漫无遮挡成本人h视频| 粉嫩极品美女国产在线观看| 夜夜躁狠狠躁日日躁视频| 天天躁日日躁狠狠躁超碰97| av天堂久久精品影音先锋| 怡春院国产精品视频| 亚洲色大成网站www永久男同| 久久久久亚洲精品成人网| 熟妇人妻无乱码中文字幕真矢织江 | 中文区中文字幕免费看|