西北工業大學張飛虎獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉西北工業大學申請的專利一種基于事件相機的密集三維重建方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116309774B 。
龍圖騰網通過國家知識產權局官網在2025-08-29發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211668022.6,技術領域涉及:G06T7/593;該發明授權一種基于事件相機的密集三維重建方法是由張飛虎;張威;侯旭佳設計研發完成,并于2022-12-23向國家知識產權局提交的專利申請。
本一種基于事件相機的密集三維重建方法在說明書摘要公布了:本發明涉及一種基于事件相機的密集三維重建方法,事件相機為動態視覺傳感器,三維重建步驟分為強度圖像重建、運動結構恢復和密集三維重建三部分。首先利用深度學習從事件中重建強度圖像;然后利用基于SFM的運動恢復結構來估計相機的內參、姿態以及稀疏點云,最后使用基于MVS的多立體視圖完成密集重建。在高動態范圍,缺少光照,以及高速運動的特殊環境下,傳統相機會出現模糊、過曝、以及欠曝的情況,這將會很大程度地影響重建地質量,但是由于事件相機的優勢,本發明完成密集三維重建的質量要遠高于傳統相機。
本發明授權一種基于事件相機的密集三維重建方法在權利要求書中公布了:1.一種基于事件相機的密集三維重建方法,其特征在于:所述事件相機為動態視覺傳感器,三維重建步驟分為強度圖像重建、運動結構恢復和密集三維重建三部分,具體過程如下: 一、強度圖像重建: 步驟1.1:建立基于UNet的強度圖像重建神經網絡,包括頭部層H,主體層B和預測層P;主體層B包括三個循環卷積模塊R1、R2、R3五個參數一致的分組卷積模塊G1、G2、G3、G4、G5,以及三個亞像素卷積模塊U1、U2、U3; 步驟1.2:將事件進行編碼,得到神經網絡輸入固定大小的通道張量輸入神經網絡,經過頭部層H中的卷積層和RELU激活函數,得到輸出通道大小為32的張量;其中卷積核大小為3×3; 步驟1.3:將頭部層H的輸出送入三個循環卷積模塊R1、R2、R3進行下采樣操作,輸入經過每個循環卷積塊后輸出通道數擴大了兩倍,每個卷積塊通道的張量高寬縮小了兩倍; 所述每個循環卷積卷積塊包括一個CBR和一個ConvLSTM模塊,采用ConvLSTM后保留以前的狀態信息,狀態信息用于結合當前輸入更新當前狀態; 所述CBR為卷積核大小為5×5的卷積層+正則化BatchNorm層+ReLU激活函數; 所述ConvLSTM模塊的卷積核大小為3×3; 步驟1.4:將經過三個循環卷積塊的輸出數據再輸入到兩個分組卷積塊G1和G2中,將輸入層的不同特征圖進行分組,然后再對各個組進行卷積; 所述分組卷積模塊先將輸入通道數為N的通道張量送入一個卷積核大小為1×1的卷積層,將通道數減半,然后經過一個每組張量數量為4的、卷積核大小為3×3的分組卷積層,得到了通道數為N2的輸出,最后再將這個輸出送入一個卷積核大小為1×1的卷積層,將通道數翻倍,得到了通道數為N的輸出; 步驟1.5:將三個循環卷積模塊的輸出分別輸入到一個分支,每個分支由一個分組卷積塊構成為G3、G4和G5; 分組卷積模塊先將輸入通道數為N的通道張量送入一個卷積核大小為1×1的卷積層,將通道數減半;然后經過一個每組張量數量為4的、卷積核大小為3×3的分組卷積層,得到了通道數為N2的輸出;最后再送入一個卷積核大小為1×1的卷積層,將通道數翻倍,得到了通道數為N的輸出; 步驟1.6:將通道數為N的輸出再由三個連續的亞像素卷積模塊U1、U2、U3進行上采樣操作; 每個亞像素卷積模塊先對輸入進行亞像素拼接操作,即上采樣時輸入大小為a×b×c,經過拼接操作后的輸出為2a×2b×c4,然后經過一個卷積核大小為3×3的卷積層,得到了整個主體層B的輸出; 其中:經過每個亞像素卷積塊后輸出通道數縮小了兩倍,每個卷積塊通道的張量高寬擴大了兩倍;每個亞像素卷積模塊的輸入是對應的循環卷積模塊經過分組卷積分支處理后G3、G4、G5的輸出和前一個亞像素卷積模塊的輸出; 步驟1.7:將第一個循環卷積模塊R1的輸出輸入到一個亞像素卷積模塊U0中進行上采樣操作,并將上采樣的結果和整個主體層B的輸出作為輸入送到預測層中;預測層得到輸入后,先將其送入一個卷積層進行卷積,然后送入一個正則化層,最后通過Sigmoid激活函數得到輸出,輸出是對每個像素預測一個在0到1之間的值; 二、運動結構恢復: 步驟2.1:將經過神經網絡重建后的強度圖像作為輸入圖像集ψ={Ii|i=1,2...NI},對每個輸入圖像采用SIFT特征提取算法檢測他的特征和描述子,并將特征坐標記為x,將特征描述子記為f,將所有檢測到的特征和描述子記為一個集合Fi={xj,fj|j=1,2...NFi}; 步驟2.2:利用Fi作為圖像的外觀描述來進行SIFT特征匹配,通過為圖像Ib中的每個特征找到圖像Ia中匹配度最高的特征描述子搜索特征的對應關系,發現看到相同場景的圖像; 經過特征匹配,輸出是一組潛在匹配成功的圖像對C={{Ia,Ib}|Ia,Ib∈ψ,a<b}和他們的相關特征對應Mab∈Fa×F; 步驟2.3:利用潛在匹配成功圖像對的對極幾何關系計算每個圖像對的基礎矩陣F,計算相機的內參和姿態,如果一個有效的相機內參和姿態映射了超過30個圖像之間的特征,認為通過了幾何驗證,然后利用RANSAC方法對通過了幾何驗證的圖像對進行異常值濾波,最終的輸出為經過幾何驗證的圖像對和他們的相關特征對應 步驟2.4:在經過幾何驗證的圖像對中選擇基線距離大于10cm中匹配特征最多的圖像對,進行三角測量和非線性優化,估計相機的變換矩陣和空間中3D點的坐標; 步驟2.5:將剩下的圖像對,以特征匹配質量由多到少順序作為輸入加入到非線性優化中,重復步驟2.4的過程,直至所有的圖像對優化結束,最終得到的輸出為相機的變換矩陣集P={Pc∈SE3|c=1,2...Np}和空間中3D坐標點集X={Xk∈R3|k=1,2...NX},即完成了稀疏重建; 三、密集三維重建: 步驟3.1:將運動恢復結構輸出的變換矩陣和空間中3D點坐標以及對應的圖像作為輸入,利用Patch-MatchStereo方法進行稠密點云重建,輸出為稠密點云和其對應的圖像; 步驟3.2:將稠密點云和其對應的圖像作為輸入,使用基于二元分割的表面重建方法對稠密點云進行粗表面重建,將稠密點云分為內部和外部兩類,介于內部和外部之間的面即為物體的表面,輸出為一個粗糙表面重建; 步驟3.3:將粗糙表面重建作為輸入,利用基于光度一致性對網格表面進行細節優化,對多視角圖像再次計算光度一致性,輸出為一個精細的表面重建; 步驟3.4:對精細表面重建進行紋理貼圖,輸出最后的密集三維重建結果。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人西北工業大學,其通訊地址為:710072 陜西省西安市友誼西路;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。