浙江大學(xué)李基拓獲國家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉浙江大學(xué)申請的專利一種自適應(yīng)調(diào)整關(guān)注域的端到端單目視覺里程計方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN120298500B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-08-26發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202510779933.3,技術(shù)領(lǐng)域涉及:G06T7/73;該發(fā)明授權(quán)一種自適應(yīng)調(diào)整關(guān)注域的端到端單目視覺里程計方法是由李基拓;孫順旺;張佳路;薛庭熙;胡錦瑤;鄒雨哲;陸國棟設(shè)計研發(fā)完成,并于2025-06-12向國家知識產(chǎn)權(quán)局提交的專利申請。
本一種自適應(yīng)調(diào)整關(guān)注域的端到端單目視覺里程計方法在說明書摘要公布了:本發(fā)明公開了一種自適應(yīng)調(diào)整關(guān)注域的端到端單目視覺里程計方法,該方法通過構(gòu)建光流估計網(wǎng)絡(luò)與位姿估計網(wǎng)絡(luò)緊湊聯(lián)結(jié)架構(gòu),同時基于端到端的深度學(xué)習(xí)設(shè)計,將光流預(yù)測、特征提取、注意力優(yōu)化和位姿回歸無縫集成。同時引入雙重注意力機制(CBAM模塊)和語義特征融合,過濾動態(tài)物體、低紋理和模糊區(qū)域的干擾,并且結(jié)合語義特征融合,提升模型對場景的理解能力,從而優(yōu)化位姿估計精度及網(wǎng)絡(luò)結(jié)構(gòu),采用輕量化CBAM模塊和高效殘差塊設(shè)計,降低計算量,實現(xiàn)特征提取的自適應(yīng)調(diào)整和場景理解增強。本發(fā)明系統(tǒng)復(fù)雜度降低,無需手動設(shè)計和調(diào)優(yōu)多個模塊,端到端設(shè)計避免模塊間誤差累積,整體性能更穩(wěn)定,在資源受限的嵌入式設(shè)備上實現(xiàn)高效的位姿估計。
本發(fā)明授權(quán)一種自適應(yīng)調(diào)整關(guān)注域的端到端單目視覺里程計方法在權(quán)利要求書中公布了:1.一種自適應(yīng)調(diào)整關(guān)注域的端到端單目視覺里程計方法,其特征在于,包括以下步驟: 1使用單目相機采集連續(xù)的視頻幀序列;再對輸入圖像需進(jìn)行預(yù)處理,并調(diào)整歸一化像素值范圍; 2將連續(xù)兩幀圖像輸入預(yù)訓(xùn)練的光流估計網(wǎng)絡(luò),將經(jīng)過兩個ResNetFPN網(wǎng)絡(luò)獲得的隱藏層特征和代價體與通過置信度上采樣模塊和光流上采樣模塊分別獲得的初始化的置信度圖和初始化的光流圖一同輸入RNN網(wǎng)絡(luò)經(jīng)過N次循環(huán),獲得最終預(yù)測的光流圖,即光流信息,且光流估計網(wǎng)絡(luò)輸出語義特征; 3根據(jù)相機內(nèi)參生成內(nèi)參層;將光流信息和內(nèi)參層經(jīng)過裁剪處理,并縮放四分之一比例,然后在通道維度上將兩者拼接生成位姿網(wǎng)絡(luò)的輸入特征; 4利用語義信息融合機制將注意力轉(zhuǎn)向特征層面,通過計算特征圖中每個通道或區(qū)域的權(quán)重,根據(jù)計算得到的語義權(quán)重對原始特征圖進(jìn)行加權(quán)融合,實現(xiàn)語義信息與光流信息的融合;具體包括如下子步驟: 4.1將語義特征通過雙線性插值調(diào)整至ResNet主干網(wǎng)絡(luò)中間第二層layer2特征圖分辨率相同大小,然后通過1×1卷積和Sigmoid函數(shù)生成語義權(quán)重;所述ResNet主干網(wǎng)絡(luò)為位姿估計網(wǎng)絡(luò)的主干網(wǎng)絡(luò); 4.2最后,將語義權(quán)重與layer2輸出特征圖逐元素相乘,實現(xiàn)語義信息與光流信息的融合; 5將步驟3生成的位姿網(wǎng)絡(luò)的輸入特征輸入位姿估計網(wǎng)絡(luò)進(jìn)行處理,即光流內(nèi)參的特征提取與雙重注意力優(yōu)化,最后得到相機的位姿。
如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人浙江大學(xué),其通訊地址為:310058 浙江省杭州市西湖區(qū)余杭塘路866號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。