湖南大學(xué)余洪山獲國(guó)家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉湖南大學(xué)申請(qǐng)的專利一種基于端到端特征優(yōu)化模型的無人系統(tǒng)視覺自定位方法獲國(guó)家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國(guó)家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號(hào)為:CN115659836B 。
龍圖騰網(wǎng)通過國(guó)家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-09-19發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請(qǐng)?zhí)?專利號(hào)為:202211411175.2,技術(shù)領(lǐng)域涉及:G06F30/27;該發(fā)明授權(quán)一種基于端到端特征優(yōu)化模型的無人系統(tǒng)視覺自定位方法是由余洪山;王靜文設(shè)計(jì)研發(fā)完成,并于2022-11-10向國(guó)家知識(shí)產(chǎn)權(quán)局提交的專利申請(qǐng)。
本一種基于端到端特征優(yōu)化模型的無人系統(tǒng)視覺自定位方法在說明書摘要公布了:本發(fā)明公開了一種基于端到端特征優(yōu)化模型的無人系統(tǒng)視覺自定位方法,步驟一、構(gòu)造模型;構(gòu)造端到端預(yù)測(cè)全局位姿的深度神經(jīng)網(wǎng)絡(luò)模型,即Re?PoseNet網(wǎng)絡(luò),或稱Re?PoseNet模型;步驟二、模型訓(xùn)練;針對(duì)某一特定場(chǎng)景,對(duì)Re?PoseNet模型進(jìn)行訓(xùn)練;步驟三、模型應(yīng)用;將在所述的特定場(chǎng)景處采集的圖像輸入到Re?PoseNet模型中,返回端到端的位姿估計(jì)結(jié)果。該基于端到端特征優(yōu)化模型的無人系統(tǒng)視覺自定位方法具有精度高、實(shí)時(shí)性好、魯棒性強(qiáng)、存儲(chǔ)空間占用小、適用于室內(nèi)外多種場(chǎng)景等優(yōu)點(diǎn)。
本發(fā)明授權(quán)一種基于端到端特征優(yōu)化模型的無人系統(tǒng)視覺自定位方法在權(quán)利要求書中公布了:1.一種基于端到端特征優(yōu)化模型的無人系統(tǒng)視覺自定位方法,其特征在于,包括以下步驟: 步驟一、構(gòu)造模型 構(gòu)造端到端預(yù)測(cè)全局位姿的深度神經(jīng)網(wǎng)絡(luò)模型,即Re-PoseNet網(wǎng)絡(luò),或稱Re-PoseNet模型; 步驟二、模型訓(xùn)練 針對(duì)某一特定場(chǎng)景,對(duì)Re-PoseNet模型進(jìn)行訓(xùn)練; 步驟三、模型應(yīng)用 將在所述的特定場(chǎng)景處采集的圖像輸入到Re-PoseNet模型中,返回端到端的位姿估計(jì)結(jié)果; Re-PoseNet模型包括特征提取器、特征優(yōu)化模塊和位姿回歸器,特征提取器是基于殘差網(wǎng)絡(luò)ResNet34的特征提取器,特征優(yōu)化模塊由兩個(gè)交叉注意力模塊和四方向的長(zhǎng)短期記憶模塊組成,位姿回歸器由全連接層構(gòu)成; 步驟二中的訓(xùn)練所用到的訓(xùn)練集的獲取方式為: 使用裝載視覺傳感器的移動(dòng)機(jī)器人隨機(jī)遍歷某一場(chǎng)景,采集一組圖像及其全局位姿作為訓(xùn)練數(shù)據(jù)集T,用于構(gòu)建該場(chǎng)景的隱式地圖模型,其中每幀圖像對(duì)應(yīng)的全局位姿作為后續(xù)網(wǎng)絡(luò)訓(xùn)練的真值標(biāo)簽,記為其中表示位置信息,是用四元數(shù)表示的旋轉(zhuǎn)信息; 訓(xùn)練過程為: 步驟1:對(duì)訓(xùn)練數(shù)據(jù)集T中的所有圖像Ii進(jìn)行預(yù)處理,生成尺寸為256×256、像素強(qiáng)度介于-1和1之間的訓(xùn)練圖像 步驟2:將一組訓(xùn)練圖像及其位姿標(biāo)簽按照批量大小batch_size=64輸入Re-PoseNet,通過位姿回歸器得到預(yù)測(cè)位姿[p,q],同時(shí)構(gòu)建聯(lián)合損失函數(shù)計(jì)算預(yù)測(cè)位姿[p,q]與其對(duì)應(yīng)真值之間的損失; 步驟3:設(shè)置超參數(shù)初始學(xué)習(xí)率為5×10-5,迭代次數(shù)為1000,使用Adam優(yōu)化器訓(xùn)練Re-PoseNet網(wǎng)絡(luò),通過迭代使得損失函數(shù)不斷收斂減小,更新網(wǎng)絡(luò)參數(shù)直至達(dá)到迭代次數(shù),選取損失函數(shù)取得最小值時(shí)對(duì)應(yīng)的一組模型參數(shù),作為該場(chǎng)景最優(yōu)的隱式地圖模型; 步驟三中,移動(dòng)機(jī)器人在該場(chǎng)景內(nèi)以任意運(yùn)動(dòng)狀態(tài)進(jìn)行作業(yè),對(duì)其在任意時(shí)刻采集的位姿未知的圖像It進(jìn)行預(yù)處理,生成尺寸為256×256、像素強(qiáng)度介于-1和1之間的圖像并作為查詢圖像輸入訓(xùn)練好的具有最優(yōu)權(quán)重的Re-PoseNet模型中; 通過特征提取器得到查詢圖像的特征圖再經(jīng)由注意力模塊和長(zhǎng)短期記憶單元得到經(jīng)過優(yōu)化的特征向量最后由位姿回歸器分別輸出預(yù)測(cè)的位置信息與旋轉(zhuǎn)信息獲得端到端的位姿估計(jì)結(jié)果。
如需購買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請(qǐng)人或?qū)@麢?quán)人湖南大學(xué),其通訊地址為:410000 湖南省長(zhǎng)沙市岳麓區(qū)麓山南路麓山門;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報(bào)告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
- 聯(lián)邦快遞服務(wù)公司O-P.斯卡斯魯獲國(guó)家專利權(quán)
- 西菲伊德公司詹姆斯·王獲國(guó)家專利權(quán)
- 新唐科技日本株式會(huì)社犬飼文人獲國(guó)家專利權(quán)
- 弗勞恩霍夫應(yīng)用研究促進(jìn)協(xié)會(huì)馬庫斯·施內(nèi)爾獲國(guó)家專利權(quán)
- 電子灣有限公司馬修·李·基格獲國(guó)家專利權(quán)
- 創(chuàng)新先進(jìn)技術(shù)有限公司倪飛獲國(guó)家專利權(quán)
- 日產(chǎn)自動(dòng)車株式會(huì)社伊澤佳典獲國(guó)家專利權(quán)
- 柯惠有限合伙公司J·D·布蘭南獲國(guó)家專利權(quán)
- 德克薩斯儀器股份有限公司A·康達(dá)路拉烏獲國(guó)家專利權(quán)
- 維薩國(guó)際服務(wù)協(xié)會(huì)J·弗里安特獲國(guó)家專利權(quán)


熱門推薦
- 德克薩斯儀器股份有限公司J·茨維西亞克獲國(guó)家專利權(quán)
- 松下電器(美國(guó))知識(shí)產(chǎn)權(quán)公司王立磊獲國(guó)家專利權(quán)
- 研究三角協(xié)會(huì)布魯斯·布勞獲國(guó)家專利權(quán)
- VID拓展公司陳俊吉獲國(guó)家專利權(quán)
- M技術(shù)株式會(huì)社榎村真一獲國(guó)家專利權(quán)
- 菲利普莫里斯生產(chǎn)公司G·聚貝獲國(guó)家專利權(quán)
- 應(yīng)用材料公司任河獲國(guó)家專利權(quán)
- 匹茲堡大學(xué)-屬高等教育聯(lián)邦體系約瑟夫·C·格洛廖索三世獲國(guó)家專利權(quán)
- 朗姆研究公司保羅·孔科拉獲國(guó)家專利權(quán)
- X4 制藥有限公司E·M·J·布爾克獲國(guó)家專利權(quán)