南京郵電大學(xué)顏俊獲國(guó)家專利權(quán)
買(mǎi)專利賣(mài)專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉南京郵電大學(xué)申請(qǐng)的專利基于yolov3和卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)定位方法獲國(guó)家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國(guó)家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號(hào)為:CN115170662B 。
龍圖騰網(wǎng)通過(guò)國(guó)家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-09-09發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請(qǐng)?zhí)?專利號(hào)為:202210786206.6,技術(shù)領(lǐng)域涉及:G06T7/73;該發(fā)明授權(quán)基于yolov3和卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)定位方法是由顏俊;錢(qián)琛;曹艷華設(shè)計(jì)研發(fā)完成,并于2022-07-04向國(guó)家知識(shí)產(chǎn)權(quán)局提交的專利申請(qǐng)。
本基于yolov3和卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)定位方法在說(shuō)明書(shū)摘要公布了:本發(fā)明提供了一種基于yolov3和卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)定位方法,包括離線訓(xùn)練階段和在線定位階段,離線訓(xùn)練階段劃分子區(qū)域,獲取訓(xùn)練數(shù)據(jù);利用yolov3網(wǎng)絡(luò)訓(xùn)練rgb色彩圖建立目標(biāo)檢測(cè)模型;根據(jù)目標(biāo)檢測(cè)結(jié)果對(duì)深度圖像進(jìn)行分割和圖像融合,得到訓(xùn)練數(shù)據(jù)指紋;最后利用卷積神經(jīng)網(wǎng)絡(luò)得到位置估計(jì)模型;在線定位階段,利用目標(biāo)檢測(cè)模型進(jìn)行圖像融合得到在線數(shù)據(jù)指紋;確定每個(gè)目標(biāo)的位置估計(jì)模型,得到目標(biāo)位置。本發(fā)明通過(guò)yolov3網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)經(jīng)離線訓(xùn)練階段建立位置估計(jì)模型,并對(duì)深度圖像進(jìn)行切割和融合,提取訓(xùn)練定位指紋,經(jīng)在線階段利用在線定位指紋和位置估計(jì)模型,完成多目標(biāo)定位,解決了現(xiàn)有目標(biāo)定位方法預(yù)測(cè)靈活性不足、準(zhǔn)確性不夠的問(wèn)題。
本發(fā)明授權(quán)基于yolov3和卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)定位方法在權(quán)利要求書(shū)中公布了:1.一種基于yolov3和卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)定位方法,包含離線訓(xùn)練階段和在線定位階段兩個(gè)階段,其特征在于: 離線訓(xùn)練階段包括: 步驟1:將定位區(qū)間分成若干個(gè)子區(qū)間,利用相機(jī)獲取每個(gè)子區(qū)間的訓(xùn)練數(shù)據(jù),訓(xùn)練數(shù)據(jù)包括點(diǎn)云信息、rgb色彩圖和深度圖像; 步驟2:采用yolov3網(wǎng)絡(luò)對(duì)rgb色彩圖進(jìn)行多目標(biāo)檢測(cè)識(shí)別離線訓(xùn)練,得到訓(xùn)練結(jié)果,并建立多目標(biāo)檢測(cè)模型; 步驟3:根據(jù)多目標(biāo)檢測(cè)模型輸出的目標(biāo)識(shí)別結(jié)果,對(duì)深度圖像進(jìn)行切割和融合,提取每個(gè)目標(biāo)的訓(xùn)練定位指紋; 步驟4:將步驟3得到的每個(gè)目標(biāo)的訓(xùn)練定位指紋和對(duì)應(yīng)的位置信息,送入卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行離線回歸訓(xùn)練,得到每個(gè)子區(qū)間的位置估計(jì)模型; 在線定位階段包括: 步驟5:利用相機(jī)采集在線數(shù)據(jù),在線數(shù)據(jù)包括點(diǎn)云信息、rgb色彩圖和深度圖像; 步驟6:將步驟5得到的rgb色彩圖送入步驟2的多目標(biāo)檢測(cè)模型,輸出目標(biāo)檢測(cè)結(jié)果,完成目標(biāo)識(shí)別; 步驟7:利用步驟6得到的目標(biāo)檢測(cè)結(jié)果,對(duì)步驟5所得的深度圖像進(jìn)行分割和融合,得到每個(gè)目標(biāo)的在線定位指紋; 步驟8:利用步驟5所得的每個(gè)目標(biāo)的點(diǎn)云信息,確定每個(gè)目標(biāo)適用的步驟4的所述位置估計(jì)模型,結(jié)合步驟7所述在線定位指紋,完成多目標(biāo)定位; 步驟3具體包括: 步驟31:根據(jù)步驟2的多目標(biāo)檢測(cè)模型的對(duì)每個(gè)目標(biāo)的box信息的輸出,得到每個(gè)目標(biāo)在訓(xùn)練數(shù)據(jù)的rgb色彩圖中的位置信息; 步驟32:根據(jù)目標(biāo)在rgb色彩圖中的位置,對(duì)每個(gè)目標(biāo)識(shí)別結(jié)果找到目標(biāo)對(duì)應(yīng)于步驟1深度圖像中的位置,并將像素設(shè)為1,深度圖像的其他位置像素設(shè)置為0,完成對(duì)深度圖像的分割,得到分隔深度圖; 步驟33:將基于目標(biāo)分割的分隔深度圖與步驟1中得到的原始深度圖像對(duì)應(yīng)位置的像素值進(jìn)行相加,進(jìn)行像素級(jí)融合,在原始深度圖像中融入目標(biāo)位置特征,形成每個(gè)目標(biāo)的訓(xùn)練定位指紋。
如需購(gòu)買(mǎi)、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請(qǐng)人或?qū)@麢?quán)人南京郵電大學(xué),其通訊地址為:210023 江蘇省南京市鼓樓區(qū)新模范馬路66號(hào);或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報(bào)告根據(jù)公開(kāi)、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
- 上海云拿智能科技有限公司李庭濤獲國(guó)家專利權(quán)
- 三星電子株式會(huì)社吳旼哲獲國(guó)家專利權(quán)
- 滿康德股份有限公司Q·曾獲國(guó)家專利權(quán)
- 愛(ài)德華茲生命科學(xué)公司D·S·帕特爾獲國(guó)家專利權(quán)
- 華為技術(shù)有限公司于健獲國(guó)家專利權(quán)
- 塞壩股份公司M·巴赫曼獲國(guó)家專利權(quán)
- 李震川獲國(guó)家專利權(quán)
- 包小波獲國(guó)家專利權(quán)
- 深圳市大疆創(chuàng)新科技有限公司劉渭鋒獲國(guó)家專利權(quán)
- 華為技術(shù)有限公司龔磊獲國(guó)家專利權(quán)


熱門(mén)推薦
- 蘋(píng)果公司I·A·喬德里獲國(guó)家專利權(quán)
- 深圳市大疆創(chuàng)新科技有限公司蘇冠華獲國(guó)家專利權(quán)
- 美光科技公司張揚(yáng)獲國(guó)家專利權(quán)
- 展訊通信(上海)有限公司周化雨獲國(guó)家專利權(quán)
- 伊緹斯公司A.斯坦頓獲國(guó)家專利權(quán)
- 賽諾菲獲國(guó)家專利權(quán)
- 高通股份有限公司李崇獲國(guó)家專利權(quán)
- 麥克賽爾株式會(huì)社平冢幸惠獲國(guó)家專利權(quán)
- 索尼半導(dǎo)體解決方案公司星野和弘獲國(guó)家專利權(quán)
- 浙江順動(dòng)科技有限公司年珩獲國(guó)家專利權(quán)