同濟大學(xué)高珍獲國家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉同濟大學(xué)申請的專利一種基于輕量級多模態(tài)神經(jīng)網(wǎng)絡(luò)的行車危險場景辨識方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN114372556B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-09-05發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202111551051.X,技術(shù)領(lǐng)域涉及:G06N3/0464;該發(fā)明授權(quán)一種基于輕量級多模態(tài)神經(jīng)網(wǎng)絡(luò)的行車危險場景辨識方法是由高珍;許靖寧;余榮杰;范鴻飛;孫萍設(shè)計研發(fā)完成,并于2021-12-17向國家知識產(chǎn)權(quán)局提交的專利申請。
本一種基于輕量級多模態(tài)神經(jīng)網(wǎng)絡(luò)的行車危險場景辨識方法在說明書摘要公布了:本發(fā)明涉及一種基于輕量級多模態(tài)神經(jīng)網(wǎng)絡(luò)的行車危險場景辨識方法,包括以下:獲取當前時間段內(nèi)駕駛視頻和車載數(shù)據(jù);將駕駛視頻的畫面劃分為上下分布的三個駕駛區(qū)域,將視頻每一幀畫面的每個駕駛區(qū)域內(nèi)的圖像在豎直方向上做均值化處理,轉(zhuǎn)化為一行像素,然后將每幀對應(yīng)的一行像素按時間順序拼接在一起,形成每個駕駛區(qū)域的運動輪廓圖;將每個駕駛區(qū)域的運動輪廓圖和車載數(shù)據(jù)輸入至行車風(fēng)險評估模型得到辨識結(jié)果;所述行車風(fēng)險評估模型為包括視覺數(shù)據(jù)處理層、運動學(xué)數(shù)據(jù)處理層、數(shù)據(jù)融合層和預(yù)測層的多模態(tài)神經(jīng)網(wǎng)絡(luò)。與現(xiàn)有技術(shù)相比,本發(fā)明具有減小運行數(shù)據(jù)量、簡化模型計算過程,耗時低、準確率高等優(yōu)點。
本發(fā)明授權(quán)一種基于輕量級多模態(tài)神經(jīng)網(wǎng)絡(luò)的行車危險場景辨識方法在權(quán)利要求書中公布了:1.一種基于輕量級多模態(tài)神經(jīng)網(wǎng)絡(luò)的行車危險場景辨識方法,其特征在于,包括以下步驟: S1、獲取當前時間段內(nèi)駕駛視頻和車載數(shù)據(jù); S2、將駕駛視頻的畫面劃分為上下分布的三個駕駛區(qū)域,將視頻每一幀畫面的每個駕駛區(qū)域內(nèi)的圖像在豎直方向上做均值化處理,轉(zhuǎn)化為一行像素,然后將每幀對應(yīng)的一行像素按時間順序拼接在一起,形成每個駕駛區(qū)域的運動輪廓圖; S3、將每個駕駛區(qū)域的運動輪廓圖和車載數(shù)據(jù)輸入至行車風(fēng)險評估模型得到辨識結(jié)果; 所述行車風(fēng)險評估模型為包括視覺數(shù)據(jù)處理層、運動學(xué)數(shù)據(jù)處理層、數(shù)據(jù)融合層和預(yù)測層的多模態(tài)神經(jīng)網(wǎng)絡(luò),其中:所述視覺數(shù)據(jù)處理層為輕量化CNN網(wǎng)絡(luò),在AlexNet基礎(chǔ)上進行網(wǎng)絡(luò)結(jié)構(gòu)輕量化并且引入注意力機制進行改進,用于運動輪廓圖輸入輕量化CNN網(wǎng)絡(luò)后輸出得到視覺特征;所述運動學(xué)數(shù)據(jù)處理層為LSTM網(wǎng)絡(luò),用于車載數(shù)據(jù)輸入LSTM網(wǎng)絡(luò)后輸出得到運動學(xué)特征;所述數(shù)據(jù)融合層為全連接層,用于輸入視覺特征和運動學(xué)特征后輸出得到辨識結(jié)果; S3中輕量化CNN網(wǎng)絡(luò)在每一層卷積層之后引入注意力機制模塊,對特征圖分別進行通道注意力和空間注意力變換,重新構(gòu)造得到新的特征圖,其中通道注意力和空間注意力的計算公式分別如下: Attentionc=σMLPAvgPoolF+MLPMaxPoolF Attentions=σConv[AvgPoolF,MaxPoolF] 其中,Attentionc,Attentions分別表示通道注意力和空間注意力的結(jié)果,F(xiàn)表示某一層卷積層輸出的特征圖,σ表示Sigmoid函數(shù),MLP表示一個多層感知機網(wǎng)絡(luò),Conv表示一個輸出通道數(shù)為1的卷積層。
如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人同濟大學(xué),其通訊地址為:200092 上海市楊浦區(qū)四平路1239號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責(zé)任的依據(jù)或者憑證。