<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 重慶郵電大學蔣建春獲國家專利權

          重慶郵電大學蔣建春獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉重慶郵電大學申請的專利一種基于車路協同的融合感知定位系統獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116170749B

          龍圖騰網通過國家知識產權局官網在2025-08-26發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211596927.7,技術領域涉及:H04L67/12;該發明授權一種基于車路協同的融合感知定位系統是由蔣建春;曾鑫;曾素華;夏云俊;連皓寧設計研發完成,并于2022-12-12向國家知識產權局提交的專利申請。

          一種基于車路協同的融合感知定位系統在說明書摘要公布了:本發明涉及一種基于車路協同的融合感知定位系統,屬于車路協同技術領域。通過采用該系統包括智能車載感知定位子系統、路側感知定位子系統、V2X通信子系統、路側邊緣協同感知子系統。路側邊緣協同感知子系統利用粒子濾波算法,經過空間坐標轉換,將車載感知定位子系統獲取的周圍環境車輛的定位信息和路側感知定位子系統獲取的道路環境車輛的定位信息進行融合計算,并根據所設計的協同感知位置和時間偏移補償方法對融合集合目標進行位置補償。本發明基于先進的V2X通信技術,利用路側感知信息和車端感知信息,通過MEC服務器中的邊緣協同感知子系統的感知融合技術,提升了道路車輛的定位精度和感知視野范圍,彌補了路側感知失效的問題。

          本發明授權一種基于車路協同的融合感知定位系統在權利要求書中公布了:1.一種基于車路協同的融合感知定位系統,其特征在于:該系統包括智能車載感知定位子系統、路側感知定位子系統、路側邊緣協同感知子系統和V2X通信子系統,其中: 智能車載感知定位子系統,包括車端感知模塊和車端數據融合模塊,通過智能車車端傳感器獲取自身車輛及周圍非智能車感知定位信息,并通過車道匹配定位方法提升車載感知端定位精度,然后通過V2X通信子系統傳輸到路側邊緣協同感知子系統; 路側感知定位子系統,包括路側感知模塊和路側數據融合模塊,用于獲取路側端道路車輛的感知定位信息,并通過定位估計方法對融合過程中失效目標進行定位信息補償,然后將道路環境車輛信息傳輸到路側邊緣協同感知子系統; 路側邊緣協同感知子系統,所述路側邊緣協同感知子系統基于車輛運行狀態對智能車載感知定位子系統和路側感知定位子系統計算的車輛感知定位信息進行互補融合,包括融合方法和協同感知位置和時間偏移補償方法,然后將融合的定位信息通過V2X通信子系統按照應用層標準數據格式傳輸到路側車輛; V2X通信子系統,包括智能車載通信模塊和路側通信模塊,所述V2X通信子系統用于路側邊緣感知定位子系統和智能車載感知定位子系統之間通信,其中包括車聯網無線通信技術通信,以太網通信; 所述車端數據融合模塊根據所設計的車道匹配定位方法提升定位精度并得到周圍車輛的高精度感知定位信息;其通過目標車輛周圍環境圖像信息,利用預先訓練的深度學習車道線檢測模型,得到自身車輛所在車道定位信息,包括車道號和車道置信度;并根據所設計的車道匹配定位方法得到智能車輛高精度定位信息;再通過周圍相鄰車輛的點云特征信息,包括車輛方位角和相對距離信息;經過相對位置坐標轉換計算后,得到周圍相鄰車輛的高精度感知定位信息;其中,所述車輛定位信息、周圍環境圖像信息、點云特征信息由車端感知模塊利用車載OBU、車端高清攝像頭、車端激光雷達獲取; 所述車端數據融合模塊根據所設計的車道匹配定位方法提升定位精度并得到周圍車輛的高精度感知定位信息的具體方法步驟為: S101.通過車載OBU獲取車輛自身GPS位置信息及方位角、路側RSU傳輸的MAP地圖消息; S102.結合MAP地圖消息,將車輛獲取的GPS位置信息,投影到路段,投影垂直距離記為d,車輛GPS軌跡與路段所成的夾角記為θ; S103.根據d、θ兩方面因素計算與各個候選車道的權重,分別記為Wd、Wθ; S104.根據車載攝像頭獲取的圖像結合預訓練深度學習車道線檢測模型,得到各個車道的置信度,記為Wμ; S105.設置一個綜合權重值W,綜合權重值為三方面權重值之和,最后選取綜合權重值最大的車道作為目標車輛的最終定位車道; S106.根據激光雷達獲取的車輛點云特征信息,得到周圍車輛的相對位置坐標信息,然后根據目標車輛自身的車道級GPS定位坐標,通過坐標轉換計算得到周圍車輛的高精度定位信息,再通過V2X通信子系統發送給路側邊緣協同感知子系統; 所述路側數據融合模塊根據所設計的定位估計方法與融合匹配算法相結合對融合過程中失效目標進行定位信息補償,提升路側感知精度;根據道路環境圖像數據,利用預先訓練的目標檢測模型,得到道路車輛感知信息,然后利用毫米波雷達檢測到的道路目標信息與攝像頭檢測到的車輛目標信息進行目標級數據融合匹配,得到融合后的道路車輛感知定位信息,記錄融合匹配失效目標,并以視覺檢測為主,采用視覺網格定位估計方法對失效目標進行定位,得到最后的道路車輛感知定位信息; 所述路側數據融合模塊采用視覺網格定位估計方法和融合匹配方法提升路側感知精度進而得到最后的道路車輛感知定位信息的具體步驟為: S201.基于預訓練的輕量化的目標檢測模型,根據道路環境圖像數據得到道路車輛感知信息,包括車輛目標類別、車輛目標邊界框相關信息、置信度; S202.獲取毫米波雷達檢測到經過濾波處理后的每一幀道路目標信息,通過目標點與毫米波雷達之間的距離和方位角信息以及毫米波雷達的GPS位置坐標,計算目標GPS位置,并通過坐標變換,將毫米波雷達目標數據幀映射到圖像空間上; S203.利用匈牙利匹配算法,將基于圖像數據得到的道路車輛感知信息及基于毫米波雷達得到的道路目標數據進行融合匹配,得到融合后的道路車輛感知定位信息,并記錄未匹配成功漏檢的車輛; S204.將路側攝像頭感知區域劃為網格區域,并通過RTK設備標定獲得網格對應的高精度GPS坐標位置; S205.選取未匹配成功漏檢目標邊界框下邊緣的中心點,將漏檢目標與網格信息進行匹配,得到漏檢目標的高精度GPS坐標,與融合后的道路車輛感知定位信息進行合并,得到最后的道路車輛感知定位信息; 所述路側邊緣協同感知子系統基于粒子濾波算法,融合由智能車載感知定位子系統和路側感知定位子系統計算的車輛感知定位信息,并且在融合后,基于車輛運行狀態估計根據所設計的協同感知位置和時間偏移補償的方法對融合結果進行補償定位,彌補了融合感知數據中存在的時效性問題,使融合后的信息具有唯一性、置信度最高,進而使智能汽車能獲得更廣闊的感知視角; 其中,所述智能車載感知定位子系統和路側感知定位子系統獲取的車輛感知定位信息的具體步驟如下: S301.將智能車載感知定位子系統和路側感知定位子系統得到的車輛感知定位信息經過坐標轉換,以WGS84坐標系正北方向為正方向的統一坐標系,轉換到統一坐標平面,將車輛目標經緯度投影到坐標系,再通過時間同步模型對車載感知定位系統和路側感知定位子系統的感知信息進行時間同步; S302.在初始化步驟中,輸入路側感知定位子系統得到的車輛感知初始定位信息作為先驗信息,初始化數學關系為: 其中,和分別表示路側感知定位設備在t時刻的檢測值,ε為目標定位誤差范圍最大值,rand·為生成區間的隨機函數,xi和yi為生成的第i個目標粒子的橫縱坐標,N為隨機粒子樣本數,ωi為每個目標粒子的初始權值; S303.在預測過程中,對所有目標粒子增加目標車輛的控制輸入,包括速度和航向角;按照運動方程預測各個目標粒子的下一步位置,預測模型數學關系如下: 其中,xt-1和yt-1為上一時刻的目標粒子的橫縱坐標,xt和yt為當前時刻狀態預測橫縱坐標,ΔT為時間差,vt為t時刻車輛的速度,γt-1為上一時刻車輛的航向角,θt為當前時刻航向角增量,和為系統環境噪聲; S304.在更新過程中,將車載感知目標位置信息作為觀察值,根據路側感知定位位置信息與觀察值之間的幾何距離來更新各個目標粒子對應的權重,對目標粒子集合進行加權求和即可獲得最優感知定位信息,權值更新公式如下: 其中,為根據路側感知定位目標中第i個目標粒子的橫縱坐標集合 為t+1時刻的車載感知目標橫縱坐標集合 為求解兩個集合之間的距離; S305.在重采樣階段,引入重采樣原理對目標粒子進行篩選,重采樣根據目標粒子的權重,在原有目標粒子的基礎上生成新的目標粒子集合返回到步驟S302進行下一次循環,中途遇到目標狀態信息發生突變,以路側感知定位目標信息作為初始位置的輸入; 所述基于車輛運行狀態估計根據所設計的協同感知位置和時間偏移補償的方法對融合結果進行補償定位為:計算車輛感知融合后集合中車輛的時間戳和當前時刻的時間戳的差值,記為時間偏移補償Δt,然后根據目標在統一坐標下x方向和y方向上的運動速度和加速度計算出目標車輛在統一坐標系上x方向和y方向的位置偏移值,偏移值作為感知融合結果中目標的補償值,再通過坐標轉換成經緯度通過V2X通信子系統廣播給道路智能車輛。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人重慶郵電大學,其通訊地址為:400065 重慶市南岸區黃桷埡崇文路2號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 777奇米四色成人影视色区| 麻豆视传媒精品av在线| 精品欧洲av无码一区二区| 婷婷五月六月综合缴情| 亚洲成在人线a免费77777| 久久婷婷是五月综合色| 麻豆精品一区二正一三区| 色av综合av综合无码网站| 小荡货奶真大水真多紧视频 | 久久综合九色综合欧洲98| 国产精品国产午夜免费看福利| 亚洲精品无码成人A片九色播放| 欧美熟妇性xxxx欧美熟人多毛| 唐人社导航福利精品| 国产一区二区在线影院| 亚洲精品亚洲人成在线下载| 精精国产xxxx视频在线| 乱人伦中文无码视频| 国内偷自第一区二区三区 | 国产精品一线二线三线区| 99久久免费看少妇高潮a片 | 后入内射无码人妻一区| 麻豆国产精品va在线观看| 久久97人人超人人超碰超国产| 少妇被粗大猛进进出出| 亚洲国产欧美在线人成| 无码毛片一区二区三区本码视频 | 国产成人欧美日本在线观看| 精品 在线 视频 亚洲| 国产精品无码aⅴ嫩草| 人妻无码中字在线a| 日韩av综合中文字幕| 特黄少妇60分钟在线观看播放| 亚洲一区二区三区成人网站| 国产第一页浮力影院入口| 亚洲色无码专区在线观看精品 | 国产一卡2卡3卡4卡精品| 亚洲精华国产精华精华| 国产成人无码区免费内射一片色欲| 男女激情一区二区三区| 在线精品视频一区二区三四|