青島哈爾濱工程大學創新發展中心;哈爾濱工程大學陳云賽獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉青島哈爾濱工程大學創新發展中心;哈爾濱工程大學申請的專利一種多刷船機器人協同作業路徑規劃方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN120274765B 。
龍圖騰網通過國家知識產權局官網在2025-09-02發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202510766391.6,技術領域涉及:G01C21/20;該發明授權一種多刷船機器人協同作業路徑規劃方法是由陳云賽;陳子然;劉增凱;劉子然;劉文智;葉秀芬;張棟;姜清華;高永;李海波;施悅設計研發完成,并于2025-06-10向國家知識產權局提交的專利申請。
本一種多刷船機器人協同作業路徑規劃方法在說明書摘要公布了:本發明公開了一種多刷船機器人協同作業路徑規劃方法,屬于機器人路徑規劃技術領域,其步驟為:對參數進行初始化,收集洗船機器人上搭載的傳感器采集的實時數據;制定機器人群組優先級策略;采用網格輪廓法對船體表面進行柵格化處理;采用改進后的算法生成洗船機器人群組的初始路徑;加入二叉樹結構的約束樹,進行路徑規劃;當某一節點前后節點連線上無障礙物時,刪除路徑的多余節點,只保留起止點和拐點,而后刪除多余拐點提取關鍵節點作為中間目標點,輸出最優路徑方案。本發明的技術方案能夠提高多刷船機器人協同工作效率,解決了復雜曲面環境下傳統路徑規劃存在的動態避障響應滯后、多機協作效率低下等技術難題。
本發明授權一種多刷船機器人協同作業路徑規劃方法在權利要求書中公布了:1.一種多刷船機器人協同作業路徑規劃方法,其特征在于,包括以下步驟: 步驟1,對參數進行初始化,參數包括:船體表面地圖信息、地形的障礙以及約束信息和洗船機器人起止點信息; 步驟2、收集洗船機器人上搭載的傳感器采集的實時數據,傳感器包括編碼器、IMU以及溫濕度傳感器;編碼器采集洗船機器人工作時的實時速度,IMU采集洗船機器人的位置坐標和姿態信息,溫濕度傳感器監測海水的溫濕度變化; 步驟3、確定洗船機器人的數量,根據任務規模分配同類型機器人數量,制定機器人群組優先級策略,確保多機器人協作時路徑無沖突; 步驟4、采用網格輪廓法對船體表面進行柵格化處理; 步驟5、采用改進后的算法生成洗船機器人群組的初始路徑; 步驟6、加入二叉樹結構的約束樹,檢測刷船機器人種群初始路徑中各節點的解是否有沖突;檢測到當前路徑產生沖突,對每個沖突生成兩個子節點分別添加約束,對優先級低的機器人重新規劃受影響路徑;直至所有路徑無沖突且總代價最優時,算法終止; 步驟7、對路徑進行平滑優化處理,遍歷機器人路徑上的所有節點,當某一節點前后節點連線上無障礙物時,刪除路徑的多余節點,只保留起止點和拐點,而后刪除多余拐點提取關鍵節點作為中間目標點,輸出最優路徑方案; 所述步驟5包括以下子步驟: 步驟5.1、初始化生成集合OpenList和CloseList,OpenList存儲所有待擴展節點,Closelist存儲所有已擴展的節點,將開始節點插入OpenList; 步驟5.2、當OpenList不為空時,從OpenList中選取具有最低總代價的節點,第個節點的總代價總代價計算公式為: ; 其中,為從起點到當前點的實際路徑代價,為從當前點到目標點的估計路徑代價;采用Q-Learning算法優化,采用歐幾里得距離公式,表達式為: ; 其中,為當前節點的坐標;為開始節點的坐標; 將具有最低總代價的節點從OpenList中刪除,添加到CloseList中,并作為當前節點; 步驟5.3、如果當前節點是目標節點,回溯父節點生成路徑,結束算法,如果當前節點不是目標節點,則進行下一步; 步驟5.4、找出當前節點的所有相鄰節點,對于每個相鄰節點,首先判斷是否在CloseList中,若在CloseList中,則跳過該節點,若不在,則計算相鄰節點的總代價;然后判斷是否在OpenList中,若不在,將其添加到OpenList中,并更新相鄰節點的總代價和父節點,若在,比較當前總代價和先前計算的總代價,如果當前總代價更小,則更新父節點,并且將相鄰節點的總代價更新為; 步驟5.5、重新回到步驟5.2繼續循環,直到找到目標節點; 所述步驟5.2中,采用Q-Learning算法優化,包括以下子步驟: 步驟5.2.1:初始化Q-Learning算法參數、環境中的障礙物信息、機器人數量信息以及起始點和目標點的坐標; 構建機器人路徑規劃的基礎環境模型; 將作業區域離散化為均勻柵格,每個柵格標注為自由空間、障礙物或任務目標點; 機器人狀態空間定義為二維坐標x,y及其周圍3×3鄰域內的障礙物分布; 定義機器人的動作空間,為對應機器人從當前網格單元向相鄰的第個方向移動一步,對應八鄰域移動方向集合,每個動作執行前需進行可行性驗證:目標柵格需位于地圖邊界內且未被靜態障礙物占據; 步驟5.2.2:采用R-Learning算法通過最大化獎勵值和引入避碰獎懲機制來獲得最優策略,具體為: 刷船機器人在當前狀態s,在經過選擇策略后執行動作a獲得的總獎勵由避碰獎勵和步長獎勵組成,表達式為: ; 其中,為稀疏獎勵函數,表達式為: ; 為距離獎勵函數,表達式為: ; 式中:為獎勵系數,為目標起點到終點之間的歐式距離; 在訓練過程中,Q值更新遵循貝爾曼最優方程,表達式為: ; 式中,、為第t次迭代與t+1次迭代時的狀態;、分別為第t次迭代與t+1次迭代時的動作,和分別是學習率和折扣系數,取值范圍為[0,1],為粒子在狀態下執行動作所獲得的即時獎勵,是粒子在狀態采取動作的期望Q值,是新狀態下所有可能的行動的最大預期未來獎勵; 步驟5.2.3:通過Q-Learning訓練得到每個狀態-動作對的Q值,遍歷所有柵格節點,記錄第個柵格節點的最大Q值,將最大Q值結果存入矩陣,矩陣的索引為節點坐標,值為節點對應的最大Q值;將訓練完成的Q值嵌入算法,重構啟發函數,其公式為: ; 式中:為從節點出發,選擇最優動作能獲得的最大Q值,Q值代表歷史經驗中的長期收益;為當前節點到目標節點的歐式距離,用于根據節點到目標的距離動態調整權重;參數為衰減系數,取值范圍為[0.3,1]; 所述步驟6包括以下子步驟: 步驟6.1:基于沖突搜索機制建立二叉樹形式的約束樹,每個約束樹節點N包括三個信息:約束集、問題的解、該節點解決問題的成本,約束集包含對問題中所有刷船機器人的約束; 步驟6.2:算法初始化階段通過改進后的算法為每個刷船機器人生成無約束最優路徑,形成初始解集; 步驟6.3:啟動沖突檢測機制,采用4元組的形式描述方法:一個沖突為一個4元組,表示和在時刻同時占用了節點; 步驟6.4:檢測到沖突產生時,激活約束樹的分支生成機制:針對沖突元組,將擴展生成兩個子節點Nc1和Nc2,兩個子節點繼承父節點的全部約束和解; 步驟6.5:對節點Nc1添加一個新的約束,對于Nc2添加一個新的約束; 步驟6.6:根據約束對低優先級的刷船機器人進行局部路徑規劃,同時保持其他刷船機器人原有路徑不變。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人青島哈爾濱工程大學創新發展中心;哈爾濱工程大學,其通訊地址為:266000 山東省青島市黃島區三沙路1777號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。