大連坤達自動化有限公司吳寶華獲國家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉大連坤達自動化有限公司申請的專利基于注意力機制的并聯(lián)機器人自適應(yīng)調(diào)節(jié)方法及系統(tǒng)獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN120447346B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-09-02發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202510947213.3,技術(shù)領(lǐng)域涉及:G05B11/42;該發(fā)明授權(quán)基于注意力機制的并聯(lián)機器人自適應(yīng)調(diào)節(jié)方法及系統(tǒng)是由吳寶華;劉慶濤;葉鵬飛設(shè)計研發(fā)完成,并于2025-07-10向國家知識產(chǎn)權(quán)局提交的專利申請。
本基于注意力機制的并聯(lián)機器人自適應(yīng)調(diào)節(jié)方法及系統(tǒng)在說明書摘要公布了:本發(fā)明公開了一種基于注意力機制的并聯(lián)機器人自適應(yīng)調(diào)節(jié)方法及系統(tǒng),包括根據(jù)實時軌跡誤差與關(guān)節(jié)空間控制力矩獲取并聯(lián)機器人的軌跡時間序列樣本數(shù)據(jù)集;構(gòu)建基于PPO強化學(xué)習(xí)的SeNet?Transformer動作網(wǎng)絡(luò)模型;根據(jù)軌跡時間序列樣本數(shù)據(jù)集對SeNet?Transformer動作網(wǎng)絡(luò)模型進行模型訓(xùn)練,獲取最優(yōu)并聯(lián)機器人PID自適應(yīng)調(diào)節(jié)模型,并根據(jù)最優(yōu)并聯(lián)機器人PID自適應(yīng)調(diào)節(jié)模型獲取并聯(lián)機器人的PID調(diào)節(jié)參數(shù)以實現(xiàn)并聯(lián)機器人PID自適應(yīng)調(diào)節(jié)。本發(fā)明解決了傳統(tǒng)方法并聯(lián)機器人支腿并聯(lián)結(jié)構(gòu)導(dǎo)致關(guān)節(jié)間非線性耦合,傳統(tǒng)PID控制參數(shù)固定難以應(yīng)對突發(fā)負(fù)載變化,基于牛頓迭代的解析算法計算復(fù)雜度高,難以滿足毫秒級控制閉環(huán)需求的問題。
本發(fā)明授權(quán)基于注意力機制的并聯(lián)機器人自適應(yīng)調(diào)節(jié)方法及系統(tǒng)在權(quán)利要求書中公布了:1.一種基于注意力機制的并聯(lián)機器人自適應(yīng)調(diào)節(jié)方法,其特征在于,具體包括以下步驟: S1:在Gazebo仿真環(huán)境中建立并聯(lián)機器人物理實體的虛擬模型; 并調(diào)用Gazebo的物理引擎模擬虛擬模型所處真實環(huán)境的動力學(xué)程序,以實時采集并獲取并聯(lián)機器人信息數(shù)據(jù),且并聯(lián)機器人信息數(shù)據(jù)至少包括電機轉(zhuǎn)矩、關(guān)節(jié)角度、末端位姿以及負(fù)載數(shù)據(jù); S2:根據(jù)并聯(lián)機器人信息數(shù)據(jù)定義PID控制器框架模型; 且PID控制器框架模型的狀態(tài)輸入為并聯(lián)機器人的實時軌跡誤差,狀態(tài)輸出為關(guān)節(jié)空間控制力矩;實時軌跡誤差即為根據(jù)并聯(lián)機器人信息數(shù)據(jù)獲取的虛擬模型期望運動軌跡與實際運動軌跡的位置誤差與速度誤差, 并根據(jù)實時軌跡誤差與關(guān)節(jié)空間控制力矩獲取并聯(lián)機器人的軌跡時間序列樣本數(shù)據(jù)集; S3:構(gòu)建基于PPO強化學(xué)習(xí)的SeNet-Transformer動作網(wǎng)絡(luò)模型; 且SeNet-Transformer動作網(wǎng)絡(luò)模型包括級聯(lián)的輸入層、特征提取SeNet模塊、Transformer編碼器以及輸出層; 輸入層用于對實時軌跡誤差序列進行動態(tài)對稱誤差補償,獲取實時誤差補償軌跡誤差序列并輸入至特征提取SeNet模塊;特征提取SeNet模塊用于提取實時誤差補償軌跡誤差序列中的數(shù)據(jù)時空特征;Transformer編碼器用于基于多頭自注意力機制處理數(shù)據(jù)時空特征,并結(jié)合實時軌跡誤差序列獲取并聯(lián)機器人PID參數(shù)調(diào)節(jié)的時序依賴關(guān)系概率分布;輸出層用于根據(jù)時序依賴關(guān)系概率分布,預(yù)測并輸出關(guān)節(jié)空間控制力矩; S4:根據(jù)軌跡時間序列樣本數(shù)據(jù)集對SeNet-Transformer動作網(wǎng)絡(luò)模型進行模型訓(xùn)練,獲取最優(yōu)并聯(lián)機器人PID自適應(yīng)調(diào)節(jié)模型,并根據(jù)最優(yōu)并聯(lián)機器人PID自適應(yīng)調(diào)節(jié)模型獲取并聯(lián)機器人的PID調(diào)節(jié)參數(shù),以實現(xiàn)并聯(lián)機器人PID自適應(yīng)調(diào)節(jié)。
如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人大連坤達自動化有限公司,其通訊地址為:116000 遼寧省大連市高新技術(shù)產(chǎn)業(yè)園區(qū)七賢嶺愛賢街10號開易實業(yè)設(shè)計城A座第-1層-1-04-2室;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
- 株式會社NTT都科摩吉岡翔平獲國家專利權(quán)
- 住友電氣工業(yè)株式會社后藤健吾獲國家專利權(quán)
- 科沃斯機器人股份有限公司劉雪艷獲國家專利權(quán)
- 德克薩斯儀器股份有限公司S·普魯索塔曼獲國家專利權(quán)
- 麥克德米德樂思公司埃里克·雅各布森獲國家專利權(quán)
- OPPO廣東移動通信有限公司楊俊獲國家專利權(quán)
- 蒂森克虜伯鋼鐵歐洲股份公司托比亞斯·萊韋獲國家專利權(quán)
- 精工愛普生株式會社小松英彥獲國家專利權(quán)
- 谷歌有限責(zé)任公司于爾基·安特羅·阿拉奎加拉獲國家專利權(quán)
- 蘇州東納電子科技有限公司宋彩珍獲國家專利權(quán)