西安電子科技大學王鵬輝獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉西安電子科技大學申請的專利基于原型生成的HRRP識別數據庫構建方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116401409B 。
龍圖騰網通過國家知識產權局官網在2025-08-26發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202310215607.0,技術領域涉及:G06F16/901;該發明授權基于原型生成的HRRP識別數據庫構建方法是由王鵬輝;劉宏偉;楊浩蔚設計研發完成,并于2023-03-07向國家知識產權局提交的專利申請。
本基于原型生成的HRRP識別數據庫構建方法在說明書摘要公布了:本發明公開了一種基于原型生成的HRRP識別數據庫構建方法,包括:獲取訓練數據集;構建多形成函數fx,h;其中,多形成函數fx,h的運算規則為將原型集中的每個樣本x切分為h個子樣本,并將切分后的子樣本調整為原始樣本的大小;基于訓練數據集利用多形成函數與單步參數匹配進行原型生成以獲取原型集;利用多形成函數對原型集進行處理,得到HRRP識別數據庫。該方法相比于傳統的方法,可以在保證較低的計算復雜度的同時保證挖掘出HRRP數據中最具價值的信息以構建高質量的HRRP識別數據庫,節約了存儲資源與計算資源。
本發明授權基于原型生成的HRRP識別數據庫構建方法在權利要求書中公布了:1.一種基于原型生成的HRRP識別數據庫構建方法,其特征在于,包括: 步驟1:獲取訓練數據集; 步驟2:構建多形成函數; 其中,所述多形成函數的運算規則為將原型集中的每個樣本切分為個子樣本,并將切分后的子樣本調整為原始樣本的大小; 步驟3:基于所述訓練數據集利用所述多形成函數與單步參數匹配進行原型生成以獲取原型集; 步驟4:利用所述多形成函數對所述原型集進行處理,得到HRRP識別數據庫; 其中,步驟3包括: 31使用高斯分布初始化原型集,并設置最大外層迭代次數K和最大內層迭代次數T; 其中,表示第k次外層迭代中第t次內層迭代的原型集,初始時,t與k均為0; 32對深度神經網絡進行初始化,并在所述訓練數據集上利用隨機化學習率對初始化后的深度神經網絡預訓練一個迭代輪次,得到當前第k次外層迭代的網絡參數; 33分別從所述原型集和訓練數據集Tr中的每個類別中各抽取一批樣本和,并利用所述多形成函數對進行處理,生成樣本集; 其中,c表示類別標簽; 34將和分別輸入深度神經網絡之后,利用反向傳播算法分別得到網絡參數的一階梯度和; 35基于所述一階梯度和利用單步參數匹配公式計算損失函數; 36利用所述損失函數對當前原型集進行反向傳播,以得到第k次外層迭代中第t+1次內層迭代的原型集; 37將輸入深度神經網絡中訓練迭代若干次以更新網絡參數; 38令t=t+1,返回步驟33進行下一輪內層迭代,直至達到最大內層迭代次數T,得到第k次外層迭代中第T-1次內層迭代的原型集; 39令k=k+1,并令第k+1次外層迭代中第1次內層迭代的原型集,返回步驟32開始下一輪外層迭代,直至達到最大外層迭代次數K,獲得最終的原型集; 其中,在步驟35中,所述損失函數的計算公式為: ; 其中,C表示類別數目,的值為類別數目C,的表達式如下: ; 其中,表示網絡第層的梯度,L為深度神經網絡的總層數,out表示網絡第層輸出通道的數目,表示網絡第層第i個輸出通道所包含網絡參數的梯度; 其中,在步驟36中,利用所述損失函數對當前原型集進行反向傳播的表達式為: ; 其中,為優化原型集的學習率,為第t次迭代的結果,表示使用對原型集求一階導數。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人西安電子科技大學,其通訊地址為:710071 陜西省西安市太白南路2號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。