西南交通大學;中國國家鐵路集團有限公司馬征獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉西南交通大學;中國國家鐵路集團有限公司申請的專利目標對象語音的獲取方法、裝置、設備及可讀存儲介質獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115206336B 。
龍圖騰網通過國家知識產權局官網在2025-09-05發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202210601636.6,技術領域涉及:G10L21/0272;該發明授權目標對象語音的獲取方法、裝置、設備及可讀存儲介質是由馬征;王瑋犀;楊柳;郝莉;向吳優;鄭佳雯設計研發完成,并于2022-05-30向國家知識產權局提交的專利申請。
本目標對象語音的獲取方法、裝置、設備及可讀存儲介質在說明書摘要公布了:本發明提供了目標對象語音的獲取方法、裝置、設備及可讀存儲介質,所述方法包括:獲取混合語音數據,所述混合語音數據由多個對象的語音混合而成,多個所述對象中包含所述目標對象;基于卷積神經網絡模型框架,對時域音頻分離網絡進行優化,得到優化后的時域音頻分離網絡;基于排列問題算法,利用所述優化后的時域音頻分離網絡對所述混合語音數據進行處理,得到只包含所述目標對象語音的語音數據。在本發明中,優化后的TasNet神經網絡框架的語音分離具有一定的魯棒性,適用于普遍的情況。此外,提出的基于排列問題的語音分離算法,可以解決嘈雜環境下分離出目標人聲的問題,在時間效率上相較于原始的TasNet框架得到了較大的提升。
本發明授權目標對象語音的獲取方法、裝置、設備及可讀存儲介質在權利要求書中公布了:1.目標對象語音的獲取方法,其特征在于,包括: 獲取混合語音數據,所述混合語音數據由多個對象的語音混合而成,多個所述對象中包含所述目標對象; 基于卷積神經網絡模型框架,對時域音頻分離網絡進行優化,得到優化后的時域音頻分離網絡; 基于排列問題算法,利用所述優化后的時域音頻分離網絡對所述混合語音數據進行處理,得到只包含所述目標對象語音的語音數據; 其中,基于卷積神經網絡模型框架,對時域音頻分離網絡進行優化,得到優化后的時域音頻分離網絡,包括: 基于卷積神經網絡模型框架,對所述時域音頻分離網絡中的分離器進行優化,其中,將所述時域音頻分離網絡中的分離器替換為卷積自動分離器; 將所述時域音頻分離網絡中的卷積自動分離器進行預設次數的空洞卷積處理; 將所述時域音頻分離網絡中的卷積算法替換成深度循環可分離卷積算法; 對所述時域音頻分離網絡中的分離器進行優化后進行最優參數確定,得到所述優化后的時域音頻分離網絡; 其中,基于排列問題算法,利用所述優化后的時域音頻分離網絡對所述混合語音數據進行處理,得到只包含所述目標對象語音的語音數據,包括: 利用所述優化后的時域音頻分離網絡對所述混合語音數據進行處理,其中,將所述混合語音數據轉化成具有預設特征維度的向量; 將所述具有預設特征維度的向量經過連續N層的空洞卷積,并重復M次,得到第一處理結果,所述N和M均為正整數; 將所述第一處理結果作用到所述優化后的時域音頻分離網絡中的編碼器處理的特征圖上,得到第二處理結果,所述第二處理結果中包括代表第一語音的第一分離特征圖和代表第二語音的第二分離特征圖; 基于所述混合語音數據中每條語音與麥克風的距離,對所述混合語音數據中的每條語音進行排序,得到排序后的語音數據; 基于所述排序后的語音數據、所述第一分離特征圖和所述第二分離特征圖得到所述目標對象的語音數據; 其中,基于所述排序后的語音數據、所述第一分離特征圖和所述第二分離特征圖得到所述目標對象的語音數據,包括: 根據所述第一分離特征圖和所述第二分離特征圖對所述優化后的時域音頻分離網絡中的分離器進行加權處理,再對其進行調參優化處理,得到第二次優化后的時域音頻分離網絡; 利用所述第二次優化后的時域音頻分離網絡對所述排序后的語音數據進行抽取,得到距離所述麥克風最近的所述目標對象的語音數據。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人西南交通大學;中國國家鐵路集團有限公司,其通訊地址為:610031 四川省成都市二環路北一段111號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。