山東省計算中心(國家超級計算濟南中心);齊魯工業大學劉祥志獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉山東省計算中心(國家超級計算濟南中心);齊魯工業大學申請的專利聯合預訓練和圖神經網絡的政策文本標注方法及系統獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115374792B 。
龍圖騰網通過國家知識產權局官網在2025-08-22發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211116359.6,技術領域涉及:G06F40/30;該發明授權聯合預訓練和圖神經網絡的政策文本標注方法及系統是由劉祥志;薛許強;吳曉明;侯冬冬;于洋;李勝男;張建強;張鵬;汪付強;郝秋赟;馬曉鳳設計研發完成,并于2022-09-14向國家知識產權局提交的專利申請。
本聯合預訓練和圖神經網絡的政策文本標注方法及系統在說明書摘要公布了:本發明公開了聯合預訓練和圖神經網絡的政策文本標注方法及系統;其中所述方法包括:獲取待標注的政策文本,對待標注的政策文本進行預處理;對預處理后的政策文本輸入到訓練后的政策文本標注模型中,輸出政策文本的標注結果;其中,訓練后的政策文本標注模型,其工作原理包括:對于處理后的政策文本提取單詞向量和句子向量;基于預處理后的政策文本構建文本級圖結構,獲取文本級圖結構對應的鄰接矩陣;基于單詞向量和句子向量,提取出政策文本的語義特征;基于單詞向量和鄰接矩陣,提取出政策文本的結構特征;基于語義特征和結構特征,確定政策文本標注結果。
本發明授權聯合預訓練和圖神經網絡的政策文本標注方法及系統在權利要求書中公布了:1.聯合預訓練和圖神經網絡的政策文本標注方法,其特征是,包括: 獲取待標注的政策文本,對待標注的政策文本進行預處理; 對預處理后的政策文本輸入到訓練后的政策文本標注模型中,輸出政策文本的標注結果; 其中,訓練后的政策文本標注模型,其工作原理包括:對于處理后的政策文本提取單詞向量和句子向量;基于預處理后的政策文本構建文本級圖結構,獲取文本級圖結構對應的鄰接矩陣;基于單詞向量和句子向量,提取出政策文本的語義特征;基于單詞向量和鄰接矩陣,提取出政策文本的結構特征;基于語義特征和結構特征,確定政策文本標注結果; 所述基于單詞向量和句子向量,提取出政策文本的語義特征,具體是采用第二預訓練語言模型對單詞向量和句子向量,提取出政策文本的語義特征,具體包括: 將預處理的政策文本輸入進第二預訓練語言模型層,即Bert層,以獲取單個文本的語義信息及更多的語義上下文特征; 將第二預訓練語言模型層輸出的句子向量作為政策文本的特征向量,并將其輸入到全連接層,全連接層的輸出為每個政策文本的類別數,使用sigmoid函數將政策文本向量的每個維度值擠壓至0,1之內,整個Bert層公式如下: 其中,為Bert的參數,S為每個政策文本中的內容,表示第二預訓練語言模型; 所述基于單詞向量和鄰接矩陣,提取出政策文本的結構特征,具體包括: 將單詞向量和鄰接矩陣按照批量的方式依次輸入到兩個圖神經網絡GCN子層中,通過兩個圖神經網絡GCN子層獲取鄰接矩陣中每個詞節點的一跳和二跳鄰居信息,在單個政策文本圖中學習局部結構的細粒度詞匯表示; 其中,在第一圖神經網絡GCN子層后,使用修正線性單元ReLU激活函數對第一圖神經網絡GCN子層輸出的隱藏單元的特征進行修正線性,避免了梯度消失,同時作為第二圖神經網絡GCN子層的輸入; 其中,第二圖神經網絡GCN子層的輸出為政策文本的類別數,表示為: ,; 其中,K表示為政策文本數,n表示為詞節點的數量,m表示為政策文本的類別數,第二圖神經網絡的最終輸出向量; 聯合輸出層,公式如下: ; ; 其中,均為可學習參數,Z為聯合預訓練和圖神經網絡模型最終輸出結果,表示為,k為輸入批量的政策文本數,m為政策文本的類別數;表示激活函數,表示結構特征,表示語義特征; 所述基于語義特征和結構特征,確定政策文本標注結果,是將語義特征和結構特征均輸入到聯合輸出層,聯合輸出層對兩種特征進行融合,融合后得到政策文本標注結果。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人山東省計算中心(國家超級計算濟南中心);齊魯工業大學,其通訊地址為:250014 山東省濟南市歷下區科院路19號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。