燕山大學李國強獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉燕山大學申請的專利基于Transformer輕量化模型的圖像分類方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116310506B 。
龍圖騰網通過國家知識產權局官網在2025-09-12發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202310090225.X,技術領域涉及:G06V10/764;該發明授權基于Transformer輕量化模型的圖像分類方法是由李國強;吳燕芳設計研發完成,并于2023-02-09向國家知識產權局提交的專利申請。
本基于Transformer輕量化模型的圖像分類方法在說明書摘要公布了:本發明公開了一種基于Transformer輕量化模型的圖像分類方法,屬于深度學習圖像分類的領域,包括以下步驟:S1:對ShuffleNetV2的基本模塊和下采樣模塊進行改進,ShB模塊是在基本模塊中加入了跳躍連接和ECA,將下采樣模塊與多特征提取、ECA和Ghost模塊相結合提出ShD模塊;S2:根據ViT模塊提出一種局部和全局信息交互的ShT模塊;S3:將ShD與ShB和ShT模塊進行有效設計堆疊,構建ShViT網絡;S4:ShViT網絡在分類數據集上進行訓練及測試,得到分類結果。本發明搭建了參數量低、所需內存資源低的輕量化網絡模型ShViT,能夠在參數量減少的情況下實現較好的分類性能。
本發明授權基于Transformer輕量化模型的圖像分類方法在權利要求書中公布了:1.基于Transformer輕量化模型的圖像分類方法,其特征在于,包括以下步驟: 步驟S1:對ShuffleNetV2輕量化卷積神經網絡的基本模塊和下采樣模塊改進后得到ShB基本模塊和ShD下采樣模塊; 步驟S2:基于VisionTransformer模塊提出一種局部和全局表征信息交互的ShT基本模塊,具體包括:將輸入ShT基本模塊的特征圖先經過通道分離操作將通道分成兩個分支,一個分支先利用多個卷積分別進行局部表征提取及通道信息提取,然后再利用若干個Transformer模塊進行全局表征提取,另一分支只通過多個卷積進行局部表征提取和通道特征提取,最后將兩個分支的特征圖進行拼接,輸出目標特征圖且維度不變;ShT基本模塊則既具有卷積性質,又結合了ViT中對輸入特征圖信息進行自適應加權和建立全局依賴; 步驟S2中ShT基本模塊中含全局表征提取的分支先利用深度可分離卷模塊提取局部表征,1×1卷積提取通道信息,接著將特征圖分割成token并展開成序列,再輸入到若干個Transformer模塊中進行全局特征提取,然后再將特征折疊成原特征圖形式;ViT是先將塊進行投影,然后用若干個Transformer模塊學習塊之間的全局信息,這就丟失了圖像的歸納偏置信息,需要耗費更多的參數來學習,而ShT基本模塊則既含有卷積性質,又結合了ViT中對輸入特征圖信息進行建立全局依賴; 輸入到若干個Transformer模塊進行全局表征前先將特征圖按n×n大小進行拆分成若干個塊,每個塊又被分為n2個token,每個塊的n2個對應位置的token被標記成同一類token,在進行token展開時就會產生n2個序列,分別依次進入若干個Transformer模塊,這樣的操作會減少注意力操作時的計算量; 步驟S3:結合卷積及池化操作,將ShD下采樣模塊、ShB基本模塊和ShT基本模塊進行排序,構建ShViT網絡構架,實現局部和全局表征信息交互,具體包括:將輸入的分類圖片第一階段先利用卷積進行第一次下采樣操作,然后先利用ShB基本模塊進行局部特征提取;第二階段依次輸入ShD下采樣模塊和ShB基本模塊;第三階段依次經過ShD下采樣模塊和ShT基本模塊,根據輸入圖片的尺寸選擇重復第三階段的次數和ShT基本模塊中的Transformer模塊數量,第四階段經過卷積進行通道調整及空間信息編碼,接著通過全局平均池化進行維度調整,最后經過全連接層進行特征綜合得到對應的分類結果。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人燕山大學,其通訊地址為:066004 河北省秦皇島市海港區河北大街438號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。