<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 燕山大學李國強獲國家專利權

          燕山大學李國強獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉燕山大學申請的專利基于Transformer輕量化模型的圖像分類方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116310506B

          龍圖騰網通過國家知識產權局官網在2025-09-12發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202310090225.X,技術領域涉及:G06V10/764;該發明授權基于Transformer輕量化模型的圖像分類方法是由李國強;吳燕芳設計研發完成,并于2023-02-09向國家知識產權局提交的專利申請。

          基于Transformer輕量化模型的圖像分類方法在說明書摘要公布了:本發明公開了一種基于Transformer輕量化模型的圖像分類方法,屬于深度學習圖像分類的領域,包括以下步驟:S1:對ShuffleNetV2的基本模塊和下采樣模塊進行改進,ShB模塊是在基本模塊中加入了跳躍連接和ECA,將下采樣模塊與多特征提取、ECA和Ghost模塊相結合提出ShD模塊;S2:根據ViT模塊提出一種局部和全局信息交互的ShT模塊;S3:將ShD與ShB和ShT模塊進行有效設計堆疊,構建ShViT網絡;S4:ShViT網絡在分類數據集上進行訓練及測試,得到分類結果。本發明搭建了參數量低、所需內存資源低的輕量化網絡模型ShViT,能夠在參數量減少的情況下實現較好的分類性能。

          本發明授權基于Transformer輕量化模型的圖像分類方法在權利要求書中公布了:1.基于Transformer輕量化模型的圖像分類方法,其特征在于,包括以下步驟: 步驟S1:對ShuffleNetV2輕量化卷積神經網絡的基本模塊和下采樣模塊改進后得到ShB基本模塊和ShD下采樣模塊; 步驟S2:基于VisionTransformer模塊提出一種局部和全局表征信息交互的ShT基本模塊,具體包括:將輸入ShT基本模塊的特征圖先經過通道分離操作將通道分成兩個分支,一個分支先利用多個卷積分別進行局部表征提取及通道信息提取,然后再利用若干個Transformer模塊進行全局表征提取,另一分支只通過多個卷積進行局部表征提取和通道特征提取,最后將兩個分支的特征圖進行拼接,輸出目標特征圖且維度不變;ShT基本模塊則既具有卷積性質,又結合了ViT中對輸入特征圖信息進行自適應加權和建立全局依賴; 步驟S2中ShT基本模塊中含全局表征提取的分支先利用深度可分離卷模塊提取局部表征,1×1卷積提取通道信息,接著將特征圖分割成token并展開成序列,再輸入到若干個Transformer模塊中進行全局特征提取,然后再將特征折疊成原特征圖形式;ViT是先將塊進行投影,然后用若干個Transformer模塊學習塊之間的全局信息,這就丟失了圖像的歸納偏置信息,需要耗費更多的參數來學習,而ShT基本模塊則既含有卷積性質,又結合了ViT中對輸入特征圖信息進行建立全局依賴; 輸入到若干個Transformer模塊進行全局表征前先將特征圖按n×n大小進行拆分成若干個塊,每個塊又被分為n2個token,每個塊的n2個對應位置的token被標記成同一類token,在進行token展開時就會產生n2個序列,分別依次進入若干個Transformer模塊,這樣的操作會減少注意力操作時的計算量; 步驟S3:結合卷積及池化操作,將ShD下采樣模塊、ShB基本模塊和ShT基本模塊進行排序,構建ShViT網絡構架,實現局部和全局表征信息交互,具體包括:將輸入的分類圖片第一階段先利用卷積進行第一次下采樣操作,然后先利用ShB基本模塊進行局部特征提取;第二階段依次輸入ShD下采樣模塊和ShB基本模塊;第三階段依次經過ShD下采樣模塊和ShT基本模塊,根據輸入圖片的尺寸選擇重復第三階段的次數和ShT基本模塊中的Transformer模塊數量,第四階段經過卷積進行通道調整及空間信息編碼,接著通過全局平均池化進行維度調整,最后經過全連接層進行特征綜合得到對應的分類結果。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人燕山大學,其通訊地址為:066004 河北省秦皇島市海港區河北大街438號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          以上內容由AI智能生成
          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 又色又爽又黄的吃奶视频免费观看| 成人毛片18女人毛片免费 | 国产精品原创av片国产日韩| 女性爽爽影院免费观看| 99这里有精品热视频| 欧性猛交ⅹxxx乱大交| 爆乳熟妇一区二区三区霸乳| 久久国产精品成人无码网站| 无码人妻一区二区三区av| 国产成人毛片在线视频| 欧美大屁股xxxx高跟欧美黑人| 亚洲国产初高中女| 日本三级欧美三级人妇视频黑白配| 国产大片黄在线观看| 老熟女高潮一区二区三区| 亚洲一区二区无码偷拍| 两个人看的www视频免费完整版| 少妇又色又紧又爽又刺激视频| 色av专区无码影音先锋| 天堂av男人在线播放| 日本体内she精高潮| 麻豆果冻精东九一传媒mv| 久久人人做人人妻人人玩精品hd | 欧美日韩中文国产一区| 亚洲色成人网站www永久四虎| 亚洲日韩乱码中文无码蜜桃臀 | 四虎成人免费视频在线播放| 国产精品18禁污污网站| 国产三级a三级三级| 日本japanese丰满少妇| 国产999精品久久久久久| 亚洲欧美在线人成最新| 亚洲AV国产福利精品在现观看| 色妺妺免费影院| 农民人伦一区二区三区| 最大胆裸体人体牲交| 无码人妻久久一区二区三区app| 久久毛片少妇高潮| 国产日产精品_国产精品毛片| 日韩免费视频一一二区| 婷婷丁香五月激情综合|