<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 暨南大學李展獲國家專利權

          暨南大學李展獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉暨南大學申請的專利基于損失分類與雙分支網絡的圖像超分辨率重建和去霧方法及系統獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115587934B

          龍圖騰網通過國家知識產權局官網在2025-09-09發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211272767.0,技術領域涉及:G06T3/4053;該發明授權基于損失分類與雙分支網絡的圖像超分辨率重建和去霧方法及系統是由李展;鄺文卿;曾弘毅;袁偉俊;陳彥全設計研發完成,并于2022-10-18向國家知識產權局提交的專利申請。

          基于損失分類與雙分支網絡的圖像超分辨率重建和去霧方法及系統在說明書摘要公布了:本發明涉及基于損失分類與雙分支網絡的圖像超分辨率重建和去霧方法及系統,其方法包括步驟:S1、輸入待超分辨率重建或待去霧圖像與其對應的真實參考圖像,并進行預處理,對待超分辨率重建或待去霧圖像與真實參考圖像進行相同尺寸和相同位置的裁切;S2、構建雙分支網絡模型進行訓練,并采用編碼器?解碼器網絡,通過損失分類器和約束函數進行訓練;S3、將待超分辨率重建或待去霧圖像輸入到訓練好的雙分支網絡模型中,通過特征融合的方式獲取最終的結果圖。本發明采用雙分支網絡結構,提出了損失分類器的方法,實現雙分支中的第一分支側重平滑區域,而第二分支側重邊緣區域,解決了端對端網絡在邊緣區域效果不佳的缺點,提高最終結果圖的視覺效果。

          本發明授權基于損失分類與雙分支網絡的圖像超分辨率重建和去霧方法及系統在權利要求書中公布了:1.基于損失分類與雙分支網絡的圖像超分辨率重建和去霧方法,其特征在于,包括以下步驟: S1、準備好待超分辨率重建或待去霧圖像與其對應的真實參考圖像,對待超分辨率重建或待去霧圖像與真實參考圖像進行相同尺寸和相同位置的裁切,進行數據增強操作; S2、構建雙分支網絡模型并進行訓練,該雙分支網絡模型采用的是編碼器-解碼器網絡,通過損失分類器和約束函數進行訓練; S3、將待超分辨率重建或待去霧圖像輸入到訓練好的雙分支網絡模型中,通過特征融合的方式獲取最終的結果圖; 雙分支網絡模型的構建過程具體如下: S211、將輸入的待超分辨率重建或待去霧圖像經過一個特征提取層與殘差層得到低層次特征,其后該低層次特征再經過三次下采樣編碼,其中前兩次下采樣編碼為一個下采樣層后接一個殘差層,第三次下采樣編碼為一個下采樣層后接一個殘差注意力層; S212、下采樣編碼后是三次上采樣解碼,其每次上采樣解碼為一個上采樣層后接一個殘差注意力層;在上采樣編碼過程中,每次上采樣解碼的結果與編碼器中對應的同尺寸的下采樣編碼輸出結果在通道維度相拼接,作為下一個上采樣解碼的輸入; S213、將第三次上采樣解碼的結果與最初的低層次特征再通道維度拼接,并將之輸入到特征恢復層,特征恢復層的輸出維度為3的圖像,將該圖像作為該分支的最終輸出; 步驟S2中損失分類器通過L1損失劃分出輸出圖像的平滑區域和邊緣區域,具體劃分過程如下: S221、利用第一分支獲得的超分辨率重建或去霧圖像a,與訓練過程中的真實參考圖GT作L1損失,得到LossL1; S222、使用圖像a與真實參考圖GT逐像素做差獲的差的絕對值,得到Lossx,y,z; S223、獲取到Lossx,y,z后,根據其在位置x,y,z的值與LossL1進行大小比較,并在相應位置上置1或0,獲得掩膜Maskx,y,z,Lossx,y,z的值比LossL1小則取1,反之取0;具體平滑掩膜的公式如下所示: 則邊緣掩膜表示為1-Maskx,y,z; S224、將平滑掩膜作用于圖像a,將邊緣掩膜作用于初步超分辨率重建或去霧圖像b,二者相加得到超分辨率重建或去霧圖像c; S225、將雙分支網絡模型中各分支中的特征恢復層的輸入與特征恢復層的輸出即初步恢復圖像在通道維度上拼接,且一個分支拼接的結果再與另一個分支拼接的結果再次在通道維度上拼接,最后經過一個特征融合層獲得最佳超分辨率重建或去霧圖像d;其中,特征融合層指的是先經過一個殘差注意力層后再經過一個卷積層,最后接一個Tanh激活層; S226、獲得圖像c與圖像d后,通過將二者與真實參考圖像GT做L1損失與感知損失,并通過神經網絡的反向傳播機制與梯度下降機制訓練雙分支網絡模型,使得其在獲得最終結果圖像的過程中,獲取平滑區域和邊緣區域。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人暨南大學,其通訊地址為:510632 廣東省廣州市天河區黃埔大道西601號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          以上內容由AI智能生成
          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 99国精品午夜福利视频不卡99| 欧洲一卡2卡三卡4卡免费视频| 高h纯肉无码视频在线观看| 日本高清在线中字视频| 亚洲最大日韩精品一区| 亚洲av成人免费在线| 在线观看国产h成人网站| 色av永久无码影院av| 69精品人人人人| 亚洲国产精品成人av网| 人妻精品国产一区二区| 人妻 日韩 欧美 综合 制服 | 国产高清精品软件丝瓜软件| 国产-第1页-浮力影院| 国产最变态调教视频| 麻豆专媒体一区二区| 欧美成人免费va影院高清| 国产精品人成视频免| 黑人巨茎精品欧美一区二区| 欧美 亚洲 国产 制服 中文 | 欧美日本一区二区视频在线观看| 国内精品久久久久久久97牛牛| 国产午夜精品久久一二区| 久99久无码精品视频免费播放| 波多野42部无码喷潮在线| 日韩精品无码视频一区二区蜜桃| 亚洲欧美闷骚少妇影院| 最近中文字幕在线中文视频| 久久天天躁狠狠躁夜夜婷| 亚洲欧美闷骚少妇影院| 久久麻豆成人精品| 精品国产成人一区二区三区| 熟女内射v888av| 国产成人啪精品视频免费网 | 久久精品人人做人人爽电影蜜月| 国产极品美女高潮抽搐免费网站| 亚洲成a人v欧美综合天堂下载| av综合网男人的天堂| 毛茸茸性xxxx毛茸茸毛茸茸| 日韩人妻无码精品系列| 上司的丰满人妻中文字幕|