<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 浙江大學向澳獲國家專利權

          浙江大學向澳獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉浙江大學申請的專利基于無監督深度學習的多光照角度航天器圖像融合方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115511763B

          龍圖騰網通過國家知識產權局官網在2025-09-12發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211203401.8,技術領域涉及:G06T5/50;該發明授權基于無監督深度學習的多光照角度航天器圖像融合方法是由向澳;張育林;徐韻;范麗;何云瀚;邱煒設計研發完成,并于2022-09-29向國家知識產權局提交的專利申請。

          基于無監督深度學習的多光照角度航天器圖像融合方法在說明書摘要公布了:本發明公開了一種基于無監督深度學習的多光照角度航天器圖像融合方法,包括以下步驟:獲取多光照角度下航天器圖像構建數據集;將兩張不同圖像轉換到YCbCr顏色空間,Cb和Cr通道進行加權融合;構建編碼器?解碼器架構卷積神經網絡,在自然圖像數據集上訓練,得到最優模型,輸入兩圖像的Y通道,通過編碼器提取特征并通根據特征映射的活動水平融合輸入特征,解碼器重構為新的Y通道;并與Cb、Cr通道重組得到融合圖像并轉換回BGR空間。本發明在大型自然圖像數據集上進行編碼器解碼器訓練,避免直接在多光照角度航天器圖像數據集上訓練引起過擬合,根據特征映射的活動水平計算融合權重,更好地融合不同光照角度航天器圖像中的互補信息。

          本發明授權基于無監督深度學習的多光照角度航天器圖像融合方法在權利要求書中公布了:1.一種基于無監督深度學習的多光照角度航天器圖像融合方法,其特征在于,包括如下步驟: S1、獲取多光照角度下的航天器圖像構建數據集;該數據集包括多組不同視角下航天器圖像序列,每組圖像序列為航天器在同一視角下不同光照角度的圖像; S2、將同一視角下兩張不同光照角度的圖像從藍綠紅空間轉換到優化彩色視頻信號空間,將兩張圖像的藍色色度分量通道和紅色色度分量通道分別進行加權融合得到新的藍色色度分量通道和紅色色度分量通道; S3、構建基于編碼器-解碼器架構的卷積神經網絡,在自然圖像數據集上進行訓練,得到泛化性能良好的編碼器和解碼器,將兩張圖像的亮度分量通道作為編碼器的輸入,通過編碼器提取特征并根據特征映射的活動水平計算融合權重,根據融合權重融合輸入特征,融合輸入特征后使用解碼器重構為新的亮度分量通道; 訓練卷積神經網絡使用的損失函數包括均方誤差損失、結構相似性損失和總變差損失,這三種損失函數計算原理如下: 首先是均方誤差損失用于評估兩幅圖像之間的重建效果,其表示為輸入圖像yi和輸出圖像yo之差平方的期望值,均方誤差損失lmse計算公式如下: lmse=||yo-yi||2 卷積神經網絡輸入圖像yi和輸出圖像yo的亮度差異lyi,yo,對比度差異cyi,yo和結構差異syi,yo由以下公式計算: 其中和為輸入圖像yi的均值和標準差;其中和為輸出圖像yo的均值和標準差,為輸入圖像yi和輸出圖像yo的協方差;c1,c2,c3是正值常數用于防止公式計算出現除0的異常;兩張圖像的結構相似性指數SSIMyi,yo由下式計算: 結構相似性損失lssim表示為: lssim=1-SSIMyi,yo 總變差損失主要關注的是圖像重建過程中的圖像梯度信息保留,同時進一步消除噪聲,總變差損失ltv計算公式如下: Rx,y=yox,y-yix,y 其中x,y表示圖像的橫縱坐標值,yox,y和yix,y表示該橫縱坐標處的輸出和輸入圖像像素值,Rx,y表示輸入輸出圖像在x,y處的像素值差異,||·||2表示二范數; S4、將卷積神經網絡生成的亮度分量通道與加權融合得到的藍色色度分量、紅色色度分量通道重組得到融合圖像并轉換回藍綠紅空間。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人浙江大學,其通訊地址為:310058 浙江省杭州市西湖區余杭塘路866號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          以上內容由AI智能生成
          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 亚洲午夜福利精品久久| 欧美日韓性视頻在線| 大战丰满无码人妻50p| 久久人人爽人人爽人人av| 97在线成人国产在线视频| 日本老熟妇50岁丰满| 成人午夜看黄在线尤物成人| 亚洲人成网站18禁止| 人妻少妇88久久中文字幕| 亚洲人亚洲人成电影网站色| 国产一区二区三区乱码| 日本卡2卡3卡4卡5卡精品视频| 精品久久久噜噜噜久久| 久久久亚洲色| 国产999精品2卡3卡4卡| 国产精品国产自线拍免费| 人人澡人人妻人人爽人人蜜桃| 久久精品人妻无码专区| 国内精品伊人久久久久777| 国产精品久久国产精品99| 天天综合爱天天综合色| 中文av伊人av无码av狼人| 欧美白妞大战非洲大炮| 少妇伦子伦精品无吗| 日日摸日日碰夜夜爽av| 久久精品国产99国产精2021| 99精品国产在热久久婷婷| 性一交一乱一伦| 国产无遮挡a片又黄又爽漫画| 精品丰满人妻无套内射| 日本少妇三级hd激情在线观看| 国产精品毛片在线完整版| 法国啄木乌av片在线播放| 欧美自拍亚洲综合在线| 天天天天噜在线视频| 久久99精品久久久久久齐齐| 久久av高潮av无码av喷吹| 久久综合给合久久狠狠狠97色| 国产永久免费观看的黄网站| 中文字幕精品人妻丝袜| 中文字幕人妻不卡精品|