<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 南京理工大學崔珂獲國家專利權

          南京理工大學崔珂獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉南京理工大學申請的專利一種基于深度神經網絡的低劑量PET圖像重建方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116245969B 。

          龍圖騰網通過國家知識產權局官網在2025-08-22發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202310332957.5,技術領域涉及:G06T11/00;該發明授權一種基于深度神經網絡的低劑量PET圖像重建方法是由崔珂;葉劍波;李翔宇設計研發完成,并于2023-03-30向國家知識產權局提交的專利申請。

          一種基于深度神經網絡的低劑量PET圖像重建方法在說明書摘要公布了:本發明公開了一種基于深度神經網絡的低劑量PET圖像重建方法,具體為:將標準劑量重建的影像數據增強后前向投影生成無噪聲投影域數據,添加泊松噪聲模擬低劑量情形,生成仿真數據集;通過將圖像分塊并投影的方式生成正弦圖掩碼;利用掩碼構建網絡模型,使用混合損失函數和生成的數據集對深度神經網絡進行訓練;根據評價指標,判斷圖像重建效果是否滿足要求:滿足則進入下一步;否則更改網絡結構,修改優化函數、學習率和損失函數的參數,重新訓練;通過截斷奇異值分解減少全連接層參數;將實際采集的正弦圖數據,作為深度神經網絡模型的輸入,計算得到重建的影像。本發明減少了圖像重建的計算時間,提高了低計數率情形下重建影像的信噪比。

          本發明授權一種基于深度神經網絡的低劑量PET圖像重建方法在權利要求書中公布了:1.一種基于深度神經網絡的低劑量PET圖像重建方法,其特征在于,步驟如下: 步驟S1、標準劑量重建影像經數據增強后,通過前向投影生成無噪聲正弦圖,添加泊松噪聲生模擬低計數情形,得到仿真數據集; 步驟S2、通過將圖像分塊并前向投影,生成正弦圖掩碼; 步驟S3、使用上述掩碼構建深度神經網絡模型結構,設置訓練超參數、優化算法,使用混合損失函數和步驟S1得到的數據集對深度神經網絡模型進行訓練; 步驟S4、根據結構相似度、峰值信噪比這些評價指標,判斷圖像重建效果是否滿足要求,若滿足則進入調制步驟S5;不滿足則更改網絡結構,修改優化函數、學習率和損失函數這些參數的數值,并轉至步驟S3重新訓練; 步驟S5、基于截斷奇異值分解減小網絡參數; 步驟S6、將真實PET系統采集的正弦圖數據,作為訓練后深度神經網絡模型的輸入,經計算得到重建的影像; 步驟S3中所述構建深度神經網絡模型結構,設置訓練超參數、優化算法,其中優化算法采用Adam算法,網絡模型結構如下: 深度神經網絡模型結構包含域變換模塊和圖像增強模塊; 域變換模塊包含掩碼選擇和全連接層兩個部分;掩碼選擇部分使用預先生成的掩碼選取特定區域的正弦圖數據,輸入到全連接層中,將輸出的一維數據重組為二維的圖像塊,并將這些圖像塊組合; 圖像增強模塊由一個U-Net結構的網絡組成,包含了編碼器、瓶頸層和解碼器三個部分,編碼器有3層,每一層由1個殘差塊構成,每一層的輸出作為下一層的輸入和對應編碼器層的輸入;瓶頸層包含1個殘差塊;解碼器和編碼器的層數相同,每一層包含1個像素重排層用于上采樣和1個殘差塊用于特征的解碼;解碼器最后一層輸出的特征圖經過1×1卷積后輸出PET影像; 步驟S3中所述使用混合損失函數和步驟S1得到的數據集對深度神經網絡模型進行訓練,其中混合損失函數Lmixx,y的公式如下: Lmixx,y=α1Ll1x,y+α2LMS-SSIMx,y+βLVGGx,y 其中α1,α2和β為超參數; 平均絕對誤差損失Ll1x,y公式為: 其中,x表示實際的PET影像,y表示深度神經網絡模型輸出的預測PET影像,N表示真實影像的像素個數; 多尺度結構相似度損失LMS-SSIMx,y公式為: 其中,cj、sj分別表示將原圖像進行j次連續的低通濾波和采樣間隔為2的下采樣后計算對比度項、結構項,M表示連續的低通濾波總次數; 亮度項lx,y公式為: 對比度項cx,y公式為: 結構項sx,y公式為: 其中,μx,μy分別代表x和y的均值,σx,σy分別代表x和y的標準差,σxy表示x和y的協方差,C1,C2,C3是常數值,滿足: C1=K1L2 C2=K2L2 C3=C22 其中K1=0.01,K2=0.03,L表示數值范圍; 感知差損失LVGGx,y的公式如下: 其中,C為經過VGG網絡前3個卷積層計算輸出的特征的通道的個數,H和W分別為特征圖的高和寬;計算時,單通道的PET影像被復制并拼接成為三通道的圖像后再輸入到VGG網絡中。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人南京理工大學,其通訊地址為:210094 江蘇省南京市玄武區孝陵衛200號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 在线观看无码不卡av| 亚洲精品中文字幕无码蜜桃| 久久亚洲中文字幕精品有坂深雪| 欧美成人精品手机在线| 色欲aⅴ亚洲情无码av| 人妻熟女av一区二区三区| 亚洲国产aⅴ精品一区二区的游戏| 成人年无码av片在线观看| 中文字幕亚洲国产精品| 精品无码av无码专区| 尤物yw193无码点击进入| 女人扒开屁股桶爽30分钟| 欧美黑人激情性久久| 99精品国产兔费观看久久| 精品国产av色欲果冻传媒| 欧美成人精品三级网站下载| 午夜免费无码福利视频麻豆| 国产va免费精品高清在线| 亚洲精品一区二区| а天堂中文最新一区二区三区| 又粗又猛又大爽又黄老大爷5 | 国产综合色在线精品| 久久精品国产网红主播| 国内大量揄拍人妻精品視頻| 婷婷四房综合激情五月在线| 国产成人精品a视频一区| 老司机午夜精品99久久免费| 岛国av无码免费无禁网站| 秋霞影院午夜伦a片欧美| 亚洲国产av天码精品果冻传媒| 狠狠色成人综合网| 免费无码毛片一区二三区| 中文人妻av高清一区二区| 无码人妻aⅴ一区二区三区蜜桃| 性色欲情网站| 五 月 丁 香 综合中文| 亚洲精品乱拍国产一区二区三区| 欧美人与动牲交a免费观看| 人人澡人摸人人添| 精品中文人妻在线不卡| 午夜a理论片在线播放|