<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 桂林電子科技大學管軍霖獲國家專利權

          桂林電子科技大學管軍霖獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉桂林電子科技大學申請的專利一種基于卷積神經網絡的視盤分割方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115331011B

          龍圖騰網通過國家知識產權局官網在2025-08-22發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211084181.1,技術領域涉及:G06V10/26;該發明授權一種基于卷積神經網絡的視盤分割方法是由管軍霖;劉思語;何宇翔;王小龍;廖思賢設計研發完成,并于2022-09-06向國家知識產權局提交的專利申請。

          一種基于卷積神經網絡的視盤分割方法在說明書摘要公布了:本發明公開了一種基于卷積神經網絡的視盤分割方法,其特征在于,包括如下步驟:1)定義TU?Net網絡;2)搭建U?Net網絡;3)依據輸出的標注圖像對視盤進行定位;4)對圖像進行預處理;5)構建AU?Net網絡;6)設置訓練策略;7)設置損失函數;8)訓練網絡和更新參數;9)將輸出的圖像進行圖像后處理;10)設置評價標準。這種方法實現簡單,普適性強,可以減少眼底圖像噪聲影響。

          本發明授權一種基于卷積神經網絡的視盤分割方法在權利要求書中公布了:1.一種基于卷積神經網絡的視盤分割方法,其特征在于,包括如下步驟: 1定義TU-Net網絡:TU-Net網絡由U-Net網絡和AU-Net組成; 2搭建U-Net網絡:網絡模型結構呈現U型對稱設有編碼路徑和解碼路徑,編碼路徑由四個Down-Conv模塊組成,每個Down-Conv模塊設有兩個由3×3卷積和ReLU線性激活函數組成的Conv卷積層和一個用于下采樣的2×2最大池化層,解碼路徑由4個Up-Conv模塊組成,每個Up-Conv模塊由一個用于上采樣的反卷積層和兩個卷積層組成,每個Down-Conv模塊和Up-Conv模塊由跳轉連接層進行連接,跳轉連接層令U-Net網絡能夠融合底層特征和高層特征,使得在最終輸出的特征圖中包含原始輸入圖片的不同層次的特征; 3依據輸出的標注圖像對視盤進行定位:通過U-Net網絡得到一幅特征圖像、該特征圖像大致確定視盤區域,對該特征圖像進行邊緣檢測處理,依據得到的邊界信息求出區域中心坐標,中心坐標即為視盤在原始視網膜圖像中的大致位置; 4依據步驟3得到的坐標信息對數據集中的視網膜圖像和與該圖像對應的標注圖像進行裁剪并對圖像進行預處理,包括: 4-1裁剪:依據步驟3得到的的視盤定位信息,裁剪出一幅大小為200x200的圖像、該圖像的中心為視盤區域; 4-2圖像預處理:首先采用限制對比度自適應直方圖均衡化CLAHE算法對提取B通道的彩色眼底圖像進行圖像增強處理,再采用形態學閉運算對增強后的圖像進行處理,最后對輸出圖像和與經過步驟4-1裁剪得到的與輸入圖像對應的標注圖像進行極坐標變換,圖像預處理過程如圖4所示; 5構建AU-Net網絡:AU-Net網絡由4個Res-Conv卷積塊構成解碼路徑,由4個Up-Conv模塊構成編碼路徑,Up-Conv模塊與步驟1中U-Net網絡中解碼模塊一致,AU-Net在編碼路徑采用Res-Conv卷積模塊代替傳統的編碼模塊,Res-Conv模塊采用ResNet網絡思想,每個Res-Conv模塊和Up-Conv模塊由跳轉連接層進行連接,跳轉連接層使網絡能夠融合底層特征和高層特征,使得在最終輸出的特征圖中包含了圖片的不同層次的特征,AU-Net在跳轉連接上采用注意門AGs; 6設置訓練策略:采用SGD優化算法,設置批量處理大小BatchSize為4、訓練周期epoch為200、初始學習率為0.001; 7設置損失函數:采用結合交叉熵和Dice損失的損失函數作為本文的損失函數來進行網絡訓練,視盤分割問題被視為像素點的二分類問題,引入Dice損失函數作為損失函數的一部分,交叉熵函數如公式1所示: 其中yi是第i個像素的標簽,視盤為1,背景為0,pi表示第i個像素預測為視盤的概率,Dice損失函數如公式2所示: 其中|A|和|B|分別表示Groundtruth和Predictmask的數量,損失函數如公式3所示: 8訓練網絡和更新參數:根據步驟6設置好的訓練策略訓練AU-Net網絡,AU-Net網絡采用反向傳播算法對AU-Net網絡中的權重和偏置進行更新,在訓練過程中用損失函數動態維護; 9將輸出的圖像進行圖像后處理:首先需要對輸出的預測圖像進行逆極坐標變換得到笛卡爾坐標系下的預測圖像,再根據定位信息,將輸出的預測圖像尺寸還原成原始圖像大小; 10設置評價標準:評價網絡模型分割效果選用準確性Acc、特異性Spe、敏感性Se和F1-Score來評價,它們的計算公式分別如公式4、公式5、公式6、公式7和公式8所示: TP、TN、FP、FN分別表示真陽性、真陰性、假陽性和假陰性,其中TP表示預測是視盤且真實也是視盤的像素點個數;TN表示預測是背景且真實也是背景的像素點個數;FP表示預測是視盤且真實是背景的像素點個數;FN表示預測是背景且真實是視盤的像素點個數; 11評估網絡模型:將采用本技術方案預測出的視盤分割圖像與步驟1中的數據集中的標注圖像進行對比,依據評價標準評價模型的性能。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人桂林電子科技大學,其通訊地址為:541004 廣西壯族自治區桂林市金雞路1號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 92午夜福利轻云观看| 亚洲大成色www永久网站注册| 午夜福利伦伦电影理论片在线观看 | 苍井空毛片精品久久久| 人妻丰满被色诱中文字幕| 亚洲国产日韩在线人成蜜芽| 国产成人国产在线观看| 国产精品区免费视频| 亚洲人成无码区在线观看| 男女又色又爽又爽视频| 国产精品欧美久久久久久日木一道 | 国产日韩一区二区四季| 国产成人精品一区二区三区视频| 成人亚洲欧美在线观看| 99热精品毛片全部国产无缓冲 | 卡一卡2卡3卡精品网站| 果冻传媒亚洲区二期| 亚洲国产成人va在线观看天堂 | 一区二区三区精品视频日本| 日韩欧激情一区二区三区| 99久久久无码国产精品性| 亚洲 日韩 欧美 有码 在线| 亚洲337少妇裸体艺术| 国产成人精品日本亚洲18| 色婷婷五月在线精品视频| 国产精品亚洲中文字幕| 大肉大捧一进一出视频出来呀| 久国产精品韩国三级视频| 射精专区一区二区朝鲜| 日韩人妻无码一区二区三区99| 国产乱人伦偷精品视频色欲| 亚洲gv白嫩小受在线观看| 日韩欧美亚洲综合久久| 黑鬼大战白妞高潮喷白浆| 日本视频免费高清一本18| 老熟妇乱子伦系列视频| 永久免费av网站可以直接看的 | 亚洲精品av无码喷奶水糖心| 97人人超人人超免费国产| 欧美性猛交xxxx黑人| 中文字幕在线亚洲精品|