<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預(yù)訂訂單
          服務(wù)訂單
          發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標 發(fā)布需求

          在線咨詢

          聯(lián)系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務(wù) 國際服務(wù) 商標交易 會員權(quán)益 需求市場 關(guān)于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 南京理工大學沈華獲國家專利權(quán)

          南京理工大學沈華獲國家專利權(quán)

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!

          龍圖騰網(wǎng)獲悉南京理工大學申請的專利一種基于GSCGAN的圖像灰度立體轉(zhuǎn)換方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN114612900B

          龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-09-09發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202210213724.9,技術(shù)領(lǐng)域涉及:G06V20/69;該發(fā)明授權(quán)一種基于GSCGAN的圖像灰度立體轉(zhuǎn)換方法是由沈華;矯岢蓉;朱長美;卞殷旭;史乾佑;邢濤設(shè)計研發(fā)完成,并于2022-03-04向國家知識產(chǎn)權(quán)局提交的專利申請。

          一種基于GSCGAN的圖像灰度立體轉(zhuǎn)換方法在說明書摘要公布了:本發(fā)明公開了一種基于GSCGAN的圖像灰度立體轉(zhuǎn)換方法,包括如下步驟:步驟1:構(gòu)建明場模式圖像集、相襯模式圖像集以及微分干涉模式圖像集;步驟2:用相襯成像及微分干涉成像中的光線傳播卷積公式代替?zhèn)鹘y(tǒng)GAN中的卷積傳播運算來構(gòu)建復(fù)值GAN,建立初步GSCGAN模型;步驟3:將訓練圖像輸入初步GSCGAN模型中進行訓練,得到GSCGAN模型;步驟4:將透明目標樣本圖像輸入GSCGAN模型進行測試,得到結(jié)果圖像。本發(fā)明采用基于GSCGAN的模型來對透明樣本圖像進行了灰度立體轉(zhuǎn)換,得到了相襯干涉效果或微分干涉效果的圖像。所構(gòu)建的模式判別器D m 可以判斷圖像為相稱效果圖還是微分干涉效果圖,使輸入一幅圖像可以輸出兩種不同的效果圖像。并且提出了灰度損失函數(shù),有效保存正確信息的同時避免了顏色混亂對結(jié)果造成偽彩色的影響。

          本發(fā)明授權(quán)一種基于GSCGAN的圖像灰度立體轉(zhuǎn)換方法在權(quán)利要求書中公布了:1.一種基于GSCGAN的圖像灰度立體轉(zhuǎn)換方法,其特征在于,包括以下步驟: 步驟1、利用科研級顯微鏡采集P個透明樣本,分別獲取明場模式、相襯模式以及微分干涉模式下對應(yīng)的圖像,共3P幅,P≥200;上述每幅圖像的像素為1000×1000,并將圖像轉(zhuǎn)化為灰度圖像,分別對應(yīng)構(gòu)成明場模式圖像集、相襯模式圖像集以及微分干涉模式圖像集; 步驟2、用相襯成像及微分干涉成像中的光線傳播卷積公式代替?zhèn)鹘y(tǒng)GAN中的卷積傳播運算來構(gòu)建復(fù)值GAN,將兩個復(fù)值GAN首尾相連形成一個循環(huán)結(jié)構(gòu),并在每一層輸出圖像后加入模式判別器Dm,獲得初步GSCGAN模型; 步驟3、將明場模式圖像集中的灰度圖像作為原始訓練圖像,相襯模式圖像集以及微分干涉模式圖像集中的灰度圖像作為理想訓練目標圖像,通過對原始訓練圖像的和理想訓練目標圖像進行傅里葉變換,將上述圖像中每一個像素值變?yōu)閺?fù)數(shù),對應(yīng)幅值和相位分別獲得實數(shù)對與虛數(shù)對的圖像特征圖,并以復(fù)值形式分別輸入初步GSCGAN模型中進行訓練,得到GSCGAN模型; 步驟4、采集透明目標樣本圖像作為真實數(shù)據(jù),圖像像素大小在1000×1000,并將圖像轉(zhuǎn)化為灰度圖像,輸入GSCGAN模型中,即得到對應(yīng)相襯干涉圖或微分干涉圖像,進而實現(xiàn)明暗分明的立體成像效果; 步驟1中,不改變科研級顯微鏡的角度和位置對同一個透明樣本采集其在明場模式、相襯模式以及微分干涉模式下對應(yīng)的圖片; 步驟2中,相襯成像及微分干涉成像中的光線傳播卷積公式是基于相襯及微分干涉成像理論求得,具體如下: 對于相襯成像,假設(shè)物體透射光復(fù)振幅分布為通過改變物體的相位頻譜信息,變換后的復(fù)振幅分布為光強分布為其中δ表示零級相移,表示相位信息,i表示虛數(shù)單位,x',y'表示像面上信息點的坐標;由上式可知光強與相位是線性關(guān)系,相位差轉(zhuǎn)換成了振幅信息,則轉(zhuǎn)換后圖像可以看到明暗差別; 對于微分干涉成像,樣品成像的光強分布為 其中表示正交線偏振光間干涉相差,E0表示偏振分量的振幅,Ho,e表示樣品表面形貌微分,o表示棱鏡的位置,被測相位分布式中λ表示光波波長,Δo為正交線偏振光間橫向剪切量,βo為棱鏡相差,是關(guān)于棱鏡位置的線性函數(shù); 所述復(fù)值在網(wǎng)絡(luò)中表示的方法如下:一個復(fù)數(shù)z=A+ib有一個實分量A和一個虛分量b,我們將一個復(fù)數(shù)的實部A和虛部b表示為邏輯上不同的實值實體,并在內(nèi)部使用實值算法模擬復(fù)數(shù)算術(shù),i表示虛數(shù)單位;若一個實值二維卷積層有N個特征映射,使N能被2整除;為了將它們表示為復(fù)數(shù),則分配第一個N2特征映射來表示實分量,其余的N2特征映射來表示虛分量;因此,對于連接輸入特征映射Nin到輸出特征映射Nout的四維權(quán)值張量W,其核大小為n×n,即有一個大小為Nout×Nin×n×n2的復(fù)權(quán)值張量; 步驟2中,將兩個復(fù)值GAN首尾相連形成一個循環(huán)結(jié)構(gòu),并在每一層輸出圖像后加入模式判別器Dm,獲得初步GSCGAN模型,具體如下: 第一個GAN用于生成X域到Y(jié)域的圖像,由第一生成器G和第一判別器Dx構(gòu)成;第二個GAN用于生成Y域到X域的圖像,由第二生成器F和第二判別器Dy構(gòu)成,將兩個GAN,首尾相連形成一個循環(huán)結(jié)構(gòu); 第一生成器G根據(jù)X域輸入的原始訓練圖像與理想訓練目標圖像中Y域的信息,生成一份含有Y域信息的假圖像,第一判別器Dx去分析該假圖像是否為理想訓練目標圖像中的Y域圖像,如果是則輸出,如果不是則反饋信息給第一生成器G讓其更新假圖像,直至第一判別器Dx難以分辨假圖像與理想訓練目標圖像為止,最后輸出的即為理想訓練目標圖像;第二生成器F根據(jù)Y域輸入的原始訓練圖像與理想訓練目標圖像中X域的信息,生成一份含有X域信息的假圖像,第二判別器Dy去分析該假圖像是否為理想訓練目標圖像中的X域圖像,反饋信息給第二生成器F讓其更新圖像;所述模式判別器Dm對轉(zhuǎn)換輸出的圖像或者理想訓練目標圖像進行分析,判別其為相稱效果圖還是微分干涉效果圖,并反饋信息分別指導兩個生成器; 所述第一生成器G,其在訓練時的損失函數(shù)LGSCGANG,Dx,M如下: LGSCGANG,Dx,M=LGANG,Dx,X,Y+αLGANG,M+βLGrayscaleG,X,Y 其中,第一生成器G與第一判別器Dx間的對抗損失函數(shù) 表示X域真實數(shù)據(jù)的數(shù)學期望,表示Y域真實數(shù)據(jù)的數(shù)學期望;第一生成器G與模式判別器Dm間的對抗損失函數(shù)LGANG,M=∑Xpxlogqx,px表示X域生成相襯模式圖像的概率,qx表示X域生成微分干涉模式圖像的概率,讓生成器進行不同模式圖像的訓練;LGrayscaleG,X,Y為灰度損失函數(shù),α與β均表示網(wǎng)絡(luò)各損失所占的權(quán)值,Dxx,y為第一判別器Dx返回給第一生成器G的指導信息,Gx,y表示生成器G據(jù)X域輸入的原始訓練圖像與理想訓練目標圖像中Y域的信息輸出的圖像信息; 所述第二生成器F,其在訓練時的損失函數(shù)LGSCGANF,Dy,M如下: LGSCGANF,Dy,M=LGANF,Dy,X,Y+αLGANF,M+βLGrayscaleF,X,Y 其中,第二生成器F與第二判別器Dy間的對抗損失函數(shù) 表示X域真實數(shù)據(jù)的數(shù)學期望,表示Y域真實數(shù)據(jù)的數(shù)學期望;第二生成器F與模式判別器Dm間的對抗損失函數(shù)LGANF,M=∑Ypylogqy,py表示Y域生成相襯模式圖像的概率,qy表示Y域生成微分干涉模式圖像的概率,讓生成器進行不同模式圖像的訓練;LGrayscaleF,X,Y為灰度損失函數(shù),α與β均表示網(wǎng)絡(luò)各損失所占的權(quán)值,Dyy,x為第二判別器Dy返回給第二生成器F的指導信息,F(xiàn)y,x表示生成器F據(jù)Y域輸入的原始訓練圖像與理想訓練目標圖像中X域的信息輸出的圖像信息。

          如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人南京理工大學,其通訊地址為:210094 江蘇省南京市玄武區(qū)孝陵衛(wèi)200號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

          免責聲明
          1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
          2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。
          主站蜘蛛池模板: 中文字幕日韩人妻无码| 日本免费一区二区三区最新vr| 国产精品爽黄69天堂a| 韩国19禁无遮挡啪啪无码网站| 国产成AV人片久青草影院| 久久天堂无码av网站| 国产精品亚洲第一区在线| 久久精品99国产国产精| 国产午夜福利在线观看视频_| 午夜亚洲www湿好大| 亚洲另类欧美小说图片区| 午夜男女爽爽爽在线视频| 亚洲欧洲日产韩国无码| 极品无码国模国产在线观看| 美丽人妻被按摩中出中文字幕| 亚洲精品综合一区二区三| 欧美和黑人xxxx猛交视频| 大屁股熟女白浆一区二区| 国产av亚洲精品久久久久久| 丰满妇女毛茸茸刮毛| a在线视频v视频| 国产又爽又大又黄a片| 一区二区三区乱码在线 | 中文| 国产欧美日韩另类在线专区 | 久青草国产97香蕉在线视频| 国产一区在线观看不卡| 国产精品女视频一区二区| 亚洲人成网站色www| 成av人片在线观看天堂无码| 亚洲色无码国产精品网站可下载 | 亚洲综合色区另类av| 日本免费一区二区三区日本| 国产av不卡一区二区| 国产成人啪精品视频免费APP | 亚洲最大的熟女水蜜桃AV网站| 亚洲日本高清一区二区三区| 亚洲国产成人久久综合三区| 99久久国产综合精品女同图片| 无码国内精品久久人妻| 少妇精油按摩av无码中字| 在线综合亚洲欧美网站|