<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動(dòng)滑塊完成拼圖
          個(gè)人中心

          預(yù)訂訂單
          服務(wù)訂單
          發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標(biāo) 發(fā)布需求

          在線咨詢

          聯(lián)系我們

          龍圖騰公眾號(hào)
          首頁(yè) 專利交易 IP管家助手 科技果 科技人才 科技服務(wù) 國(guó)際服務(wù) 商標(biāo)交易 會(huì)員權(quán)益 需求市場(chǎng) 關(guān)于龍圖騰
           /  免費(fèi)注冊(cè)
          到頂部 到底部
          清空 搜索
          • 我要求購(gòu)
          • 我要出售
          當(dāng)前位置 : 首頁(yè) > 專利喜報(bào) > 浙江大學(xué)馬駿獲國(guó)家專利權(quán)

          浙江大學(xué)馬駿獲國(guó)家專利權(quán)

          買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!

          龍圖騰網(wǎng)獲悉浙江大學(xué)申請(qǐng)的專利基于預(yù)測(cè)校正和匯聚注意力transformer的多模態(tài)圖像配準(zhǔn)方法獲國(guó)家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國(guó)家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號(hào)為:CN117173226B

          龍圖騰網(wǎng)通過(guò)國(guó)家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-09-09發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請(qǐng)?zhí)?專利號(hào)為:202311245570.2,技術(shù)領(lǐng)域涉及:G06T7/33;該發(fā)明授權(quán)基于預(yù)測(cè)校正和匯聚注意力transformer的多模態(tài)圖像配準(zhǔn)方法是由馬駿;曹思源;張潤(rùn)民;童奕澄;左偲彤;俞貝楠;應(yīng)佳成;張程浩;羅倫;沈會(huì)良;李軍偉設(shè)計(jì)研發(fā)完成,并于2023-09-25向國(guó)家知識(shí)產(chǎn)權(quán)局提交的專利申請(qǐng)。

          基于預(yù)測(cè)校正和匯聚注意力transformer的多模態(tài)圖像配準(zhǔn)方法在說(shuō)明書(shū)摘要公布了:本發(fā)明公開(kāi)了一種基于預(yù)測(cè)校正和匯聚注意力transformer的多模態(tài)圖像配準(zhǔn)方法,該方法首先利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)圖像和源圖像進(jìn)行特征提取,再基于自注意力機(jī)制對(duì)所述目標(biāo)圖像源圖像特征圖進(jìn)行自注意力特征修飾,并進(jìn)一步基于交叉注意力機(jī)制預(yù)測(cè)殘差配準(zhǔn)參數(shù);循環(huán)上述過(guò)程至設(shè)定次數(shù),對(duì)殘差配準(zhǔn)參數(shù)累加得到最終配準(zhǔn)參數(shù),即可對(duì)源圖像進(jìn)行形變校正。本發(fā)明方法引入基于模型預(yù)測(cè)引導(dǎo)形變校正的迭代推理框架,提高模型的魯棒能力,增強(qiáng)配準(zhǔn)的精度。實(shí)驗(yàn)結(jié)果和分析證明了本發(fā)明所提出的基于預(yù)測(cè)校正和匯聚注意力transformer的多模態(tài)圖像配準(zhǔn)方法對(duì)于解決多模態(tài)圖像配準(zhǔn)問(wèn)題的有效性和優(yōu)越性。

          本發(fā)明授權(quán)基于預(yù)測(cè)校正和匯聚注意力transformer的多模態(tài)圖像配準(zhǔn)方法在權(quán)利要求書(shū)中公布了:1.一種基于預(yù)測(cè)校正和匯聚注意力transformer的多模態(tài)圖像配準(zhǔn)方法,其特征在于,給定待配準(zhǔn)的多模態(tài)圖像對(duì),所述多模態(tài)圖像對(duì)包括目標(biāo)圖像和源圖像;以目標(biāo)圖像為基準(zhǔn),利用預(yù)測(cè)配準(zhǔn)參數(shù)對(duì)源圖像進(jìn)行形變校正;具體包括以下步驟: 1)首先分兩路利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)圖像和源圖像進(jìn)行特征提取得到目標(biāo)圖像源圖像特征圖,然后基于自注意力機(jī)制對(duì)所述目標(biāo)圖像源圖像特征圖進(jìn)行自注意力特征修飾,接著基于交叉注意力機(jī)制對(duì)自注意力特征修飾后的目標(biāo)圖像特征圖和源圖像特征圖進(jìn)行互注意力修飾,最后基于交叉注意力機(jī)制預(yù)測(cè)配準(zhǔn)參數(shù)殘差; 2)利用配準(zhǔn)參數(shù)殘差更新當(dāng)前預(yù)測(cè)配準(zhǔn)參數(shù),然后利用當(dāng)前預(yù)測(cè)配準(zhǔn)參數(shù)對(duì)源圖像進(jìn)行形變校正;將形變校正后的源圖像替代之前的源圖像,繼續(xù)執(zhí)行步驟1),輸出下一次配準(zhǔn)參數(shù)殘差; 3)執(zhí)行步驟2)至預(yù)設(shè)迭代次數(shù)時(shí)停止,并輸出最終預(yù)測(cè)配準(zhǔn)參數(shù); 4)利用最終輸出的預(yù)測(cè)配準(zhǔn)參數(shù)對(duì)源圖像進(jìn)行形變校正,從而實(shí)現(xiàn)多模態(tài)圖像配準(zhǔn); 所述步驟1)中,基于自注意力機(jī)制對(duì)所述目標(biāo)圖像源圖像特征圖進(jìn)行自注意力特征修飾,接著基于交叉注意力機(jī)制對(duì)自注意力特征修飾后的目標(biāo)圖像特征圖和源圖像特征圖進(jìn)行互注意力修飾,最后基于交叉注意力機(jī)制預(yù)測(cè)配準(zhǔn)參數(shù)殘差,具體基于匯聚注意力transformer結(jié)構(gòu)實(shí)現(xiàn),具體步驟如下: S1:分兩路利用自注意力機(jī)制對(duì)所抽取的特征進(jìn)行不同坐標(biāo)位置間的關(guān)聯(lián)性計(jì)算,實(shí)現(xiàn)自注意力特征修飾;自注意力機(jī)制的計(jì)算見(jiàn)公式(1): , 其中,x為目標(biāo)圖像源圖像特征圖的坐標(biāo)索引;依次為查詢矩陣、鍵矩陣和值矩陣,通過(guò)利用全連接層處理目標(biāo)圖像源圖像特征圖獲得;表示坐標(biāo)位置周圍的區(qū)域,即自注意力機(jī)制作用范圍;如果將設(shè)為整個(gè)特征圖,則為全局自注意力機(jī)制,否則為某一半徑的非全局或局部自注意力機(jī)制;在迭代過(guò)程中,自注意力機(jī)制作用范圍隨迭代次數(shù)增加而縮?。?在完成自注意力機(jī)制計(jì)算后,使用層歸一化方式處理自注意力機(jī)制計(jì)算后得到的注意力特征,并與經(jīng)特征抽取得到的目標(biāo)圖像源圖像特征圖相加,完成自注意力的特征修飾; S2:利用交叉注意力機(jī)制對(duì)自注意力特征修飾后的目標(biāo)圖像特征圖與源圖像特征圖進(jìn)行不同坐標(biāo)位置之間的關(guān)聯(lián)性計(jì)算,交叉注意力機(jī)制的計(jì)算見(jiàn)公式(2): , 其中,下標(biāo)和表示查詢矩陣來(lái)自其中一幅特征圖,而鍵矩陣和值矩陣來(lái)自另一幅特征圖;表示交叉注意力機(jī)制在周圍的區(qū)域,即交叉注意力機(jī)制作用范圍;如果將設(shè)為整個(gè)特征圖,則為全局交叉注意力機(jī)制,否則為某一半徑的非全局或局部交叉注意力機(jī)制;在迭代過(guò)程中,交叉注意力機(jī)制作用范圍隨迭代次數(shù)增加而縮??; 在完成交叉注意力機(jī)制計(jì)算后,使用層歸一化方式處理交叉注意力機(jī)制計(jì)算后得到的注意力特征,并與自注意力特征修飾后的目標(biāo)圖像源圖像特征圖相加,完成互注意力的特征修飾;然后利用全連接層處理互注意力修飾后的特征,并將全連接層處理后的特征與互注意力修飾后的特征相加,獲得最終的自注意力和交叉注意力修飾目標(biāo)圖像源圖像特征圖; S3:配準(zhǔn)參數(shù)殘差預(yù)測(cè);對(duì)于所述自注意力和交叉注意力修飾目標(biāo)圖像源圖像特征圖,利用公式(2)進(jìn)行交叉注意力計(jì)算,將計(jì)算所得的交叉注意力輸入全連接層,從而輸出配準(zhǔn)參數(shù)殘差。

          如需購(gòu)買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請(qǐng)人或?qū)@麢?quán)人浙江大學(xué),其通訊地址為:310058 浙江省杭州市西湖區(qū)余杭塘路866號(hào);或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

          以上內(nèi)容由AI智能生成
          免責(zé)聲明
          1、本報(bào)告根據(jù)公開(kāi)、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
          2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
          主站蜘蛛池模板: 久久精品国产再热青青青| 欧美日韩精品一区二区在线观看 | 欧洲一区二区中文字幕| 亚洲精品日韩久久精品| 国产寡妇树林野战在线播放| 啦啦啦www播放日本观看| 国产精品久久久久久婷婷| 亚洲熟妇无码av在线播放| 午夜福利精品国产二区| 国产办公室秘书无码精品99| 免费A级毛片中文字幕| 国产第一页浮力影院草草| 日产精品卡二卡三卡四卡乱码视频 | 欧美肥屁videossex精品| 2021国产成人精品久久| 丰满少妇被猛烈进入毛片| av天堂精品久久久久2| 日日噜噜噜夜夜爽爽狠狠视频| а√8天堂中文官网资源| 精品国精品无码自拍自在线| 人妻人人澡人人添人人爽| 三叶草欧洲码在线| 国产三级不卡在线观看视频| 午夜精品久久久久久| 日本成熟老妇乱| 亚洲日韩久热中文字幕| 国产亚洲精品午夜福利| 精品卡1卡二卡三国色天香| 亚洲国产呦萝小初| 国产97色在线 | 国| 国内少妇高清露脸精品视频 | 国产99久久久国产精品~~牛| 在线观看国产精品电影| 一区二区亚洲精品国产精华液| 日韩视频无码免费一区=区三区| 亚洲成色www久久网站夜月| 毛片免费视频肛交颜射免费视频| 国产 中文 亚洲 日韩 欧美| 中国女人高潮hd| 水蜜桃无码av在线观看| 无码欧美黑人xxx一区二区三区 |