<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預(yù)訂訂單
          服務(wù)訂單
          發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標 發(fā)布需求

          在線咨詢

          聯(lián)系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務(wù) 國際服務(wù) 商標交易 會員權(quán)益 需求市場 關(guān)于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當(dāng)前位置 : 首頁 > 專利喜報 > 遼寧工程技術(shù)大學(xué)李建東獲國家專利權(quán)

          遼寧工程技術(shù)大學(xué)李建東獲國家專利權(quán)

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!

          龍圖騰網(wǎng)獲悉遼寧工程技術(shù)大學(xué)申請的專利一種基于注意力機制的無人機紅外小目標檢測方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN119942379B

          龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-08-26發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202510041578.X,技術(shù)領(lǐng)域涉及:G06V20/17;該發(fā)明授權(quán)一種基于注意力機制的無人機紅外小目標檢測方法是由李建東;潘遠洋設(shè)計研發(fā)完成,并于2025-01-10向國家知識產(chǎn)權(quán)局提交的專利申請。

          一種基于注意力機制的無人機紅外小目標檢測方法在說明書摘要公布了:本發(fā)明涉及紅外小目標檢測技術(shù)領(lǐng)域,具體為一種基于注意力機制的無人機紅外小目標檢測方法,包括以下步驟:檢測模型確定、模型修訂和紅外小目標檢測。本申請在YOLO11模型的基礎(chǔ)上進行改進,即利用深度可分離卷積和DSEAM模塊達到標準化數(shù)據(jù)分布,加速模型的訓(xùn)練,使得在運行過程中可以在增強紅外小目標特征信息的同時顯著減少不必要的向前傳播信息;同時利用S_RepViTBlock模塊可以在捕獲紅外小目標的同時,利用更大的感受野來增強對背景和目標特征的細節(jié)提取能力,以充分減少誤差,提升紅外小目標的檢測質(zhì)量。

          本發(fā)明授權(quán)一種基于注意力機制的無人機紅外小目標檢測方法在權(quán)利要求書中公布了:1.一種基于注意力機制的無人機紅外小目標檢測方法,其特征在于,包括以下步驟: S1、檢測模型確定:采用YOLO11模型,該模型由主干網(wǎng)絡(luò)Backbone、頸部網(wǎng)絡(luò)Neck、頭部網(wǎng)絡(luò)Head三部分組成; S2、模型修訂:在YOLO11主干網(wǎng)絡(luò)的第三層與第六層添加高效雙通道特征增強模塊DSEAM模塊,其可以在增強紅外小目標特征信息的同時顯著減少不必要的向前傳播信息;原頭部結(jié)構(gòu)Head第19與22層的標準卷積換為S_RepViTBlock模塊;模型中整體使用NWD損失函數(shù); 所述S2中的高效雙通道特征增強模塊DSEAM模塊的設(shè)計思路包括以下步驟: 第一、在ECA的輸入前加入深度可分離卷積,先進行深度卷積,將輸出進行批歸一化,此操作可以標準化數(shù)據(jù)分布,加速模型的訓(xùn)練;批歸一化計算公式如下: 其中:μ為當(dāng)前批次均值,σ2為當(dāng)前批次方差,γ和β為可學(xué)習(xí)的縮放和平移參數(shù),∈為防除零參數(shù); 第二、輸出后對結(jié)果進行ReLU激活來增加模型非線性能力表達,ReLU激活函數(shù)公式如下: x=ReLUx=max0,x ReLU將所有負值映射為0,正值保持不變,可以減少梯度消失現(xiàn)象;之后進行逐點卷積來調(diào)整通道數(shù),實現(xiàn)通道信息的線性組合,并對輸出結(jié)果再進行一次批歸一化和ReLU激活,將將當(dāng)前的特征張量x保存為x_orig,用于后續(xù)的殘差連接; 第三、將信息處理的結(jié)果輸入到ECA模塊里進行全局平均池化,得到每個通道的全局特征;公式為: y=AvgPoolx 輸出張量y形狀為B,c2,1,1,隨后對y進行維度變換到適合一維卷積輸入格式,對y進行一維卷積來捕獲通道間的局部依賴關(guān)系,再對y進行維度還原,以便與輸入特性x相乘,對y進行一次溫度調(diào)節(jié)的Sigmoid激活生成通道注意力權(quán)重;帶溫度調(diào)節(jié)的Sigmoid激活函數(shù)公式如下所示: 其中T為溫度參數(shù),默認設(shè)置為0.5,最后輸出注意力通道權(quán)重CA的形狀為B,c2,1,1;將CA與特征x進行逐元素相乘擴展為形狀B,c2,H,W;對輸入的特征xB,C,H,W分別進行平均池化AvgOut得到B,1,H,W和最大池化MaxOut得到B,1,H,W;公式為: AvgOut=Meanx,dim=1,keepdim=True MaxOut=Maxx,dim=1,keepdim=True 輸出的平均池化結(jié)果AvgOut形狀為B,1,H,W,最大池化結(jié)果MaxOut形狀為B,1,H,W;前者可以提取全局信息,后者可以在通道內(nèi)提取出顯著特征; 第四、將兩張池化后的特征圖進行可學(xué)習(xí)權(quán)重參數(shù)α和β進行融合;融合公式如下: Fusion=α×AvgOut+β×MaxOut 其中的α和β初始值都為0.5,對融合后的特征Fusion進行卷積來提取空間注意力特征,卷積核大小設(shè)置為5,可以很好兼顧到各尺度特征的提取;對卷積后結(jié)果進行Sigmoid激活,將權(quán)重壓縮在0到1之間,可以網(wǎng)絡(luò)能夠抑制不重要的區(qū)域并突出重要的區(qū)域,生成帶有空間注意力的權(quán)重;公式為: 輸出的SA形狀B,1,H,W,再對其進行擴展,使其形狀變?yōu)锽,c2,H,W;采用可學(xué)習(xí)的參數(shù)α、β與兩次擴展的張量進行加權(quán)融合,為了確保權(quán)重的歸一化,使用Softmax函數(shù)對[α,β]進行歸一化;公式: [ωα,ωβ]=Softmax[α,β] CombineOut=ωα×xca+ωβ×xsa 其中xca和xsa分別是前面特征x與通道權(quán)重擴展和空間權(quán)重擴展后的輸出張量,融合后特征CombinedOut的形狀為B,c2,H,W; 第五、將融合特征與先前保存的特征x_orig相加,實現(xiàn)殘差連接,可以增強信息流動,防止梯度消失;最后輸出的特征OutPut形狀為B,c2,H,W;在實際應(yīng)用中,DSEAM模塊可以在復(fù)雜環(huán)境下對細小且密集檢測目標的特征增強,并降低了模型的計算量和參數(shù)量; 所述S2中S_RepViTBlock模塊的設(shè)計步驟包括: 第一、RepViT通過將高效的Vit架構(gòu)融入CNN中,在移動設(shè)備上實現(xiàn)了較好的準確率和延遲平衡;但基于無人機紅外檢測圖像情況,圖像可能隨著距離遠、鏡頭污染以及任務(wù)場景復(fù)雜等因素導(dǎo)致成像出現(xiàn)噪點或者像素質(zhì)量下降,很難將目標與背景混合一起時分離開來;將RepViT模塊進行改進加入到Y(jié)OLO11中; 第二在輸入部分引入膨脹卷積來增大感受野,可以在捕獲紅外小目標的同時,利用更大的感受野來增強對背景和目標特征的細節(jié)提取能力;為了增強模型的泛化能力,提升模型應(yīng)對噪聲和模糊特征的能力,引入DropBlock正則化,DropbBock在特征圖上隨機遮擋連續(xù)的矩形區(qū)域,使得模型在更廣泛的上下文中學(xué)習(xí)特征;公式為: 其中B為批量大小batchsize,C為通道數(shù),H和W分別是高度和寬度,p為置零概率,遮擋尺寸為k×k; 第三、命RepViT改進后為S_RepViT模塊; S3、紅外小目標檢測:將輸入圖像劃分為S×S網(wǎng)格,每個網(wǎng)格預(yù)測固定數(shù)量的邊界框及其置信度和類別概率;置信度表示邊界框包含物體的概率,由目標存在概率和預(yù)測框與真實框的重疊程度組成;輸出向量包含邊界框坐標、置信度和類別概率;改進后的YOLO11模型使用綜合損失函數(shù)衡量預(yù)測誤差;最后,非極大值抑制NMS去除重疊邊界框,保留置信度最高的框;進行紅外小目標的檢測; 所述S3中的誤差包括位置誤差MSE計算、置信度誤差和類別誤差Cross-Entropy度量。

          如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人遼寧工程技術(shù)大學(xué),其通訊地址為:123000 遼寧省阜新市細河區(qū)中華路47號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

          免責(zé)聲明
          1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
          2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
          主站蜘蛛池模板: 无套内谢孕妇毛片免费看| 中文字幕av高清片| 久久久久久无码日韩欧美| 初尝黑人嗷嗷叫中文字幕| 日本三级香港三级乳网址| 久在线精品视频线观看| 久久天天躁狠狠躁夜夜婷 | 国产性色的免费视频网站| 亚洲 自拍 另类 欧美 综合| 精品久久久bbbb人妻| 国产在线亚州精品内射| 玩弄漂亮少妇高潮白浆| 成人午夜大片免费看爽爽爽| 亚洲精品免费一二三区| 无码男男作爱g片在线观看| 亚洲精品97久久中文字幕无码 | 18禁裸乳无遮挡自慰免费动漫| 苍井空浴缸大战猛男120分钟 | 国产精品乱码久久久久久小说| 国产v精品成人免费视频| 国产激情久久久久影院小草| 国产亚洲综合久久系列| 国模国产精品嫩模大尺度视频| 337p人体 欧洲人体 亚洲| 中文字幕亂倫免賛視頻| 无码人妻精品一区二区三| 先锋影音男人av资源| 粗壮挺进人妻水蜜桃成熟| 男女性高爱潮免费网站| 久久av无码精品人妻系列试探| 午夜阳光精品一区二区三区| 情欲少妇人妻100篇| 久久久久国产一区二区三区| 亚洲精品鲁一鲁一区二区三区| 无尺码精品产品日韩| 97人人添人澡人人爽超碰| 久久www成人免费网站| 国精品午夜福利视频| 新婚人妻不戴套国产精品| 亚洲中文字幕av每天更新| 无码精品国产va在线观看|