<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 西北工業大學魏巍獲國家專利權

          西北工業大學魏巍獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉西北工業大學申請的專利一種基于雙偽標簽優化學習的RGB圖像半監督目標檢測方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115393687B

          龍圖騰網通過國家知識產權局官網在2025-09-09發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202210822832.6,技術領域涉及:G06V10/25;該發明授權一種基于雙偽標簽優化學習的RGB圖像半監督目標檢測方法是由魏巍;張磊;孫宇軒設計研發完成,并于2022-07-12向國家知識產權局提交的專利申請。

          一種基于雙偽標簽優化學習的RGB圖像半監督目標檢測方法在說明書摘要公布了:本發明公開了一種基于雙偽標簽優化學習的RGB圖像半監督目標檢測方法,對于訓練批量中的有標注圖像,首先對圖像進行數據增廣操作,然后利用真實標簽監督學生模型在圖像上的學習。對于無標注圖像,分別獲得其弱增強圖像和強增強圖像。使用構建的偽類別優化網絡和偽包圍框優化網絡分別對教師模型在弱增強圖像的預測結果進行優化,從而獲得該圖像的偽類別標簽和偽包圍框標簽。然后利用該圖像的偽類別標簽和偽包圍框標簽監督學生模型在弱增強圖像上的學習。最后,在有標注圖像上構造用于訓練偽類別優化網絡和偽包圍框優化網絡的樣本和,然后用相應的標簽監督優化網絡的學習。本發明可以顯著提升高質量偽標簽的數量,進而提升RGB圖像目標檢測的效果。

          本發明授權一種基于雙偽標簽優化學習的RGB圖像半監督目標檢測方法在權利要求書中公布了:1.一種基于雙偽標簽優化學習的RGB圖像半監督目標檢測方法,其特征在于,包括如下步驟: 步驟1:構建學生模型和教師模型,學生模型和教師模型均為目標檢測網絡;所述學生模型使用梯度更新的方式進行訓練,利用指數滑動平均算法將學生模型的參數更新至教師模型,教師模型不參與梯度更新; 對于有標注的RGB圖像,其中,和分別表示圖像的高度和寬度,其標注為,表示輸入圖像包含個目標,對于第個目標,其類別為,邊界框坐標為;將圖像輸入到學生模型中,對學生模型進行訓練和優化; 對于無標注的RGB圖像,會分別經過兩次不同的圖像增強操作,也就是強圖像增強操作和弱圖像增強操作,得到對應的強增強圖像和弱增強圖像: 其中,為弱圖像增強操作,表示強圖像增強操作,和分別為對應的弱增強圖像和強增強圖像;弱增強圖像用于生成無標注圖像的偽標簽,而強增強圖像和對應的偽標簽則用于讓學生模型進行半監督學習; 步驟2:將輸入到教師模型中并生成相應的預測結果: 其中.表示教師模型,為對應得到檢測結果; 將分類子任務和回歸子任務的偽標簽解耦,分別對預測結果進行優化得到偽類別標簽和偽包圍框標簽; 偽類別優化網絡通過二次分類以校正目標所屬的類別;對于一個目標,首先重新提取其位置對應的特征,然后經過三層全連接層構成的網絡對類別進行重預測,并將新的預測結果與之前的結合以得到最終更準確的偽類別標簽: 其中,表示偽類別優化網絡; 偽包圍框優化網絡通過平移和放縮以聚合上下文和邊界信息,進而提升回歸質量;對于一個包圍框,為其左上點坐標,為其右下點坐標,為框對角線長度,首先將包圍框沿著四個對角線方向移動長度的距離以得到四個新的框,隨后將包圍框擴大兩次,放縮倍數分別為;然后將原框對應位置的特征和六個新得到的框對應位置的特征通過卷積和全連接層聚合并得到優化的偽包圍框結果作為偽包圍框標簽: 其中,表示偽包圍框優化網絡; 步驟3:使用步驟2得到的偽類別標簽和偽包圍框標簽,分別對學生模型在強增強圖像上的預測結果做監督: 其中,表示學生模型預測的分類結果,表示學生模型預測的回歸結果,和分別代表目標檢測中的分類損失函數和回歸損失函數,為訓練批量中無標注圖像的數量;學生模型在有標注數據上的訓練損失函數則為: 其中,表示學生模型,表示學生模型在有標注圖像上預測的分類結果,表示學生模型在有標注數據上預測的回歸結果,為訓練批量中有標注圖像的數量;和分別表示目標檢測中的分類損失函數和回歸損失函數;在訓練過程中,每個訓練批量都包含一定比例的有標注圖像和無標注圖像; 步驟4:采用隨機采樣方法優化網絡的訓練; 對于有標注的RGB圖像,以及其第個目標的左上角坐標和右下角坐標,通過隨機采樣偽框以模擬教師模型輸出的偽標簽: 其中,和分別表示采樣得到的第個偽框的左上角坐標和右下角坐標,表示目標框的尺寸向量,是一個預定義的尺度因子以控制采樣范圍,和分別是從高斯分布中隨機采樣到的向量,表示元素級乘法; 對于偽包圍框優化網絡,設置,為每個目標框采樣個偽框作為訓練樣本;對于偽類別優化網絡,訓練樣本由以下三個部分組成:為每個目標框采樣個下的偽框和個偽框以及教師網絡的區域提議網絡的輸出;表示為偽包圍框優化網絡采樣訓練樣本位置的高斯分布的方差,表示為偽類別優化網絡采樣正訓練樣本位置的高斯分布的方差,表示為偽包圍框優化網絡采樣負訓練樣本位置的高斯分布的方差; 構造好訓練樣本之后,通過對應的真實標簽訓練兩個優化網絡;偽包圍框優化網絡的損失函數為GIoU損失函數,偽類別優化網絡的損失函數為標準交叉熵損失函數;最后,總的損失函數為: 其中,是平衡有標注圖像上的損失函數和無標注圖像上損失函數的權重系數,為優化網絡的損失函數;為有標注圖像上的損失函數,為無標注圖像上的損失函數。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人西北工業大學,其通訊地址為:710072 陜西省西安市友誼西路;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 亚洲色大成网站WWW永久麻豆| 亚洲国产欧美日本视频| 亚洲成av人片在线观看无码| a级大胆欧美人体大胆666| 久久久精品人妻一区二区三区四| 极品尤物被啪到呻吟喷水| 国产在线无码一区二区三区 | 欧美视频网站www色| 亚洲中文字幕久久久一区| 精品国产乱码久久久久久鸭王1| 久久精品国产99国产精品澳门| 国产欧美日韩综合在线成| 午夜亚洲国产理论片中文飘花| 国产精品av在线| 免费一级毛片| 女性爽爽影院免费观看| 亚洲人成人无码www| 扒开双腿被两个男人玩弄视频| 国产成人愉拍免费视频| 国内永久福利在线视频图片| 日本成aⅴ人片日本伦| 免费无码毛片一区二区app| 国产精品_国产精品_k频道| 亚洲人成网线在线播放va| 亚洲男人的天堂在线aⅴ视频| 欧美丰满少妇xxxxx| 天天弄天天模| 92午夜福利轻云观看| 欧美性free玩弄少妇| 中文在线8资源库| 亚洲永久网址在线观看| 欧美重口另类在线播放二区 | AV老司机色爱区综合| 久久亚洲精品情侣| 成人无码看片在线观看免费| 久久天天躁夜夜躁狠狠| 久久久久国产精品熟女影院| 亚洲欧美综合精品成人网站| 一个人看的www视频在线播放| 成年男女免费视频网站| 国产精品亚洲一区二区|