<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 上??萍即髮W汪婧雅獲國家專利權

          上海科技大學汪婧雅獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉上??萍即髮W申請的專利基于知識更新和知識整合的終身學習行人再識別方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115578755B 。

          龍圖騰網通過國家知識產權局官網在2025-08-29發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211285250.5,技術領域涉及:G06V40/10;該發明授權基于知識更新和知識整合的終身學習行人再識別方法是由汪婧雅;余春霖;石野設計研發完成,并于2022-10-20向國家知識產權局提交的專利申請。

          基于知識更新和知識整合的終身學習行人再識別方法在說明書摘要公布了:本發明公開了一種基于知識更新和知識整合的終身學習行人再識別方法和裝置,具體將終身學習中任務學習過程分為知識回放,知識更新和知識整合三個階段。知識回放接收本地任務數據和緩沖區任務數據,借助記憶模型產生的偽標簽維護工作模型。與此同時,工作模型產生的響應傳遞到記憶模型自我更新,從而生成更優質的偽標簽。這兩種模式交替更新模型參數,實現雙向的信息傳遞。任務訓練結束后,進入知識整合階段。在模型層面,本發明設計了一種滑動平均的方法實現工作和記憶模型的整合,以促進下一階段的部署訓練。在測試階段,本發明提供了一種特征空間的整合以提升在可見和不可見域預測結果的泛化性。

          本發明授權基于知識更新和知識整合的終身學習行人再識別方法在權利要求書中公布了:1.一種基于知識更新和知識整合的終身學習行人再識別方法,其特征在于,包括以下步驟: 步驟1:在初始任務t=0開始階段,t是當前任務序號,給定數據集隨機采樣一個批次的圖片得到Nb是批次大小,是第i張圖片,并輸入到基于卷積神經網絡的工作模型,進行特征提取并得到softmax預測分數q·是工作模型采用的softmax函數; 步驟2:為了學習工作模型對當前任務行人圖片的判別性,計算基于當前批次圖片的交叉熵損失其中是第i個預測分數的第項數值; 步驟3:為了進一步在度量空間優化特征分布,對提取的當前批次特征采用三元組損失其中,d·,·代表歐式距離函數,m是設定的閾值參數,表示由工作模型提取的當前批次下第i個行人的錨點特征、正例特征和負例特征; 步驟4:結合交叉熵損失和三元組損失得到t=0階段的損失函數L0,并經過反向梯度傳播更新網絡參數,直到達到預設的迭代次數; 步驟5:對于t0時刻的任務,學習網絡里兼有記憶模型和工作模型,目標是通過記憶模型和工作模型的聯合學習,提升對當前任務和之前任務的效果,提升模型整體的泛化性; 在任務t開始時,模型首先進入知識回放階段,此時的輸入為t時刻的數據集緩沖存儲區Mt用于存儲0~t-1時刻的所見到的部分樣本即其標簽,工作模型和記憶模型的學習率分別為γ、η;從和Mt中分別隨機采樣一個批次的樣本和分別輸送到工作模型和記憶模型,輸出相應的softmax預測分數,即其中,p·、q·代表以·作為輸入分別經過工作模型和記憶模型所輸出的預測分數; 步驟6:為了防止工作模型在舊任務上的遺忘,在預測分數層面進行知識蒸餾以解決災難性的遺忘,記憶模型生成的預測分數可被用作偽標簽指導工作模型的學習,抗遺忘損失表示為其中,T表示蒸餾溫度,SD·表示梯度分離算子,JS·表示Jesen-Shannon散度; 步驟7:為了讓模型更好地適應到當前任務,設計相應的適應性損失函數其中,適應性損失函數包括一個當前任務的交叉熵損失和一個當前任務的三元組損失 表示由工作模型提取的當前批次下第i個行人的錨點特征、正例特征和負例特征;表示由記憶模型提取的當前批次下第i個行人的錨點特征、正例特征和負例特征; 步驟8:獲得知識回放階段工作模型的總體損失進而由總體損失Lw進行梯度反向傳播,并由梯度下降算法更新工作模型的參數即對于其中,θ是工作模型的參數,包括特征提取器和分類器的參數,是由當前批次訓練樣本得到的總體損失Lw計算得到的梯度,γ取1; 步驟9:知識更新階段: 負責對記憶模型的更新,即用工作模型的知識對記憶模型的響應做校正,以達到更平滑的知識遷移; 步驟10:增強記憶模型處理當前任務的能力,計算記憶損失函數包括交叉熵損失和三元組損失 其中,交叉熵損失計算于當前任務的樣本,而三元組損失計算于緩沖存儲區的樣本; 步驟11:作用于記憶模型的損失被整體計算為為記憶校正損失,進而由Lm進行梯度反向傳播,并更新記憶模型的參數即對于其中,η取0.1; 步驟12:重復步驟6至步驟11,直至交替訓練結束; 步驟13:結束知識回放和知識更新后,進行知識整合,在此階段,學習網絡里分別存有兩個訓練完畢的工作模型和記憶模型,進行模型空間的整合從而為未來新階段的訓練做準備,通過模型空間的整合得到的復合模型從記憶模型中獲取更大比例的知識,從而使其更具有穩定性,即能夠對過去的知識做更好的整合; 步驟14:其次進行特征空間的知識整合用于測試,給定待測試的圖片,分別輸入工作模型和記憶模型的特征提取器,得到兩個特征向量和為了更好得利用工作模型和記憶模型所捕捉的模式,采用串聯的方式得到一個混合的特征最后將得到的混合的特征用于行人檢索; 步驟15:任務t結束后,進行緩沖儲存模塊Mt的更新,首先初始化Mt+1=Mt,從新任務的標簽庫中隨機選取多個ID,并獲取每個ID的特征平均值作為該ID在特征空間的原型; 步驟16:對于每個選中的ID,在其特征空間中選擇兩個相距最遠的特征,并更新對應圖片和標簽入庫緩沖儲存區,以更好刻畫新任務類別的決策邊界; 步驟17:拓展新分類器,并初始化新分類器在新任務上的神經元參數; 步驟18:重復步驟5~步驟17,直到所有任務結束。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人上海科技大學,其通訊地址為:201210 上海市浦東新區華夏中路393號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 少妇人妻偷人精品免费视频| 大地资源在线观看官网第三页 | 欧美韩中文精品有码视频在线| 亚洲AVAV天堂AV在线网阿V| 日韩乱码人妻无码中文字幕视频| 少妇人妻综合久久中文| 一区二区三区国产| 亚洲成a×人片在线观看| 亚洲熟妇无码av在线播放| 亚洲日韩精品无码一区二区三区| 国产精品久久中文字幕| 色婷婷狠狠97成为人免费| 综合亚洲伊人午夜网| 国产精品ⅴ无码大片在线看 | 色婷婷五月综合欧美图片| 人禽伦免费交视频播放| 亚洲高清自有吗中文字| 四虎永久在线精品视频免费观看| 国产午夜亚洲精品国产成人| 亚洲色大成成人网站久久| 在线a亚洲老鸭窝天堂| 久久国产福利国产秒拍| 狠狠噜天天噜日日噜无码| 潮喷无码正在播放| 久久久久久人妻精品一区| 亚洲午夜成人片| 亚洲成年电人电影| 337p粉嫩日本欧洲亚洲大胆| 亚洲蜜桃v妇女| 亚洲精品日韩精品久久| 偷拍激情视频一区二区三区| 国产成人AV性色在线影院| 婷婷丁香五月缴情视频| 亚洲综合久久成人av| 国产精品久久久久久无毒不卡| 成年片色大黄全免费网站久久| 精品亚洲欧美视频在线观看| 亚洲中文 字幕 国产 综合| 性欧美VIDEOFREE高清大喷水| 亚欧美日韩香蕉在线播放视频| 特黄特色大片免费播放器|