<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 陜西師范大學郭敏獲國家專利權

          陜西師范大學郭敏獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉陜西師范大學申請的專利基于組合卷積神經網絡的聲音事件檢測與定位方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115631771B

          龍圖騰網通過國家知識產權局官網在2025-08-22發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211268616.8,技術領域涉及:G10L25/63;該發明授權基于組合卷積神經網絡的聲音事件檢測與定位方法是由郭敏;閆樂安;馬苗設計研發完成,并于2022-10-17向國家知識產權局提交的專利申請。

          基于組合卷積神經網絡的聲音事件檢測與定位方法在說明書摘要公布了:一種基于組合卷積神經網絡的聲音事件檢測與定位方法,由數據集預處理、提取特征、構建組合卷積神經網絡、訓練組合卷積神經網絡、測試組合卷積神經網絡、檢測和定位聲音事件步驟組成。本發明采用了雙分支卷積神經網絡與線性密集連接混合神經網絡,條件參數化卷積神經網絡根據輸入信號動態計算卷積核,將卷積核參數化為n個卷積核的線性組合,提升了網絡的學習能力和計算效率;采用了線性密集連接混合神經網絡,關注聲音中重要的信息而忽略不相關的聲音信息,增加了網絡的感受野,提升了聲音事件檢測與定位的準確率。本發明具有識別準確率高、網絡穩定、提取特征信息完整等優點,可用于聲音事件檢測與定位。

          本發明授權基于組合卷積神經網絡的聲音事件檢測與定位方法在權利要求書中公布了:1.一種基于組合卷積神經網絡的聲音事件檢測與定位方法,其特征在于它由下述步驟組成: 1數據集預處理 從TAU空間聲音事件數據集中提取語音信號,包含11種聲音事件類別,清嗓、咳嗽聲、摁門鈴、推門聲、抽屜聲、鍵盤聲、敲門聲、說話聲、笑聲、翻書聲、電話鈴聲,將TAU空間聲音事件數據集按照4:1的比例分成訓練集、測試集; 2提取特征 將語音信號按下式提取梅爾頻譜圖特征m: 其中,f表示實際頻率,按下式確定廣義互相關-相位變換特征Ry1y2τ: 其中,Gx1x2f表示x1、x2兩路信號的功率譜,表示相位變換加權函數,τ表示時間延遲; 3構建組合卷積神經網絡 組合卷積神經網絡由雙分支卷積神經網絡與線性密集連接混合神經網絡、全連接層依次串聯構成; 所述的雙分支卷積神經網絡由第一分支卷積神經網絡、第二分支卷積神經網絡、特征融合網絡構成,第一分支卷積神經網絡與第二分支卷積神經網絡并聯后的輸出端與特征融合網絡的輸入端相連; 所述的線性密集連接混合神經網絡由因果卷積層與第一空洞殘差塊、第二空洞殘差塊、Transformer網絡、第三空洞殘差塊、深度可分離卷積層依次串聯構成; 4訓練組合卷積神經網絡 1確定目標函數 目標函數包括二進制交叉熵損失函數L、均方誤差損失函數MSE、評價函數F1、評價函數ER、評價函數DOAerror和評價函數Framerecall,按下式確定二進制交叉熵損失函數L: 其中y是真實的標簽值,y∈{0,1},是預測的概率值,按下式確定均方誤差損失函數MSE: 其中n是樣本的數量,n為有限的正整數,yi是第i個樣本的實際值,y′i是第i個樣本的預測值; 按下式確定準確率和召回率兩者綜合指標的評價函數F1: 其中,P是準確率,R是召回率,TP是真正例,FP是假正例,FN是假負例; 按下式確定錯誤發生數目的評價函數ER: Sk=minFNk,FPk Dk=max0,FNk-FPk Ik=max0,FPk-FNk 其中,FNk表示系統輸出中第k段中的假負例事件,FPk表示系統輸出中第k段中的假正例事件; 按下式確定評價函數DOAerror: 其中,表示第t時間的參考角度,表示第t時間的估計角度,表示估計在第t個時間的總的角度數,H是指解決任務分配的匈牙利方法; 按下式確定評價函數Framerecall: 其中,1表示滿足的條件,輸出1,否則輸出0,表示參考在第t個時間總的角度數,T表示時間幀,且不等于0; 2訓練組合卷積神經網絡 將提取的梅爾頻譜圖特征m和廣義互相關-相位變換特征Ry1y2τ送入雙分支卷積神經網絡中,進行深度語音特征提取,將雙分支卷積神經網絡輸出的深度語音特征,輸入線性密集連接混合神經網絡中對語音的時間依賴性進行建模,在訓練過程中,組合卷積神經網絡的學習率r∈[10-5,10-3],優化器采用Adam優化器,迭代至損失函數L和MSE收斂; 5測試組合卷積神經網絡 將測試集輸入到訓練好的組合卷積神經網絡中進行測試; 6檢測和定位聲音事件 使用全連接層中的Sigmoid激活函數進行激活,Sigmoid激活函數的取值范圍為0~1之間,Sigmoid激活函數的值大于0.5時,檢測聲音事件存在,則對其進行到達方向的估計;聲音事件位置距離為1m時,參考方位角為[-180°,180°]、參考仰角為[-40°,40°],聲音事件位置距離為2m時,參考方位角為[-180°,180°]、參考仰角為[-20°,20°],以每間隔10為一個劃分; 取標簽中所有的參考方位角為數組M,按下式確定估計方位角γ: 取標簽中所有的參考仰角為數組N,按下式確定估計仰角β: 將估計方位角γ和估計仰角β與參考方位角和參考仰角通過評價函數DOAerror計算得到兩者之間的平均角度誤差。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人陜西師范大學,其通訊地址為:710062 陜西省西安市長安南路199號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 亚洲性日韩精品一区二区三区 | 国产成人无码aⅴ片在线观看导航 人妻少妇456在线视频 | 超碰97人人做人人爱亚洲尤物| 成人午夜精品无码区久久 | 美女爽到高潮嗷嗷嗷叫免费网站| 成年无码动漫av片在线尤物| 久久午夜夜伦鲁鲁片无码免费| 国产色爱av资源综合区| 日韩成人无码| 亚洲中文字幕在线第六区| 亚洲自国产拍揄拍| 最新国产精品精品视频| 久久精品噜噜噜成人av| 国产av麻豆mag剧集| 丁香色婷婷国产精品视频| 亚洲高清国产拍精品网络战| 欧洲lv尺码大精品久久久| 中文字幕丝袜精品久久| 亚洲一区精品无码| 人人爽人人爽人人片av| 亚洲一本之道高清乱码| 97久久天天综合色天天综合色hd | 精品无码人妻夜人多侵犯18| 国产精品国产自线拍免费不卡| 又色又爽又黄的视频网站| 中文字幕人妻不卡精品| 免费无码肉片在线观看| 亚洲精品国产av成拍色拍| 久久人人爽人人人人爽av| 国产在线精品无码二区| 亚洲精品92内射| 福利cosplayh裸体の福利| 日本熟妇hdsex视频| 欧美疯狂做受xxxx高潮小说| 无码免费无线观看在线视频| 欧美成人aaa片一区国产精品 | 色欲久久人妻内射| 国产免费又色又爽又黄女性同恋 | 麻豆亚洲精品一区二区| 国产一区二区四区不卡| 久久被窝亚洲精品爽爽爽|