<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動滑塊完成拼圖
          個人中心

          預訂訂單
          服務訂單
          發布專利 發布成果 人才入駐 發布商標 發布需求

          在線咨詢

          聯系我們

          龍圖騰公眾號
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
           /  免費注冊
          到頂部 到底部
          清空 搜索
          當前位置 : 首頁 > 專利喜報 > 中國科學技術大學周增祥獲國家專利權

          中國科學技術大學周增祥獲國家專利權

          買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

          龍圖騰網獲悉中國科學技術大學申請的專利基于高斯混合模型和隱馬爾可夫模型的眼動行為分類方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN119007275B 。

          龍圖騰網通過國家知識產權局官網在2025-08-29發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202411023991.5,技術領域涉及:G06V40/18;該發明授權基于高斯混合模型和隱馬爾可夫模型的眼動行為分類方法是由周增祥;謝嘉誠;劉子鳴;陳容楓;周家豪;胡紅專;王建平;劉志剛;張平;褚家如設計研發完成,并于2024-07-29向國家知識產權局提交的專利申請。

          基于高斯混合模型和隱馬爾可夫模型的眼動行為分類方法在說明書摘要公布了:本發明涉及基于高斯混合模型和隱馬爾可夫模型的眼動行為分類方法,屬于人機交互技術領域。硬件系統包括桌面式眼動儀、上位機和顯示屏;上位機內具有高斯混合模型程序和隱馬爾可夫模型程序;眼動行為分類操作步驟如下:1采集被測人員的原始眼動數據;2原始眼動數據預處理,利用聚類方法將原始眼動數據分組,分成3組以上眼動數據;3建立高斯混合模型和隱馬爾可夫模型;4基于高斯混合模型和隱馬爾可夫模型,對預處理的3組以上眼動數據進行眼動行為分類,推斷當前的眼動行為為注視、或眼跳、或追蹤眼動行為中的哪一種。本發明的分類方法提高了分類準確性、降低復雜性、在適應實際應用等方面取得了顯著的優勢。

          本發明授權基于高斯混合模型和隱馬爾可夫模型的眼動行為分類方法在權利要求書中公布了:1.基于高斯混合模型和隱馬爾可夫模型的眼動行為分類方法,實現所述眼動行為分類方法的硬件系統包括桌面式眼動儀、上位計算機和顯示屏;所述上位計算機即上位機,上位機內具有高斯混合模型程序和隱馬爾可夫模型程序; 其特征在于,眼動行為分類操作步驟如下: 1采集被測人員的原始眼動數據 1.1硬件系統工作時,顯示屏上顯示一個直徑為80像素的紅色圓點,紅色圓點位于顯示屏上任意位置,每次出現的持續時間為500~1000毫秒; 1.2被測人員就座于顯示屏前,通過鼠標點擊顯示屏上的開始按鈕,顯示屏上按規律出現3次以上的紅色圓點的視覺刺激;所述視覺刺激包含三類待識別的眼動行為,所述眼動行為分別為注視、追蹤、眼跳; 1.3硬件系統工作期間,桌面式眼動儀持續采集被測人員在顯示屏上的注視點的位置坐標和時間戳,并傳遞給上位機,經上位機處理,得到原始眼動數據,所述原始眼動數據中每條數據由注視點的像素坐標和注視點的速度組成; 2原始眼動數據預處理 對所述原始眼動數據進行空間特征預處理,利用聚類方法將注視點的像素坐標和注視點的速度作為一個整體進行分組,分成至少3組,每組眼動數據不少于五十條,得到預處理的3組以上眼動數據; 3建立高斯混合模型和隱馬爾可夫模型 3.1建立高斯混合模型 3.1.1將所述預處理的3組以上眼動數據進行統計分析,根據預處理的3組以上眼動數據在速度上的相似性,即當任意兩個數據點的速度差異均小于預設閾值0.002時,則認為這兩個數據點是相似的,并將其歸類到同一個簇中; 將統計分析的3組以上眼動數據根據速度差異劃分為三個簇,每個簇對應一種預定義的眼動行為,分別為注視高斯分布模型、追蹤高斯分布模型和眼跳高斯分布模型; 初始化三種預定義的眼動行為,對于注視高斯分布模型,將平均速度最低的簇的中心位置,作為注視高斯分布模型的中心位置,并將注視高斯分布的初始權重設置為13,注視高斯分布的初始協方差矩陣設置為單位矩陣; 對于眼跳高斯分布模型,將平均速度最大的簇的中心位置,作為眼跳高斯分布模型的中心位置,同樣將眼跳高斯分布的初始權重設置為13,眼跳高斯分布的初始協方差矩陣設置為單位矩陣; 對于追蹤高斯分布模型,將剩余的第三個的簇的中心位置,作為追蹤高斯分布模型的中心位置,將追蹤高斯分布的初始權重設置為13,追蹤高斯分布的初始協方差矩陣設置為單位矩陣; 由注視高斯分布模型、追蹤高斯分布模型和眼跳高斯分布模型構成初始化高斯混合模型; 3.1.2對所述初始化高斯混合模型,通過迭代優化的方法調整其參數,使其更好地擬合每種眼動行為的實際概率分布,迭代的次數設置為至少50次;并通過引入Q函數,確定高斯混合模型優化的程度,獲得優化的高斯混合模型; 3.2建立隱馬爾可夫模型 3.2.1初始化隱馬爾可夫模型的三個參數: 初始概率矩陣π=[π1,π2,…,πN],表示每種眼動行為在初始時刻的初始概率,將每種眼動行為的初始概率設置為13; 轉移概率矩陣A=[aij],表示從一個眼動行為到另一個眼動行為的轉移概率,確保轉移概率矩陣A的每一行元素之和為1; 發射概率矩陣B=[bjot],表示眼動數據中每個數據屬于三種眼動行為中哪一種眼動行為的概率,發射概率矩陣B的每一行元素由3.1.2中的高斯混合模型的參數確定; 通過初始化隱馬爾可夫模型的以上三個參數,得到初始化隱馬爾可夫模型; 3.2.2用所述預處理的3組以上眼動數據對所述初始化隱馬爾可夫模型通過優化算法進行優化,得到優化的隱馬爾可夫模型; 4眼動行為分類 基于步驟3.1.2優化的的高斯混合模型和步驟3.2.2中優化的的隱馬爾可夫模型,對所述預處理的3組以上眼動數據進行眼動行為分類;根據每個時間點的眼動數據,推斷當前的眼動行為為注視、或眼跳、或追蹤眼動行為中的哪一種。

          如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人中國科學技術大學,其通訊地址為:230026 安徽省合肥市包河區金寨路96號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

          以上內容由AI智能生成
          免責聲明
          1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
          2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
          主站蜘蛛池模板: 久久综合九色综合97婷婷| 性无码专区无码| 色www永久免费视频首页| 婷婷久久香蕉五月综合加勒比| 成人97人人超碰人人| 日韩丝袜欧美人妻制服| 精品亚洲欧美视频在线观看| 熟妇人妻不卡中文字幕| 人妻少妇av中文字幕乱码| 欧美日韩色另类综合| 免费a级黄毛片| 日本 精品 高清不卡| 国产女人和拘做受视频免费| 大陆熟妇丰满多毛xxxⅹ| 大肉大捧一进一出视频出来呀| 亚洲avav天堂av在线网爱情| 四虎免费大片aⅴ入口| 久久www免费人成一看片| 国产欧美日韩一区二区图片| 亚洲人成无码www久久久| 亚州精品av久久久久久久影院| 丰满少妇人妻无码| 中文字幕aⅴ在线视频| 欧美大黑帍在线播放| av午夜福利一片免费看久久| 成人97人人超碰人人| 国产精品中文字幕自拍| 国产av一区二区三区传媒| 伊人久久东京av| 99热99这里只有高清国产| 男女性高爱潮免费网站| 性色做爰片在线观看ww| 亚洲成a人片在线观看www| 亚洲 制服 丝袜 无码| 夜夜躁狠狠躁日日躁孕妇| 国产精品亚洲a∨天堂| 国产精品国产三级国av| 女同性恋一区二区三区视频| 在线a亚洲老鸭窝天堂| 熟女一区二区中文字幕| 少妇裸交aa大片|