蘭州理工大學張紅獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉蘭州理工大學申請的專利交互動態圖卷積及概率稀疏注意力的交通流預測方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN117290707B 。
龍圖騰網通過國家知識產權局官網在2025-08-26發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202311424813.9,技術領域涉及:G06F18/213;該發明授權交互動態圖卷積及概率稀疏注意力的交通流預測方法是由張紅;陳林彪;陳林龍;張璽君;侯亮;陳作漢設計研發完成,并于2023-10-31向國家知識產權局提交的專利申請。
本交互動態圖卷積及概率稀疏注意力的交通流預測方法在說明書摘要公布了:交互動態圖卷積及概率稀疏注意力的交通流預測方法,所述的交通流預測方法,IDG?PSAtt方法由交互式動態圖卷積網絡IDGCN和時空卷積塊ST?ConvBlock以及概率稀疏自注意力機制ProbSSAttBlock構成;步驟一、IDGCN將交通流時間序列按間隔劃分,并交互共享捕捉的動態時空特征;步驟二、ST?ConvBlock捕獲同一位置交通流的復雜時間依賴性和同一時間步長上鄰近位置交通流的動態空間相關性;步驟三、ProbSSAttBlock捕獲動態時空特征以提高IDG?PSAtt方法的中長期預測性能;步驟四、構建一種由自適應鄰接矩陣和可學習鄰接矩陣融合生成的動態圖卷積網絡,以學習道路網絡節點間隱藏的動態關聯;步驟五、通過預測層進行交通流預測。
本發明授權交互動態圖卷積及概率稀疏注意力的交通流預測方法在權利要求書中公布了:1.交互動態圖卷積及概率稀疏注意力的交通流預測方法,其特征在于,包括如下步驟: 步驟1、通過將原始數據饋送到開始卷積層StartConv,通過StartConv獲得高維空間表示的數據; 步驟2、將高維空間表示的數據輸入到交互式動態圖卷積IDGCN中,IDGCN對輸入的高維數據使用交錯采樣遞歸生成兩個大小相等的子序列,IDGCN對兩個子序列進行交互學習并共享各自學到的特征; 步驟3、將DGCN嵌入到交互式學習結構中,在動態圖卷積DGCN的基礎上以交互學習策略對StartConv層提取到的高維特征進行處理,IDGCN提取時空特征之后,輸出兩個子序列; 步驟4、輸出的子序列通過串聯融合模塊,所有的輸出子序列按時間索引順序重組,然后饋送至擴散圖卷積DiffusionGraphConv; 步驟5、將DiffusionGraphConv輸出的動態空間特征輸入到多頭概率稀疏自注意力層ProbSSAttBlock,用于提取動態時空特征; 步驟6、將ProbSSAttBlock輸出的動態時空特征輸入到ST-Conv中,用于提取時間特征; 步驟7、將ST-Conv輸出的時空特征輸入到多層感知機MLP中; 步驟8、構建預測層,將MLP輸出的動態時空特征輸入到預測層,通過預測層進行交通流預測; 步驟9、配置模型的超參數、模型的優化器、損失函數和迭代次數; 步驟2所述交通流預測方法構建步驟為: 步驟一、準備交通流原始數據,通過將原始數據饋送到開始卷積層StartConv,通過StartConv獲得高維空間表示的數據,捕獲更深層次得到交通流依賴關系; 步驟二、將高維空間表示的數據輸入到交互式動態圖卷積IDGCN中,IDGCN對輸入的高維數據使用交錯采樣遞歸生成兩個大小相等的子序列,子序列長度減半,IDGCN對兩個子序列進行交互學習,兩個子序列共享各自學到的交通流特征; 步驟三、將DGCN嵌入到交互式學習結構中,在動態圖卷積DGCN的基礎上,通過使用交互學習策略對StartConv層提取到的高維特征進行處理,利用IDGCN提取時空特征,提取時空特征之后,輸出兩個子序列; 步驟四、輸出的子序列通過串聯融合模塊Concatenation,在Concatenation中所有的輸出子序列按時間索引順序重組,將重組后的序列饋送至擴散圖卷積DiffusionGraphConv; 步驟五、將DiffusionGraphConv輸出的動態空間特征輸入到多頭概率稀疏自注意力層ProbSSAttBlock,用于提取動態時空特征; 步驟六、將ProbSSAttBlock輸出的動態時空特征輸入到ST-Conv中,通過ST-Conv提取時間特征; 步驟七、將ST-Conv輸出的時空特征輸入到多層感知機MLP中,通過MLP聚合所提取的動態時空特征; 步驟八、構建預測層,將MLP輸出的動態時空特征輸入到預測層,通過預測層進行交通流預測; 步驟九、配置模型的超參數、模型的優化器、損失函數和迭代次數; 所述步驟3的具體步驟為: 步驟3.1、以圖G=V,E,A表示交通道路網絡,其中|V|=N是節點的集合,每個節點表示道路網絡中的觀測傳感器;E是節點間的邊的集合,其權重由節點間的距離表示;表示圖G生成的初始鄰接矩陣,若vi,vj∈V且vi,vj∈E,則Aij為1,否則為0;以原始交通網絡生成的初始鄰接矩陣A作為先驗知識,通過歷史時間序列來預測未來交通流其中表示圖G在t時刻的觀察值,C表示特征通道數,T′表示給定歷史時間序列長度,T表示被預測的未來交通序列長度;交通流預測問題的映射關系可表示如下: 其中,f表示能夠通過給定的歷史時間序列預測未來交通流的預測函數; 步驟3.2、通過卷積神經網絡CNN和圖卷積網絡GCN來實現交互式學習模塊,采用交錯采樣的方法對原始數據進行處理以實現多分辨率分析和擴大感受野;交互式學習模塊由三個相同的交互式動態圖卷積IDGCN構成,在IDGCN中,兩個子序列交互學習各自的動態時空特征,每個子序列通過一個卷積來對特征進行預處理,以擴大接受域;兩個子序列在DGCN中的參數權值共享,并捕獲彼此間的動態時空特征; 步驟3.3、以表示IDGCN的輸入,X通過交錯采樣之后,得到兩個子序列,分別為奇序列偶序列交互式動態圖卷積中的Conv1,Conv2,Conv3,Conv4表示1Dconvolution運算;IDGCN的第一次交互式學習的輸出為X′odd和X′even通過進一步的交互式學習得到最終輸出序列交互式動態圖卷積中的具體計算如下: Xeven,Xodd=SplitX2 X′odd=tanhDGCNConv1Xeven⊙Xodd3 X′even=tanhDGCNConv2Xodd⊙Xeven4 Xodd_out=X′odd+tanhDGCNConv3X′even5 Xeven_out=X′even+tanhDGCNConv4X′odd6 ⊙表示哈達瑪乘積,tanh表示激活函數,DGCN表示IDGCN中的動態圖卷積網絡; 所述步驟4的具體步驟為: 步驟4.1、動態圖卷積DGCN主要由擴散圖卷積網絡和圖生成模塊構成,DGCN利用擴散圖卷積和圖生成模塊更好地學習深層次的動態空間特征,DGCN將隱藏特征和預定義的初始鄰接矩陣作為輸入饋送至擴散圖卷積網絡,將其饋送至圖生成器和多層感知機層生成含有時空信息的離散矩陣A′的表示如下: A′=SoftMaxMLPGCNH,A7 其中,GCN表示擴散卷積和圖生成器運算,MLP表示多層感知機; 步驟4.2、采用Gumbel重新參數化在訓練過程中保證采樣過程可導: 其中g~Gumbel0,1表示隨機變量,τ是softmax溫度參數,值為0.5,Alearn表示由圖生成器生成的可以模擬節點間的動態依賴關系的鄰接矩陣; 步驟4.3、構建一個自適應鄰接矩陣如下所示: 其中表示可學習參數,Aapt的初始值為基于原始圖數據預定義的鄰接矩陣 步驟4.4、通過將自適應融合模塊將Alearn和Aapt融合,然后將得到的動態鄰接矩陣饋送至擴散圖卷積網絡來提取交通道路中隱藏的動態時空相關性,該融合模塊的計算如下: Adyn=αAapt+1-αAlearn10 其中α表示可學習的自適應參數因子; 步驟4.5、在圖生成器網絡、融合圖卷積和串聯融合模塊均使用了擴散圖卷積,并統一將擴散圖卷積的輸入定義為在圖生成器網絡中,擴散圖卷積定義為: 其中,k為擴散步長,K為最大擴散步數,W表示參數矩陣;在融合圖卷積模塊中,Adyn是融合圖卷積的輸入的鄰接矩陣,其中的擴散圖卷積表示如下: IDG-PSAtt模型通過將交互式學習結構中提取到的動態時空特征,在串聯模塊中按時間索引順序重新組合后,饋送至DiffusionGraphConv,以實現對整個時間序列特征的捕獲和校正; 步驟4.6、在擴散圖卷積網絡中,同時采用預定義的初始鄰接矩陣和由交互式學習結構生成的動態鄰接矩陣對于初始鄰接矩陣A,使用有向圖并同時分別使用Pf=ArowsumA和Pb=ATrowsumAT表示A的前向和后向轉移矩陣;在串聯融合模塊中的擴散圖卷積的表示如下: DGCN模塊不僅能夠通過探索交通網絡中節點間不可見的依賴關系,進而提取深層次的隱藏空間特征,同時還能基于輸入的交通流時間序列模擬生成數據間的動態關聯;此外,通過將DGCN嵌入到交互式學習框架中,能夠實現在訓練的過程中充分利用GCN捕獲到的動態空間信息來增強對交通流的復雜時間依賴關系的捕獲; 所述步驟5的具體步驟為: 步驟5.1、構建一個由三個卷積核組成的時空卷積模塊,三個卷積核分別對應時間、空間和時空的三個角度捕捉來自擴散圖卷積模塊提取的時空特征,捕捉交通流的拓撲圖結構中多個節點特征對單一節點特征的影響;時間核捕捉同一位置的不同時間的交通流的依賴性,空間核捕捉同一時間步長上臨近位置的交通流的空間相關性;每個時空卷積塊將前一個時空注意力塊的輸出作為輸入可計算得輸出 其中,是f×1的時間核,是1×f的空間核,是f×f的時空核,LeakyReLU·表示Leaky修正線性單元函數,*表示卷積運算;將三個卷積核的輸出連接起來,并使用1×1卷積來壓縮特征,并限制通道數; 所述步驟6的具體步驟為: 步驟6.1、自注意力機制輸入形式為Q,K,V,點積計算如下: 其中,和d分別表示輸入的查詢、鍵、值以及維度;第i個查詢的注意力系數Aqi,K,V如下: 其中,qi,ki和vi分別是Q、K和V中的第i行;和kqi,kl使用非對稱指數核 步驟6.2、時空卷積概率稀疏自注意力機制STC-ProbSSAtt采用Mqi,K表示第i個查詢的稀疏性,KL散度來衡量查詢的稀疏性,如下所示: 其中,第一項是所有鍵上qi的對數和指數,第二項所有鍵的算術平均值,概率稀疏自注意力機制計算如下: 其中,表示與q維度相同的稀疏矩陣,僅由Mq,K評估的稀疏度下的前u個查詢構成,u=c·lnLQ由恒定采樣因子c控制;概率稀疏自注意力機制每次查詢的復雜度僅為OlnLQ,采用多頭概率稀疏自注意力機制,該機制能夠生成不同的稀疏查詢密鑰對,以避免嚴重的信息損失; 所述步驟7的具體步驟為: 步驟7.1、通過構建預測層,將多層感知機MLP輸出的動態時空特征輸入到預測層,通過預測層進行交通流預測。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人蘭州理工大學,其通訊地址為:730050 甘肅省蘭州市七里河區蘭工坪路287號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。