北京理工大學范敬凡獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉北京理工大學申請的專利連續幀內窺鏡定位方法及裝置獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115830122B 。
龍圖騰網通過國家知識產權局官網在2025-09-09發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211666928.4,技術領域涉及:G06T7/73;該發明授權連續幀內窺鏡定位方法及裝置是由范敬凡;劉詩源;楊健;宋紅;付天宇;肖德強設計研發完成,并于2022-12-21向國家知識產權局提交的專利申請。
本連續幀內窺鏡定位方法及裝置在說明書摘要公布了:連續幀內窺鏡定位方法及裝置,能夠有效地從原始內窺鏡圖像中估計出精確定位信息,有效消除多幀內窺鏡運動估計的累積誤差,為內窺鏡圖像定位、病灶位置檢測、三維重建等應用提供了特征提取的新思路,解決了當前內窺鏡連續幀定位累積誤差的問題。方法包括:1數據獲取;2多通道視覺特征聚合與圖像深度信息網絡估計;3自適應約束重定位優化:采用一種基于自適應約束重定位方法來優化連續框架內鏡的位置信息,在多幀內窺鏡圖像定位累積誤差去除過程中,通過測量腔道表面最小內切圓半徑,作為連續幀自適應誤差閾值,當誤差大于閾值時,將該幀作為初始幀進行重新定位,得到內窺鏡定位的優化結果;4獲得內窺鏡定位信息。
本發明授權連續幀內窺鏡定位方法及裝置在權利要求書中公布了:1.連續幀內窺鏡定位方法,其特征在于:其包括以下步驟: 1數據獲取:當輸入三個樣本時,分別為正負樣本參考圖像之間的2范數距離: 其中,Net·是三分支融合殘差網絡,P1,P2,P3是三個樣本輸入; 2多通道視覺特征聚合與圖像深度信息網絡估計:為了從模型中輸出多支路聚合特征,在多層級融合特征塊經過一系列全連接層,生成兩個輸出,分別代表正樣本和非樣本對參考圖像的回歸偏移量,兩個中間值使用softmax函數創建一個比率度量,特征向量損失函數Lfv表示為: 其中,分別代表正樣本、負樣本對參考樣本的特征向量,γ為超參數,用于調節特征向量之間的距離,將函數距離優化取最小值,距離優化取最大值,再訓練過程中,分段估計每一幀內窺鏡圖像的特征向量在當前分段中距離的平均值,取最小值為內窺鏡所在區域位置; 該網絡的主路徑是由兩個結構相同的獨立的殘差結果網絡組成,分別由4個連續的卷積層組成,每個卷積層由256個3×3濾波器組成,最終向全連接層輸出兩組196×1×1的向量,訓練時分別將原始圖像與對應的深度圖像作為一對樣本,輸入到兩個獨立的網絡中,并將得到的矢量通過一個全連接層,該層產生原始圖像在深度圖像中的定位估計;最后,定位結果由6個分量組成,其中包含3個位置偏移量[px,py,pz],和3個旋轉偏移量[α,β,γ],該網絡使用Adam優化訓練,通過計算梯度的一階矩估計和二階矩估計而為不同的參數設計獨立的自適應性學習率,進而構建最小化估計偏移量和深度偏移量估計單幀內窺鏡精確位置信息; 3自適應約束重定位優化:采用一種基于自適應約束重定位方法來優化連續框架內鏡的位置信息,在多幀內窺鏡圖像定位累積誤差去除過程中,通過測量腔道表面最小內切圓半徑,作為連續幀自適應誤差閾值,當誤差大于閾值時,將該幀作為初始幀進行重新定位,得到內窺鏡定位的優化結果; 4獲得內窺鏡定位信息。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人北京理工大學,其通訊地址為:100081 北京市海淀區中關村南大街5號北京理工大學;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。