南京大學;江蘇圖客機器人有限公司陳力軍獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉南京大學;江蘇圖客機器人有限公司申請的專利一種基于計算機視覺的圖書定位方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN114863458B 。
龍圖騰網通過國家知識產權局官網在2025-09-23發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202210328857.0,技術領域涉及:G06V30/416;該發明授權一種基于計算機視覺的圖書定位方法是由陳力軍;劉佳;徐毅暉;顧橋磊;陳星宇;鄢偉設計研發完成,并于2022-03-31向國家知識產權局提交的專利申請。
本一種基于計算機視覺的圖書定位方法在說明書摘要公布了:本發明為一種基于計算機視覺的圖書定位方法,其包括:步驟S1、通過相機拍照,對圖書目標區域進行采集,并存儲為圖片;步驟S2、構建并訓練文本檢測模型,用文本區域框標記所述圖片中的所有文本;步驟S3、基于文本區域框,對所述圖片進行圖書實例分割,從而獲取圖書實例及圖書實例在所述圖片中的位置信息;步驟S4、構建并訓練文本識別模型,對所述文本區域框進行識別,并將同一圖書實例中的文本識別結果進行合并,得到每個圖書實例的書名識別結果;步驟S5、將所述書名識別結果與讀者輸入要在書架上進行查詢的書籍名稱進行匹配,輸出目標書籍在所述圖片中的定位結果。通過上述方法,本申請實現了高效率和高準確性的圖書定位,提高了借書效率。
本發明授權一種基于計算機視覺的圖書定位方法在權利要求書中公布了:1.一種基于計算機視覺的圖書定位方法,其特征在于,所述方法包括: 步驟S1、通過相機拍照,對圖書目標區域進行采集,并存儲為圖片; 步驟S2、構建并訓練文本檢測模型,用文本區域框標記所述圖片中的所有文本; 步驟S3、基于文本區域框,對所述圖片進行圖書實例分割,從而獲取圖書實例及圖書實例在所述圖片中的位置信息; 步驟S4、構建并訓練文本識別模型,對所述文本區域框進行識別,并將同一圖書實例中的文本識別結果進行合并,得到每個圖書實例的書名識別結果; 步驟S5、將所述書名識別結果與讀者輸入要在書架上進行查詢的書籍名稱進行匹配,輸出目標書籍在所述圖片中的定位結果; 所述步驟S2中構建并訓練文本檢測模型的方法包括: 步驟S21、對人工合成、真實場景文本檢測數據集都進行數據增強;使用的數據增強包括隨機改變圖像的亮度、顏色、對比度特征,對圖片進行隨機旋轉與裁剪,并把圖片寬度都縮放到固定像素,長寬比保持不變; 步驟S22、基于EAST模型,構建文本檢測模型;基于EAST模型,以ResNet-50為骨干網絡構建文本檢測模型,修改模型對于“下”邊界的定義,所述“下”邊界的定義為文本框底線,并實現可GPU加速非極大值抑制算法,提高模型訓練及推理效率; 步驟S23、基于增強后的文本檢測數據集,訓練EAST模型:先讓模型在人工合成數據集上完成預訓練,再讓模型在真實場景數據集中微調,得到健壯的文本檢測模型; 所述步驟S3中,所述圖書實例分割的方法包括: 步驟S31、用五個參數{di|i∈{1,2,3,4}},θ對書脊框進行定義,對于一個給定的書脊框內部點v,di表示內部點v到書脊框四條邊的距離,θ表示書脊框與水平方向的夾角; 步驟S32、對所述圖片應用直線段檢測算法,對原始圖片應用直線段檢測算法LSD,提取圖片中連貫的長線段,輸出線段圖,并通過線段圖生成單位法線圖; 步驟S33、定義書脊框能量函數;基于線段圖與法線圖,定義書脊框能量函數如下: 其中,p∈ei表示p為線段ei中的一個像素;代表ei的單位法向量;Lp為p在線段圖中的取值,該值范圍為[0,255];Np為p在單位法線圖中的取值; 該能量函數能讓書脊框的各邊貼合線段圖,并且書脊框各邊法向量與法線圖方向一致時,達到最?。?步驟S34、將所述文本區域框作為初始的書脊框,不斷向外擴大書脊框,直至能量函數達到最小,輸出此時的書脊框,并進行篩選。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人南京大學;江蘇圖客機器人有限公司,其通訊地址為:210023 江蘇省南京市棲霞區仙林大道163號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。