<thead id="3jag6"><rt id="3jag6"><noscript id="3jag6"></noscript></rt></thead>
  • <s id="3jag6"><track id="3jag6"><menuitem id="3jag6"></menuitem></track></s>
        <sub id="3jag6"><p id="3jag6"></p></sub>

          <style id="3jag6"></style>
          国产精品久久久久久久网,人人妻人人澡人人爽国产,亚洲中文字幕无码爆乳APP,免费大片黄国产在线观看,无码抽搐高潮喷水流白浆,国产久免费热视频在线观看,国产亚洲精品成人aa片新蒲金,久久久97丨国产人妻熟女
          Document
          拖動(dòng)滑塊完成拼圖
          首頁 專利交易 IP管家助手 科技果 科技人才 科技服務(wù) 國際服務(wù) 商標(biāo)交易 會(huì)員權(quán)益 需求市場 關(guān)于龍圖騰
           /  免費(fèi)注冊(cè)
          到頂部 到底部
          清空 搜索
          最新專利技術(shù)
          • 本發(fā)明提出一種融合多層級(jí)失真感知的全景圖像質(zhì)量評(píng)價(jià)方法與系統(tǒng),該方法包括:基于處理后的全景圖像得到階段失真感知細(xì)化特征圖;基于階段失真感知細(xì)化特征圖,通過局部分支和全局分支處理后,得到階段經(jīng)過可變形自適應(yīng)失真感知模塊處理后的失真感知特征圖;...
          • 本發(fā)明提供一種基于深度學(xué)習(xí)的焊縫檢測方法、裝置,方法包括:在管道的不同區(qū)域獲取第一圖像;所述不同區(qū)域包括直管段、彎頭、接頭;對(duì)所述第一圖像進(jìn)行預(yù)處理,得到第一紋理特征和第一形態(tài)特征;所述預(yù)處理至少包括多尺度特征提取;基于所述第一紋理特征和所...
          • 本申請(qǐng)實(shí)施例公開了一種血管分割方法、裝置、電子設(shè)備及計(jì)算機(jī)程序產(chǎn)品。其中,該方法包括:獲取目標(biāo)組織的CT圖像;采用目標(biāo)神經(jīng)網(wǎng)絡(luò)的第一編碼器,對(duì)CT圖像進(jìn)行下采樣處理,得到CT圖像對(duì)應(yīng)的多個(gè)尺度的第一特征,其中,第一編碼器中包含多個(gè)下采樣層,...
          • 本發(fā)明公開了一種毛刺邊緣仿真定量方法、裝置、電子設(shè)備和存儲(chǔ)介質(zhì),所述方法包括:遍歷原始圖像中的所有像素,對(duì)原始圖像進(jìn)行邊緣檢測;然后基于強(qiáng)邊緣像素點(diǎn),模擬毛刺所在區(qū)域;接著根據(jù)原始圖像構(gòu)造毛刺分量;最后融合原始圖像和毛刺分量得到毛刺邊緣仿真...
          • 本發(fā)明公開了一種紫外與可見光圖像自適應(yīng)配準(zhǔn)的放電檢測方法及系統(tǒng),屬于圖像處理技術(shù)領(lǐng)域,通過成像模塊分別捕獲電力設(shè)備放點(diǎn)區(qū)域的紫外圖像和可見光圖像;通過配準(zhǔn)模塊分別在運(yùn)動(dòng)場景,根據(jù)光流運(yùn)動(dòng)估計(jì)計(jì)算可見光圖像序列的運(yùn)動(dòng)矢量并映射至紫外圖像進(jìn)行位...
          • 本發(fā)明公開了一種激光控制系統(tǒng)的圖文處理方法,通過獲取魚眼相機(jī)拍攝的機(jī)器工位照片,對(duì)機(jī)器工位照片進(jìn)行矯正處理得到背景圖,向服務(wù)端導(dǎo)入圖文并獲取圖文的文件格式,根據(jù)文件格式對(duì)圖文進(jìn)行圖片處理得到設(shè)計(jì)圖,根據(jù)背景圖構(gòu)建畫布,將背景圖與畫布進(jìn)行第一...
          • 本發(fā)明涉及圖像處理技術(shù)領(lǐng)域,公開了駕駛場景渲染方法、裝置、車輛及介質(zhì),本發(fā)明通過以建立空間哈希網(wǎng)格的方式將自車所在目標(biāo)區(qū)域的所有待渲染目標(biāo)映射至空間哈希網(wǎng)格中,依次檢驗(yàn)每一哈希網(wǎng)格中包含的待渲染目標(biāo)數(shù)量,根據(jù)檢驗(yàn)結(jié)果對(duì)各個(gè)待渲染目標(biāo)在空間哈...
          • 本發(fā)明涉及虛擬現(xiàn)實(shí)教育技術(shù)領(lǐng)域,尤其涉及一種基于多模態(tài)感知與動(dòng)態(tài)評(píng)估的沉浸式虛擬教學(xué)系統(tǒng),包括:數(shù)據(jù)采集模塊、數(shù)據(jù)處理模塊、渲染模塊和評(píng)估模塊;數(shù)據(jù)采集模塊用于采集用戶的外貌數(shù)據(jù)和語音數(shù)據(jù);數(shù)據(jù)處理模塊用于實(shí)時(shí)處理數(shù)據(jù)采集模塊采集到的外貌數(shù)...
          • 本發(fā)明公開了一種高精度注塑齒輪切水口方法及裝置,包括由機(jī)械手將注塑成型的齒輪毛坯移送至掃描工位,通過3D掃描儀對(duì)水口區(qū)域三維掃描生成三維模型數(shù)據(jù),提取水口高度、直徑及位置參數(shù),由控制模塊規(guī)劃切削深度與倒角角度并生成自適應(yīng)切削指令;之后力反饋...
          • 本發(fā)明提供一種面向教學(xué)互動(dòng)的數(shù)字人三維重構(gòu)系統(tǒng),涉及人機(jī)交互技術(shù)領(lǐng)域,包括:數(shù)據(jù)采集模塊,用于通過多模態(tài)傳感器陣列實(shí)時(shí)采集用戶的語音信號(hào)、手勢(shì)動(dòng)作數(shù)據(jù)、眼部追蹤數(shù)據(jù)和面部表情數(shù)據(jù),并通過預(yù)設(shè)教學(xué)場景數(shù)據(jù)庫獲取當(dāng)前教學(xué)場景的教學(xué)類型標(biāo)識(shí)符、互...
          • 本發(fā)明提供一種陰影感知的衛(wèi)星影像神經(jīng)輻射場地表三維重建方法,包括:基于多時(shí)相衛(wèi)星影像優(yōu)化RPC模型并生成稀疏點(diǎn)云,通過外包圍球歸一化構(gòu)建統(tǒng)一坐標(biāo)系;沿像素視線方向采樣三維點(diǎn),構(gòu)建訓(xùn)練集;SDF網(wǎng)絡(luò)預(yù)測空間點(diǎn)有符號(hào)距離值,顏色網(wǎng)絡(luò)融合SDF特...
          • 本發(fā)明提供了基于數(shù)字孿生的文博展館虛實(shí)融合導(dǎo)覽系統(tǒng)及方法,屬于展館導(dǎo)覽技術(shù)領(lǐng)域,對(duì)文博展館進(jìn)行數(shù)據(jù)提取,獲取文博展館復(fù)合型數(shù)據(jù)并進(jìn)行數(shù)據(jù)預(yù)處理,生成文博展館復(fù)合型數(shù)據(jù)集合并進(jìn)行仿真模擬,構(gòu)建游客感官分析模型、游客行為分析模型與文物狀態(tài)分析模...
          • 本發(fā)明公開了一種基于狀態(tài)空間模型的單流RGB?D目標(biāo)跟蹤方法,屬于計(jì)算機(jī)視覺技術(shù)領(lǐng)域,將RGB模態(tài)圖像和深度(Depth)模態(tài)圖像數(shù)據(jù)以Token形式進(jìn)行整合,通過Mamba單流主干網(wǎng)絡(luò)進(jìn)行特征提取與第一階段融合,之后通過多模態(tài)Mix Ma...
          • 本發(fā)明提供了一種深基坑鋼支撐點(diǎn)云分割方法、裝置、設(shè)備及介質(zhì),涉及三維點(diǎn)云處理與工程監(jiān)測技術(shù)領(lǐng)域,本方法通過分層遞進(jìn)式處理策略,將線性特征提取與圓柱實(shí)例分割相結(jié)合,顯著提升了復(fù)雜場景下鋼支撐點(diǎn)云的分割精度與效率。改進(jìn)型RANSAC框架通過動(dòng)態(tài)...
          • 本發(fā)明公開了基于卷積神經(jīng)網(wǎng)絡(luò)的影像病變分割系統(tǒng),涉及圖像分割技術(shù)領(lǐng)域,該系統(tǒng)包括數(shù)據(jù)獲取模塊、跨模態(tài)解碼模塊、聯(lián)合優(yōu)化模塊以及病變分割模塊;其技術(shù)要點(diǎn)為:對(duì)CT安全編碼數(shù)組和MRI安全編碼數(shù)組進(jìn)行跨模態(tài)解碼整合,生成融合病變分割數(shù)組;基于融...
          • 本發(fā)明提出了一種霍夫空間中基于書脊特征的輪廓擬合方法,涉及圖像識(shí)別技術(shù)領(lǐng)域,載入書脊圖片,通過線檢測得到線段集;對(duì)線段集中所有線段通過改進(jìn)霍夫空間算法,完成線段由離散態(tài)向連續(xù)線性的轉(zhuǎn)化;保留中心坐標(biāo)在預(yù)設(shè)范圍內(nèi)的線段,計(jì)算角度在期望范圍內(nèi)的...
          • 本發(fā)明涉及農(nóng)業(yè)監(jiān)測技術(shù)領(lǐng)域,公開了基于大數(shù)據(jù)的智慧農(nóng)業(yè)監(jiān)測系統(tǒng),包括:劃分單元、整合單元、分析單元、關(guān)聯(lián)單元和評(píng)估單元,本方案以單株為核心,依地上與根系特征動(dòng)態(tài)劃分網(wǎng)格,不同于傳統(tǒng)大面積的監(jiān)測,能夠?qū)r(nóng)作物實(shí)現(xiàn)精準(zhǔn)聚焦,融合圖像、環(huán)境、土壤...
          • 本發(fā)明涉及醫(yī)療科普展示技術(shù)領(lǐng)域,公開一種基于圖像識(shí)別的放療設(shè)備科普展示交互系統(tǒng),包括:數(shù)據(jù)采集構(gòu)建模塊,用于采集放療設(shè)備的實(shí)體圖像、三維模型及技術(shù)文檔并構(gòu)建知識(shí)庫;圖像識(shí)別模塊,用于將采集的圖像輸入至深度學(xué)習(xí)模型,提取圖像中放療設(shè)備的關(guān)鍵語...
          • 本發(fā)明公開了一種基于自適應(yīng)分離和兩級(jí)對(duì)齊的圖像開集域適應(yīng)識(shí)別方法,屬于圖像類別識(shí)別領(lǐng)域,包括:將待識(shí)別目標(biāo)域圖像輸入訓(xùn)練完成的開集域適應(yīng)識(shí)別模型;得到識(shí)別結(jié)果;其中,開集域適應(yīng)識(shí)別模型的訓(xùn)練過程包括:利用源域訓(xùn)練數(shù)據(jù)訓(xùn)練分類模型;將自適應(yīng)分...
          • 本發(fā)明涉及電纜質(zhì)量檢測技術(shù)領(lǐng)域,且公開了一種電纜質(zhì)量檢測監(jiān)管系統(tǒng)。本發(fā)明旨在解決現(xiàn)有技術(shù)無法精準(zhǔn)提取多根導(dǎo)線絞合形成的不規(guī)則截面導(dǎo)體中心、導(dǎo)致偏心度計(jì)算偏差大的問題。該系統(tǒng)通過激光標(biāo)記定位模塊建立三維坐標(biāo)系、超聲放電成像模塊獲取高精度截面圖...
          技術(shù)分類
          主站蜘蛛池模板: 无码 人妻 在线 视频| 中文精品久久久久国产网址| 亚洲人成人77777网站| 乱精品一区字幕二区| 国产又粗又猛又爽又黄的视频在线观看动漫| 麻豆aⅴ精品无码一区二区| 精品国产亚洲一区二区三区| 色婷婷综合久久久久中文一区二区 | 國产一二三内射在线看片| 中文字幕久久久久人妻中出| 色爱区综合五月激情| 国产欧美成人xxx视频| 久久精品国产72国产精| 成 人 免 费 黄 色| 成人综合色在线一区二区| 国产日产精品久久久久快鸭| 成人国产精品日本在线| 亚洲人成人无码www| 精品九九人人做人人爱| 国产边摸边吃奶边叫做激情视频| 国产尤物精品自在拍视频首页| 东京热大乱系列无码| 强奷乱码中文字幕| 无码午夜福利片在线观看| 国产aⅴ视频免费观看| 色噜噜噜亚洲男人的天堂| 日韩视频中文字幕精品偷拍| 人妻少妇乱子伦无码专区| 蜜臀久久99精品久久久久久| 特黄aaaaaaa片免费视频| 亚洲人成网线在线播放| 亚洲国产成人久久一区二区三区| 一区二区三区无码高清视频| 国产成人一区二区三区别| 黑人粗大猛烈进出高潮视频| 亚洲第一精品一二三区| 亚洲人妻一区二区精品| 又大又粗欧美成人网站| 国产成人亚洲综合网色欲网久下载 | 欧美性插b在线视频网站| 国产免费永久精品无码|