• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于單目視覺的優化的深度提取和被動測距方法技術

    技術編號:20005118 閱讀:32 留言:0更新日期:2019-01-05 17:44
    本發明專利技術公開了一種基于單目視覺的優化的深度提取和被動測距方法,其特征在于包括如下步驟——步驟一:對手機相機進行標定,獲取相機內部參數和圖像分辨率;步驟二:建立深度提取模型

    Optimized depth extraction and passive ranging method based on monocular vision

    The invention discloses an optimized depth extraction and passive ranging method based on monocular vision, which is characterized by the following steps: first, calibrating the camera to obtain camera internal parameters and image resolution; second, establishing a depth extraction model.

    【技術實現步驟摘要】
    基于單目視覺的優化的深度提取和被動測距方法
    本專利技術涉及地面近景攝影測量領域,尤其是一種單目視覺系統下針孔相機的被動測距方法。
    技術介紹
    基于圖像的目標物測距與定位,主要分為主動測距和被動測距兩種方法[1]。主動測距是在機器(如相機)上安裝激光測距裝置進行測距[2-4]。被動測距是通過機器視覺對二維數字圖像中目標物深度信息進行計算,然后根據圖像像素信息及相機成像原理計算目標物距離[5-6]。機器視覺測距主要分為單目視覺測距、雙目視覺測距兩類[7-9]。在測距過程中,關鍵步驟在于目標物深度信息的獲取,早期的深度信息獲取方法主要是雙目立體視覺和相機運動信息,需要多幅圖像完成圖像深度信息的獲取[10-16]。與雙目視覺測距相比,單目測距圖像采集不需要嚴格的硬件條件,更具有競爭優勢?,F有技術中,單目視覺系統的目標物深度信息獲取有多種方法。如采用對應點標定法來獲取待測目標物的深度信息[17-19]。文獻[17]研究了一種基于單目視覺的機器人目標定位測距方法,該方法通常是通過相機標定獲取相機內、外參數,結合投影模型求解出圖像坐標系與世界坐標系之間的轉換關系,從而計算目標物深度信息。不足的是,此方法需要采集不同方位的標靶圖像,并精確記錄每個點在世界坐標系和圖像坐標系中的對應坐標,標定精度對于測量精度影響較大。文獻[20]在路面擺放參照物并測量其距離,選擇適合的數學模型,擬合參照物距離和像素之間的對應關系,再利用此關系實時提取深度信息。不足的是,文獻[20]的方法精度會受到遠距離測量誤差及擬合誤差的影響。文獻[21]設計了一種立式標靶圖像,通過檢測該圖像的角點數據建立圖像縱坐標像素值與實際測量角度之間的映射關系,利用此關系結合已知的車載單目相機高度得到圖像中車載深度信息。由于不同相機設備內部參數存在差異,對于不同型號的相機設備,該方法需要重新采集標靶圖像信息,建立相機深度信息提取模型,且不同車載相機由于鏡頭制作與裝配等原因,使得相機俯仰角也會存在差異,因此文獻[21]的方法通用性較差。另外,文獻[21]的方法采用立式標靶研究豎直平面像點成像角度與縱坐標像素值之間的關系,并將此應用于水平面上物體距離的測量,使得測距精度相對較低,因為相機水平與豎直方向畸變規律不完全相同。申請號為201710849961.3的專利技術申請,公開了一種改進的適用于智能移動端相機的相機標定模型及畸變矯正模型(以下簡稱:改進的帶有非線性畸變項的標定模型),該方法可以幫助矯正標定板圖片,獲取更高精度的相機內、外參數,不足的是,該方法沒有擴展到對待測圖像的非線性畸變校正及目標物的測量中。參考文獻:[1]賀若飛,田雪濤,劉宏娟,等.基于蒙特卡羅卡爾曼濾波的無人機目標定位方法[J].西北工業大學學報,2017,35(3):435-441.[2]LinF,DongX,ChenBM,etal.ARobustReal-TimeEmbeddedVisionSystemonanUnmannedRotorcraftforGroundTargetFollowing[J].IEEETransonIndustrialElectronics,2012,59(2):1038-1049.[3]張琬琳,胡正良,朱建軍,等.單兵綜合觀瞄儀中的一種目標位置解算方法[J].電子測量技術,2014,37(11):1-3.[4]孫俊靈,孫光民,馬鵬閣,等.基于對稱小波降噪及非對稱高斯擬合的激光目標定位[J].中國激光,2017,44(6):178-185.[5]石杰,李銀伢,戚國慶,等.不完全測量下基于機器視覺的被動跟蹤算法[J].華中科技大學學報,2017,45(6):33-37.[6]徐誠,黃大慶,孔繁鏘.一種小型無人機無源目標定位及精度分析[J].儀器儀表學報,2015,36(5):1115-1122.[7]李可宏,姜靈敏,龔永義.2維至3維圖像/視頻轉換的圖像深度提取方法綜述[J].中國圖象圖形學報,2014,19(10):1393-1406.[8]王浩,許志聞,謝坤,等.基于OpenCV的雙目測距系統[J].吉林大學學報,2014,32(2):188-194.[9]SunW,ChenL,HuB,eta1.Binocularvision-basedpositiondeterminationalgorithmandsystem[C]//Proceedingsofthe2012InternationalConferenceonComputerDistributedControlandIntelligentEnvironmentalMonitoring.Piscataway:IEEEComputerSociety,2012:170-173.[10]IkeuchiK.Determiningadepthmapusingadualphotometricstereo[J].TheInternationalJournalofRoboticsResearch,1987,6(1):15-31.[11]ShaoM,SimehonyT,ChellappaR.Newalgorithmsfromreconstructionofa3-ddepthmapfromoneormoreimages[C]//ProceedingsofCVPR’88.AnnArbor:IEEE,1988:530-535.[12]MatthiesL,KanadeT,SzeliskiR.Kalmanfilter-basedalgorithmsforestimatingdepthfromimagesequences[J].InternationalJournalofComputerVision,1989,3(3):209-238.[13]MathiesL,SzeliskiR,KanadeT.Incrementalestimationofdensedepthmapsfromimagesequence[C]//ProceedingsofCVPR’88.AnnArbor:IEEE,1988:366-374.[14]MoriT,YamamotoM.Adynamicdepthextractionmethod[C]//ProceedingsofThirdInternationalConferenceonComputerVision.Osaka:IEEE,1990∶672-676.[15]InoueH,TachikawaT,InabaM.Robotvisionsystemwithacorrelationchipforreal-timetracking,opticalflowanddepthmapgeneration[C]//ProceedingofRoboticsandAutomation.Nice:IEEE,1992:1621-1626.[16]胡天翔,鄭加強,周宏平.基于雙目視覺的樹木圖像測距方法[J].農業機械學報,2010,41(11):158-162.[17]于乃功,黃燦,林佳.基于單目視覺的機器人目標定位測距方法研究[J].計算機測量與控制,2012,20(10):2654-2660.[18]吳剛,唐振民.單目式自主機器人視覺導航中本文檔來自技高網...

    【技術保護點】
    1.一種基于單目視覺的優化的深度提取和被動測距方法,其特征在于包括如下步驟:步驟一:對手機相機進行標定,獲取相機內部參數和圖像分辨率采用張正友標定法,并引入改進的帶有非線性畸變項的標定模型對相機內部參數進行校正首先設定像平面上每個像素的物理尺寸大小為dx*dy,圖像坐標系(x,y)原點在像素坐標系(u,v)中的坐標為(u0,v0),(x,y)是實際圖像中像點歸一化的坐標,圖像中任意像素在兩個坐標系中滿足如下關系:

    【技術特征摘要】
    1.一種基于單目視覺的優化的深度提取和被動測距方法,其特征在于包括如下步驟:步驟一:對手機相機進行標定,獲取相機內部參數和圖像分辨率采用張正友標定法,并引入改進的帶有非線性畸變項的標定模型對相機內部參數進行校正首先設定像平面上每個像素的物理尺寸大小為dx*dy,圖像坐標系(x,y)原點在像素坐標系(u,v)中的坐標為(u0,v0),(x,y)是實際圖像中像點歸一化的坐標,圖像中任意像素在兩個坐標系中滿足如下關系:fx、fy為x軸和y軸上的歸一化焦距,相機坐標系中任一點Pc(Xc,Yc,Zc)投影到圖像坐標系上為(xc,yc,f),圖像坐標系平面與光軸z軸垂直,與原點距離為f,根據相似三角形原理可以得出:引入所述改進的帶有非線性畸變項的標定模型,包括由于鏡頭形狀缺陷造成的徑向畸變和由于光學系統存在不同程度的偏心造成的切向畸變,徑向畸變數學模型為:其中r2=x2+y2,(x’,y’)為矯正后不含畸變項的理想線性相機坐標系的歸一化坐標值,徑向畸變值與圖像點在圖像中的位置有關,圖像邊緣處的徑向畸變值較大,切向畸變數學模型為:其中包含k1、k2、k3、p1、p2共5個非線性畸變系數,由公式(3)、(4)得畸變矯正函數模型如下:從世界坐標變換到相機坐標轉換存在如下關系:Pc=R·(PW-C)=R·PW+T(6)結合式(1)~(6),用齊次坐標與矩陣形式可表示為:Mint、Mext分別是相機標定內、外參數矩陣,其中相機內部參數包括圖像中心點像素值u0、v0,fx、fy為x軸和y軸上的歸一化焦距、通過Java結合OpenCV實現手機相機標定,獲取手機相機所述的內部參數、相機鏡頭畸變參數和圖像分辨率vmax、umax;步驟二:建立深度提取模型根據目標物成像角度α與縱坐標像素值v之間的線性關系設定抽象函數,建立含目標物成像角度α、縱坐標像素值v和相機旋轉角β三個參數空間關系模型,即α=F(v,β),不同型號的設備和相機旋轉角度下,被拍攝物體縱坐標像素值與成像角度均呈極顯著負線性相關關系,且該線性關系的斜率與截距有所不同,故設:α=F(v,β)=a·v+b(17)其中參數a、b均與相機型號和相機旋轉角度有關,當α取最小值α=αmin=90-θ-β時,θ為相機垂直視場角的一半,即被拍攝物體投影到圖片最底端時,v=vmax(vmax為相機CMOS或CCD圖像傳感器列坐標有效像素數),代入式(17)可得:90-β-θ=a·vmax+b(18)當αmin+2θ>90°,即θ>β時,此時相機上視角高于水平線,...

    【專利技術屬性】
    技術研發人員:徐愛俊武新梅,周素茵,
    申請(專利權)人:浙江農林大學
    類型:發明
    國別省市:浙江,33

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 中文AV人妻AV无码中文视频 | 无码福利一区二区三区| 免费无码黄网站在线观看| 亚洲人成影院在线无码观看| 久久影院午夜理论片无码| 亚洲综合无码一区二区三区| 激情无码人妻又粗又大| 久久亚洲精品成人无码网站| julia无码人妻中文字幕在线| 人妻中文字系列无码专区| 国产又爽又黄无码无遮挡在线观看 | 亚洲?V无码成人精品区日韩 | 永久免费无码日韩视频| 亚洲av无码一区二区三区天堂古代| 无码人妻少妇久久中文字幕| 免费无码AV电影在线观看| 色窝窝无码一区二区三区成人网站| 无码日韩人妻AV一区二区三区| 亚洲真人无码永久在线观看| 久久老子午夜精品无码怎么打 | 亚洲AV无码日韩AV无码导航| 不卡无码人妻一区三区音频| 久久久精品人妻无码专区不卡| 国产精品亚洲专区无码牛牛| 亚洲a∨无码一区二区| 亚洲AV无码精品蜜桃| 久久久久亚洲AV无码专区首JN| 亚洲av永久无码制服河南实里| 久久av高潮av无码av喷吹| 日韩无码系列综合区| 真人无码作爱免费视频| 日韩夜夜高潮夜夜爽无码| 亚洲AV无码专区在线厂| 日韩精品无码人妻免费视频| 亚洲精品无码久久久久A片苍井空 亚洲精品无码久久久久YW | 成人毛片无码一区二区| 无码人妻丰满熟妇区毛片18| 中文AV人妻AV无码中文视频| 无码Aⅴ在线观看| 国产精品va在线观看无码| 亚洲一本大道无码av天堂 |