• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于分塊的自適應(yīng)相關(guān)目標定位方法技術(shù)

    技術(shù)編號:20004973 閱讀:35 留言:0更新日期:2019-01-05 17:40
    本發(fā)明專利技術(shù)公開了一種基于分塊的自適應(yīng)相關(guān)目標定位方法,包括:S1、獲取初始幀目標模板,對所述初始幀目標模板中多個模板小塊進行初始化;S2、對所述初始幀目標模板進行降采樣,得到采樣模板;S3、根據(jù)所述采樣模板對當前圖像的目標進行粗定位,得到目標粗定位位置;S4、根據(jù)所述粗定位位置得到當前圖像的當前幀小塊;S5、根據(jù)聚類投票算法對所述當前幀小塊進行處理,得到目標的精確中心。本發(fā)明專利技術(shù)的基于分塊的自適應(yīng)相關(guān)目標定位方法基于分塊進行單連接層次凝聚聚類,能夠精確定位待跟蹤目標的中心,并且計算量小,計算速度快。

    A Block-based Adaptive Correlated Target Location Method

    The invention discloses an adaptive correlation target location method based on block, which includes: S1, acquiring the initial frame target template, initializing multiple template blocks in the initial frame target template; S2, downsampling the initial frame target template to obtain the sampling template; S3, roughly locating the target of the current image according to the sampling template, and obtaining the target roughness. Location position; S4, get the current frame block of the current image according to the rough location; S5, process the current frame block according to the clustering voting algorithm, and get the precise center of the target. The method of adaptive correlation target localization based on block is based on single connection hierarchical agglomeration clustering, which can accurately locate the center of the target to be tracked, and has low computational complexity and fast computational speed.

    【技術(shù)實現(xiàn)步驟摘要】
    一種基于分塊的自適應(yīng)相關(guān)目標定位方法
    本專利技術(shù)屬于圖像處理領(lǐng)域,具體涉及一種基于分塊的自適應(yīng)相關(guān)目標定位方法。
    技術(shù)介紹
    相關(guān)跟蹤算法是一種模板類算法,它將包含目標的圖像作為模板在序列圖像上以不同的偏移值位移,根據(jù)相關(guān)函數(shù)逐象素計算模板圖像和實時圖像間的相似程度,最終使得相關(guān)函數(shù)取得最大值的位置就是目標位置。相關(guān)跟蹤無需對圖像進行分割和特征提取處理,而只在原始圖像數(shù)據(jù)上進行運算,從而保留了圖像的全部信息,能適應(yīng)復(fù)雜結(jié)構(gòu)的目標和背景,有較強的抗局部干擾能力,而且對目標的局部變化不敏感,在許多復(fù)雜環(huán)境場景中是一種切實可行的跟蹤測量方法。因此,很多實際跟蹤系統(tǒng)都采用這種方法。具體的,該算法是把一個預(yù)先存儲的目標模板作為識別和確定目標位置的依據(jù),然后將目標模板在實時圖像上以不同的偏移值位移,根據(jù)相關(guān)函數(shù)逐象素計算模板圖像和實時圖像間的相似程度,相關(guān)函數(shù)取得最大值的位置就是目標位置。本方案選取的相關(guān)函數(shù)為歸一化互相關(guān)(NormalizedCrossCorrelation,簡稱NCC),是一種經(jīng)典的相關(guān)匹配算法,使用歸一化互相關(guān)系數(shù)(即兩幅圖像各相應(yīng)像素的灰度值乘積的平均值)來衡量兩幅圖像的相似程度。其計算公式一般有以下兩種方式:其中,上述兩個公式的區(qū)別在于:下面的公式進行了去均值處理,能很好地適應(yīng)光照變化。計算得出的歸一化互相關(guān)系數(shù)的值越大表示兩幅圖像越相似,反之其值越小說明兩幅圖像的相似程度越低。因此互相關(guān)最大時的搜索窗口位置就是模板圖像在待匹配圖像中的位置。具體過程如下:如圖1所示,設(shè)目標模板圖像T的大小為M×M,當前幀圖像中待搜索區(qū)域S的大小為N×N,T在S上逐像素平移,模板覆蓋下的區(qū)域稱為子圖Sij,其中(i,j)為子圖左上角的像點在S圖中的坐標,這里稱之為參考點,其取值范圍為(N-M+1)>i>1,(N-M+1)>j>1。根據(jù)相關(guān)函數(shù)計算每一幅子圖與模板T的相似程度:式中,c(T)為模板圖像的均值,c(S)為在以(m,n)為起點大小為i×j區(qū)域的均值,模板尺寸為M×M。通過上式計算得到匹配范圍內(nèi)各像素點(i,j)處的R(i,j)值,互相關(guān)系數(shù)R(i,j)值最大時的搜索窗口位置決定了模板圖像在待匹配圖像中的位置。NCC算法具有很高的準確性和適應(yīng)性,對圖像灰度值的線性變換具有“免疫性”,即所求的NCC值不受灰度值的線性變換的影響。但是其缺點也是比較明顯的,主要存在以下缺點:(1)考慮到圖像中的自相關(guān)值都比較大,因此在互相關(guān)計算過程中,相似度形成以模板存在的真實位置為中心的平緩的峰,往往無法檢測到準確的尖峰位置,使得確定模板的準確位置很難;(2)采用固定大小的模板,使得算法對于尺度即旋轉(zhuǎn)變化的適應(yīng)性變差,不能及時更新到目標的真實大小和方向,造成目標最終的漂移甚至丟失;(3)當模板或者待檢測圖像太大時,導致計算量很大,實時性差。
    技術(shù)實現(xiàn)思路
    為了解決現(xiàn)有技術(shù)中存在的上述問題,本專利技術(shù)提供了一種基于分塊的自適應(yīng)相關(guān)目標定位方法。本專利技術(shù)要解決的技術(shù)問題通過以下技術(shù)方案實現(xiàn):本專利技術(shù)實施例提供了一種基于分塊的自適應(yīng)相關(guān)目標定位方法,包括:S1、獲取初始幀目標模板,對所述初始幀目標模板中多個模板小塊進行初始化;S2、對所述初始幀目標模板進行降采樣,得到采樣模板;S3、根據(jù)所述采樣模板對當前圖像的目標進行粗定位,得到目標粗定位位置;S4根據(jù)所述粗定位位置得到當前圖像的當前幀小塊;S5、根據(jù)聚類投票算法對所述當前幀小塊進行處理,得到目標的精確中心。在一個具體實施方式中,所述步驟S1包括:S11、對所述初始幀目標模板中預(yù)定區(qū)域進行特征點提取,得到多個第一特征點;S12、根據(jù)所述第一特征點得到對應(yīng)的所述模板小塊;S13、計算任意兩個第一特征點之間的相對距離和相對角度,得到任意兩個所述預(yù)定目標塊之間的相對距離和相對角度。在一個具體實施方式中,所述步驟S12包括:以每個所述第一特征點為中心,采樣第一尺寸的區(qū)域作為所述模板小塊。在一個具體實施方式中,所述步驟S2包括:若判斷所述初始幀目標模板大小大于預(yù)定尺寸,則將所述初始幀目標模板降采樣到所述預(yù)定尺度。在一個具體實施方式中,所述步驟S3包括:將上一幀目標位置的3-4倍鄰域作為搜索區(qū)域進行采樣,在采樣窗口中采用初始幀目標模板進行滑動匹配,獲取當前圖像中互相關(guān)系數(shù)最大的位置作為所述目標粗定位位置。在一個具體實施方式中,所述步驟S4包括:S41、以所述目標粗定位位置為中心的第二區(qū)域進行特征點提取,得到多個第二特征點;S42、以每個所述第二特征點為中心,采樣第二尺寸的區(qū)域作為待匹配區(qū)域;S43、使用每個所述模板小塊分別在每個所述待匹配區(qū)域使用互相關(guān)算法計算互相關(guān)系數(shù),記錄與所述待匹配區(qū)域匹配時的所述模板小塊的最佳匹配位置和最大匹配互相關(guān)系數(shù);S44、判斷每個所述待匹配區(qū)域中的最大互相關(guān)系數(shù)是否大于預(yù)定系數(shù),若否,則刪除該匹配區(qū)域,若是,則保留該最大互相關(guān)系數(shù)作為該待匹配區(qū)域的最大互相關(guān)系數(shù);S45、將保留的待匹配區(qū)域中最大互相關(guān)系數(shù)對應(yīng)的位置作為中心,采樣第一尺寸的區(qū)域作為當前圖像的當前幀小塊。在一個具體實施方式中,所述步驟S45之后還包括:S406、計算當前幀中兩兩當前幀小塊的相對距離;S407、計算與每個所述兩兩當前幀小塊的相對距離對應(yīng)的預(yù)定目標塊之間的相對距離的比值,得到尺度因子;S408、對每個所述尺度因子進行排序,選擇排序后的中間值為目標尺度估計結(jié)果。在一個具體實施方式中,所述步驟S45之后還包括:S416、計算當前幀中兩兩當前幀小塊的相對角度;S417、計算與每個所述兩兩當前幀小塊的相對角度對應(yīng)的預(yù)定目標塊之間的相對角度的差值,得到旋轉(zhuǎn)因子;S418、對每個所述旋轉(zhuǎn)因子進行排序,選擇排序后的中間值為目標旋轉(zhuǎn)角度估計結(jié)果。在一個具體實施方式中,所述步驟S5包括:S51、計算所述當前幀小塊的中心點位置與所述模板小塊中心點位置構(gòu)成的向量;S52、計算兩兩向量之間的向量距離,并對所述向量距離進行排序;S53、判斷所述向量距離小于預(yù)定距離時,對所述當前幀小塊進行聚類,得到多個類;S54、將聚類后的每個類中的幀小塊的中心點的坐標值的均值作為目標中心點,得到目標的精確中心。與現(xiàn)有技術(shù)相比,本專利技術(shù)的有益效果:1、本專利技術(shù)的基于分塊的自適應(yīng)相關(guān)目標定位方法基于分塊進行單連接層次凝聚聚類,能夠精確定位待跟蹤目標的中心,并且計算量小,計算速度快。2、本專利技術(shù)基于分塊的自適應(yīng)相關(guān)目標定位方法能能夠評估目標分塊的尺度變化和旋轉(zhuǎn)角度變化,增強了算法的自適應(yīng)性,進一步提高了跟蹤性能。附圖說明圖1為現(xiàn)有技術(shù)的歸一化互相關(guān)算法搜索方法示意圖;圖2為本專利技術(shù)實施例提供的一種基于分塊的自適應(yīng)相關(guān)目標定位方法流程圖。具體實施方式下面結(jié)合具體實施例對本專利技術(shù)做進一步詳細的描述,但本專利技術(shù)的實施方式不限于此。實施例一請參見圖2,圖2為本專利技術(shù)實施例提供的一種基于分塊的自適應(yīng)相關(guān)目標定位方法流程圖,包括:S1、獲取初始幀目標模板,對所述初始幀目標模板中多個模板小塊進行初始化;S2、對所述初始幀目標模板進行降采樣,得到采樣模板;S3、根據(jù)所述采樣模板對當前圖像的目標進行粗定位,得到目標粗定位位置;S4根據(jù)所述粗定位位置得到當前圖像的當前幀小塊;S5、根據(jù)聚類投票算法對所述當前幀小塊進行處理,得到目標的精確中心。在一個具體實施方式中本文檔來自技高網(wǎng)
    ...

    【技術(shù)保護點】
    1.一種基于分塊的自適應(yīng)相關(guān)目標定位方法,其特征在于,包括:S1、獲取初始幀目標模板,對所述初始幀目標模板中多個模板小塊進行初始化;S2、對所述初始幀目標模板進行降采樣,得到采樣模板;S3、根據(jù)所述采樣模板對當前圖像的目標進行粗定位,得到目標粗定位位置;S4、根據(jù)所述粗定位位置得到當前圖像的當前幀小塊;S5、根據(jù)聚類投票算法對所述當前幀小塊進行處理,得到目標的精確中心。

    【技術(shù)特征摘要】
    1.一種基于分塊的自適應(yīng)相關(guān)目標定位方法,其特征在于,包括:S1、獲取初始幀目標模板,對所述初始幀目標模板中多個模板小塊進行初始化;S2、對所述初始幀目標模板進行降采樣,得到采樣模板;S3、根據(jù)所述采樣模板對當前圖像的目標進行粗定位,得到目標粗定位位置;S4、根據(jù)所述粗定位位置得到當前圖像的當前幀小塊;S5、根據(jù)聚類投票算法對所述當前幀小塊進行處理,得到目標的精確中心。2.根據(jù)權(quán)利要求1所述的基于分塊的自適應(yīng)相關(guān)目標定位方法,其特征在于,所述步驟S1包括:S11、對所述初始幀目標模板中預(yù)定區(qū)域進行特征點提取,得到多個第一特征點;S12、根據(jù)所述第一特征點得到對應(yīng)的所述模板小塊;S13、計算任意兩個第一特征點之間的相對距離和相對角度,得到任意兩個所述預(yù)定目標塊之間的相對距離和相對角度。3.根據(jù)權(quán)利要求2所述的基于分塊的自適應(yīng)相關(guān)目標定位方法,其特征在于,所述步驟S12包括:以每個所述第一特征點為中心,采樣第一尺寸的區(qū)域作為所述模板小塊。4.根據(jù)權(quán)利要求2所述的基于分塊的自適應(yīng)相關(guān)目標定位方法,其特征在于,所述步驟S2包括:若判斷所述初始幀目標模板大小大于預(yù)定尺寸,則將所述初始幀目標模板降采樣到所述預(yù)定尺度。5.根據(jù)權(quán)利要求2所述的基于分塊的自適應(yīng)相關(guān)目標定位方法,其特征在于,所述步驟S3包括:將上一幀目標位置的3-4倍鄰域作為搜索區(qū)域進行采樣,在采樣窗口中采用初始幀目標模板進行滑動匹配,獲取當前圖像中互相關(guān)系數(shù)最大的位置作為所述目標粗定位位置。6.根據(jù)權(quán)利要求5所述的基于分塊的自適應(yīng)相關(guān)目標定位方法,其特征在于,所述步驟S4包括:S41、以所述目標粗定位位置為中心的第二區(qū)域進行特征點提取,得到多個第二特征點;S42、以每個所述第二特征點為中心,采樣第二尺...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:邵曉鵬劉飛俱青郝璐璐李先通趙小明
    申請(專利權(quán))人:西安電子科技大學
    類型:發(fā)明
    國別省市:陜西,61

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 真人无码作爱免费视频| 亚洲一级Av无码毛片久久精品| 亚洲第一极品精品无码久久 | 精品国产毛片一区二区无码| 国内精品久久久久久无码不卡| 国产亚洲精品无码成人 | 精品成在人线AV无码免费看| 亚洲精品无码AV中文字幕电影网站| 精品无码无人网站免费视频| 免费无码又爽又刺激高潮| 无码丰满少妇2在线观看| 亚洲精品无码AV中文字幕电影网站| 无码粉嫩小泬无套在线观看| 国产爆乳无码一区二区麻豆| 国产成年无码久久久久下载| 亚洲一本到无码av中文字幕| 无码人妻AV免费一区二区三区| 久久无码AV中文出轨人妻| 人妻在线无码一区二区三区| 亚洲AV无码乱码在线观看代蜜桃| 四虎影视无码永久免费| av色欲无码人妻中文字幕| 亚洲爆乳AAA无码专区| 免费人妻无码不卡中文字幕系| 亚洲国产成人片在线观看无码| 日韩AV无码一区二区三区不卡毛片 | 人妻无码精品久久亚瑟影视| 免费A级毛片无码无遮挡内射 | 亚洲欧洲无码一区二区三区| 久久人妻av无码中文专区| 久久久久亚洲av无码专区蜜芽| 一本一道AV无码中文字幕| 中文字幕无码免费久久9一区9 | 亚洲精品午夜无码专区| 亚洲欧洲自拍拍偷午夜色无码| 国产午夜精品无码| 无码aⅴ精品一区二区三区浪潮| 无码国内精品人妻少妇| 精品无码人妻一区二区三区| 日日摸日日碰夜夜爽无码| AV无码人妻中文字幕|