• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于部位分割的人體再識別方法技術

    技術編號:15691477 閱讀:86 留言:0更新日期:2017-06-24 04:43
    一種基于部位分割的人體再識別方法。其包括圖像數據獲取、粗識別和細識別等步驟。本發明專利技術效果:現代人衣服款式顏色多種多樣,衣袖的顏色往往和軀干部分的顏色不一樣,大腿和小腿處的褲子的顏色也會不一樣。且在監控攝像頭中,頭部信息一般較為細微,不易找到區分度大的特征,而腳部偏小,不易采集?;谝陨峡紤],把人體除頭以外,分割為:軀干、左/右上臂、左/右下臂、左/右大腿、左/右小腿共9個部位進行再識別具有較高的識別率。粗識別可以提取出與查詢集顏色相近的候選集人體,但無法縮小搜索范圍。在粗識別的基礎上,對于軀干部位圖像,使用投影法可以提取出軀干部位的圖案及圖案的位置信息,進一步提高了識別率。

    Human re recognition method based on position segmentation

    Human re recognition method based on position segmentation. It includes the steps of image data acquisition, rough identification and fine identification. The effect of the invention is that the clothes and styles of the modern people are varied, and the color of the sleeves is often different from the color of the trunk parts, and the color of the trousers at the thighs and the legs is also different. And in the surveillance camera, the head information is generally more subtle, it is difficult to find the characteristics of large division, and the foot is too small to be easily collected. Based on the above considerations, the human body was divided into 9 parts: the trunk, left / right upper arm, left / right lower arm, left / right thigh, left / right leg, and the recognition rate was higher. Rough recognition can extract candidate sets with similar color of the query set, but it can not narrow the search range. On the basis of rough recognition, the projection method can be used to extract the position information of the pattern and the pattern of the torso, so that the recognition rate is further improved.

    【技術實現步驟摘要】
    基于部位分割的人體再識別方法
    本專利技術屬于計算機視覺與圖像處理
    ,特別是涉及一種基于部位分割的人體再識別方法。
    技術介紹
    隨著計算機視覺技術的快速發展,由于人體再識別具有非接觸性的特點,因此在公共安全、醫療保健、刑事偵查等方面有著廣闊的應用前景。人體再識別作為行人姿態、動作、行為識別等高層應用的基礎,具有重要的研究意義。目前的人體再識別研究主要有兩個方向:(1)基于特征表示的方法。雖然該類方法在一定程度可以提高再識別的準確性,但是僅從整體特性考慮人體目標,缺少了對人體目標的空間約束性信息。(2)基于距離度量學習的方法。該類方法中距離函數的性能好壞與樣本的選取息息相關。當具有足夠多的樣本時,學習出的距離函數才能夠普遍適用于多種環境下的再識別問題。而在樣本數過少時,會出現過擬合現象。另外,實際操作時,訓練數據樣本需要人工標注,因此會消耗大量的人工時間成本?;诓课环指畹娜梭w再識別屬于上述第二種方法。該方法利用在再識別前做了大量的部位分割篩選的初期工作,能夠較快速、準確地再識別出目標人體。正因為圖像采集的同時需要處理和篩選且實時性要求較高,因此需要具有較高圖像計算復雜度的微機系統。FarenzenaM,BazzaniL,PerinaA等[PersonRe-identificationbySymmetry-drivenAccumulationofLocalFeatures[C].IEEEConferenceonComputerVisionandPatternRecognition(CVPR),2010:2360–2367]將視頻圖像中人體除頭部以外分為四個區域,分別提取并融合加權HSV直方圖特征、最大穩定顏色區域(MSCR)和高頻復雜結構塊(RHSP)三種特征來判斷是否是同一個人。該方法區域分割簡單,但是魯棒性較差,沒有深層次地挖掘短間隔內多幀圖像之間的區別。中國專利公開號CN105303152A中公開了一種將人體尺度空間劃分與顏色通道結合來進行人體再識別的方法。每個顏色通道根據人體尺度空間劃分的多層圖像區域進行空間直方圖計算。但多個顏色通道級聯形成多通道空間直方圖時受復雜多變的環境背景的影響較大,從而造成識別率低。
    技術實現思路
    為了解決上述問題,本專利技術的目的在于提供一種基于部位分割的人體再識別方法。為了達到上述目的,本專利技術提供的基于部位分割的人體再識別方法包括按順序進行的下列步驟:1)圖像數據獲?。菏紫壤肒inect攝像頭采集待檢測場景的多幀圖像,然后從上述圖像中提取出人體前景圖像,去噪后依次按部位分割成部位圖像并篩選、保存;將所有需查詢的人體部位圖像保存為查詢集,所有采集到的人體部位圖像保存為候選集,并將采集到的人體部位圖像按圖像序號和部位進行保存;2)粗識別:將需查詢的人體目標部位圖像和候選集中所有人體部位圖像從RGB顏色空間轉換到HSV顏色空間,之后獲得顏色直方圖,然后使用EMD(地球移動距離)度量顏色直方圖間的相似性,并根據部位和拍攝角度的不同分配不同的權重,最后得到人體目標與候選集所有人體之間的總體EMD值并從小到大進行排序;3)細識別:選取上述粗排序中排名前50%的候選集中人體數據,通過人體軀干部位衣物上的圖案紋理及圖案紋理位置的不同,將軀干部位圖像在垂直、水平方向上分別投影,再分別計算人體目標與候選集中人體軀干部位垂直和水平方向上投影的皮爾遜相關系數,在粗排序的基礎上進行細排序,最后由人工在細排序后的結果中尋找出目標人體。在步驟1)中,所述的圖像數據獲取方法的具體步驟如下:1.2)前景提取1.1.1)利用微軟Kinect深度攝像頭和彩色攝像頭分別采集待分析場景的多幀深度圖像和RGB彩色圖像;1.1.2)將上述深度圖像中的每一像素用2個字節,共16位表示,其中前13位表示該像素的深度值,后3位表示人體索引號,每一個在Kinect攝像頭視界中的人體都會被分配一個不同的索引號,如果后3位全部為0,則表示不是人體;1.1.3)將深度圖像上屬于人體區域的相應像素通過坐標映射對應到彩色坐標系下的彩色圖像上;1.1.4)在彩色圖像上提取出從深度圖像上映射來的人體前景像素,并復制到創建的空畫布上而得到人體前景圖像,由此實現人體前景提取;1.2)圖像去噪使用開運算進行人體前景圖像去噪,開運算單元選用9×9的方形算子;1.3)基于深度骨骼點部位分割1.3.1)坐標變換:將攝像頭坐標系下的骨骼節點映射到彩色坐標系下,由此實現攝像頭坐標系、深度坐標系、彩色坐標系的統一;1.3.2)繪制旋轉矩形:選取人體前景圖像某部位上的兩個骨骼節點P1、P2,以此兩節點間的距離為旋轉矩形的長,記為a;除了軀干部位的寬度設為長的2/3,其它部位寬度均設為長的1/2,記為b;兩個骨骼節點P1、P2坐標的中點設為旋轉矩形的旋轉中心O,以兩個骨骼節點P1、P2的連線與水平面的夾角為旋轉角θ繪出旋轉矩形;按此繪制方法在人體前景圖像上畫出除頭部和腳部之外的多個旋轉矩形;1.3.3)提取通過步驟1.3.2)獲取到的每一旋轉矩形的4個角坐標,記為p1(x1,y1),p2(x2,y2),p3(x3,y3),p4(x4,y4),再判斷4個角的x坐標x1,x2,x3,x4和y坐標y1,y2,y3,y4的最大及最小值;將x和y坐標的最大最小值分別記為:xmax,xmin和ymax,ymin,得到旋轉矩形最小外接矩形的4個角坐標,記為q1(xmin,ymin),q2(xmax,ymin),q3(xmax,ymax),q4(xmin,ymax);1.3.4)根據步驟1.3.3)得到的旋轉矩形的最小外接矩形4個角的坐標遍歷人體前景圖像,分割出的最小外接矩形內的像素即為人體部位,記為Part1,Part2,···,Part9,分別表示軀干,右上臂,右下臂,左上臂,左下臂,右大腿,右小腿,左大腿,左小腿;1.5)多幀部位圖像評分部位圖像評分使用以下3項指標:(1)非白色背景區域占整幅部位圖像的比值具體步驟為:1.4.1)設背景部分為sum1,前景部分為sum2,并都初始化為0;1.4.2)遍歷部位圖像,判斷紅綠藍三顏色通道每一個像素是否為白色(255,255,255),是則sum1+1,否則sum2+1;設前景部分占整幅部位圖像的比值為Δ,計算公式為:(2)人體目標在Kinect攝像頭視界中的總偏移度人體目標在Kinect攝像頭視界中在攝像頭坐標系下X,Y,Z方向上的角度差分別記為α,β,γ,設總偏移度為χ,計算公式為:(3)部位圖像清晰度采用均方誤差法來判斷該部位圖像質量的好壞;均方誤差法首先計算原始理想部位圖像和失真部位圖像像素差值的均方值MSE,然后通過均方值的大小來確定失真部位圖像的失真程度,計算公式為:其中M,N分別為部位圖像的長和寬,fij表示原始理想部位圖像的像素值,設為1,fij'表示實際拍攝的部位圖像的像素值,歸一化為(0,1);將上述三項指標值分別乘以不同的權重,得到總體評分K,計算公式為:最后將人體每一部位圖像均取總體評分K最高的加以保存,其中,將所有需查詢的人體部位圖像保存為查詢集,所有采集到的人體部位圖像保存為候選集,并將采集到的人體部位圖像按圖像序號和部位進行保存;1.5)將部位圖像尺寸分類歸一化將候選集中所有同一部位圖本文檔來自技高網
    ...
    基于部位分割的人體再識別方法

    【技術保護點】
    一種基于部位分割的人體再識別方法,其特征在于:所述的基于部位分割的人體再識別方法包括按順序進行的下列步驟:1)圖像數據獲?。菏紫壤肒inect攝像頭采集待檢測場景的多幀圖像,然后從上述圖像中提取出人體前景圖像,去噪后依次按部位分割成部位圖像并篩選、保存;將所有需查詢的人體部位圖像保存為查詢集,所有采集到的人體部位圖像保存為候選集,并將采集到的人體部位圖像按圖像序號和部位進行保存;2)粗識別:將需查詢的人體目標部位圖像和候選集中所有人體部位圖像從RGB顏色空間轉換到HSV顏色空間,之后獲得顏色直方圖,然后使用EMD(地球移動距離)度量顏色直方圖間的相似性,并根據部位和拍攝角度的不同分配不同的權重,最后得到人體目標與候選集所有人體之間的總體EMD值并從小到大進行排序;3)細識別:選取上述粗排序中排名前50%的候選集中人體數據,通過人體軀干部位衣物上的圖案紋理及圖案紋理位置的不同,將軀干部位圖像在垂直、水平方向上分別投影,再分別計算人體目標與候選集中人體軀干部位垂直和水平方向上投影的皮爾遜相關系數,在粗排序的基礎上進行細排序,最后由人工在細排序后的結果中尋找出目標人體。

    【技術特征摘要】
    1.一種基于部位分割的人體再識別方法,其特征在于:所述的基于部位分割的人體再識別方法包括按順序進行的下列步驟:1)圖像數據獲?。菏紫壤肒inect攝像頭采集待檢測場景的多幀圖像,然后從上述圖像中提取出人體前景圖像,去噪后依次按部位分割成部位圖像并篩選、保存;將所有需查詢的人體部位圖像保存為查詢集,所有采集到的人體部位圖像保存為候選集,并將采集到的人體部位圖像按圖像序號和部位進行保存;2)粗識別:將需查詢的人體目標部位圖像和候選集中所有人體部位圖像從RGB顏色空間轉換到HSV顏色空間,之后獲得顏色直方圖,然后使用EMD(地球移動距離)度量顏色直方圖間的相似性,并根據部位和拍攝角度的不同分配不同的權重,最后得到人體目標與候選集所有人體之間的總體EMD值并從小到大進行排序;3)細識別:選取上述粗排序中排名前50%的候選集中人體數據,通過人體軀干部位衣物上的圖案紋理及圖案紋理位置的不同,將軀干部位圖像在垂直、水平方向上分別投影,再分別計算人體目標與候選集中人體軀干部位垂直和水平方向上投影的皮爾遜相關系數,在粗排序的基礎上進行細排序,最后由人工在細排序后的結果中尋找出目標人體。2.根據權利要求1所述的基于部位分割的人體再識別方法,其特征在于:在步驟1)中,所述的圖像數據獲取方法的具體步驟如下:1.1)前景提取1.1.1)利用微軟Kinect深度攝像頭和彩色攝像頭分別采集待分析場景的多幀深度圖像和RGB彩色圖像;1.1.2)將上述深度圖像中的每一像素用2個字節,共16位表示,其中前13位表示該像素的深度值,后3位表示人體索引號,每一個在Kinect攝像頭視界中的人體都會被分配一個不同的索引號,如果后3位全部為0,則表示不是人體;1.1.3)將深度圖像上屬于人體區域的相應像素通過坐標映射對應到彩色坐標系下的彩色圖像上;1.1.4)在彩色圖像上提取出從深度圖像上映射來的人體前景像素,并復制到創建的空畫布上而得到人體前景圖像,由此實現人體前景提??;1.2)圖像去噪使用開運算進行人體前景圖像去噪,開運算單元選用9×9的方形算子;1.3)基于深度骨骼點部位分割1.3.1)坐標變換:將攝像頭坐標系下的骨骼節點映射到彩色坐標系下,由此實現攝像頭坐標系、深度坐標系、彩色坐標系的統一;1.3.2)繪制旋轉矩形:選取人體前景圖像某部位上的兩個骨骼節點P1、P2,以此兩節點間的距離為旋轉矩形的長,記為a;除了軀干部位的寬度設為長的2/3,其它部位寬度均設為長的1/2,記為b;兩個骨骼節點P1、P2坐標的中點設為旋轉矩形的旋轉中心O,以兩個骨骼節點P1、P2的連線與水平面的夾角為旋轉角θ繪出旋轉矩形;按此繪制方法在人體前景圖像上畫出除頭部和腳部之外的多個旋轉矩形;1.3.3)提取通過步驟1.3.2)獲取到的每一旋轉矩形的4個角坐標,記為p1(x1,y1),p2(x2,y2),p3(x3,y3),p4(x4,y4),再判斷4個角的x坐標x1,x2,x3,x4和y坐標y1,y2,y3,y4的最大及最小值;將x和y坐標的最大最小值分別記為:xmax,xmin和ymax,ymin,得到旋轉矩形最小外接矩形的4個角坐標,記為q1(xmin,ymin),q2(xmax,ymin),q3(xmax,ymax),q4(xmin,ymax);1.3.4)根據步驟1.3.3)得到的旋轉矩形的最小外接矩形4個角的坐標遍歷人體前景圖像,分割出的最小外接矩形內的像素即為人體部位,記為Part1,Part2,···,Part9,分別表示軀干,右上臂,右下臂,左上臂,左下臂,右大腿,右小腿,左大腿,左小腿;1.4)多幀部位圖像評分部位圖像評分使用以下3項指標:(1)非白色背景區域占整幅部位圖像的比值具體步驟為:1.4.1)設背景部分為sum1,前景部分為sum2,并都初始化為0;1.4.2)遍歷部位圖像,判斷紅綠藍三顏色通道每一個像素是否為白色(255,255,255),是則sum1+1,否則sum2+1;設前景部分占整幅部位圖像的比值為Δ,計算公式為:(2)人體目標在Kinect攝像頭視界中的總偏移度人體目標在Kinect攝像頭視界中在攝像頭坐標系下X,Y,Z方向上的角度差分別記為α,β,γ,設總偏移度為χ,計算公式為:(3)部位圖像清晰度采用均方誤差法來判斷該部位圖像質量的好壞;均方誤差法首先計算原始理想部位圖像和失真部位圖像像素差值的均方值MSE,然后通過均方值的大小來確定失真部位圖像的失真程度,計算公式為:其中M,N...

    【專利技術屬性】
    技術研發人員:張良姜華,
    申請(專利權)人:中國民航大學,
    類型:發明
    國別省市:天津,12

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 国产在线无码制服丝袜无码| 亚洲AV无码XXX麻豆艾秋| 国产成人亚洲综合无码| 精品无码黑人又粗又大又长| 亚洲国产精品无码av| 日韩精品无码一区二区中文字幕 | 中文字幕乱偷无码AV先锋| 亚洲国产精品无码中文字| 全免费a级毛片免费看无码| 国产av无码专区亚洲av桃花庵| 国语成本人片免费av无码| 亚洲Av无码精品色午夜| mm1313亚洲精品无码又大又粗| 亚洲AV无码久久久久网站蜜桃 | 久久亚洲av无码精品浪潮 | 色欲aⅴ亚洲情无码AV| 无码人妻少妇久久中文字幕蜜桃 | 中文字幕乱码无码人妻系列蜜桃 | 中文字幕无码日韩专区免费| 亚洲日韩精品无码专区| 日韩乱码人妻无码中文字幕久久 | 人妻丰满熟妇A v无码区不卡| 无码成A毛片免费| 国产成人精品无码片区在线观看| 成人毛片无码一区二区| 无码精品一区二区三区| 无码人妻品一区二区三区精99| 亚洲国产无套无码av电影| 东京热加勒比无码视频| 人妻无码久久久久久久久久久 | 性无码专区一色吊丝中文字幕| AV大片在线无码永久免费| 日韩免费无码一区二区三区 | 亚洲综合最新无码专区| 亚洲av无码一区二区三区四区 | 少妇人妻av无码专区| 日韩免费a级毛片无码a∨| 亚洲日韩精品无码专区加勒比☆| 亚洲国产成人无码AV在线| 亚洲AV无码成人精品区狼人影院 | 国产V片在线播放免费无码|