• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于圖像分塊加權的卷積神經網絡的人臉識別方法技術

    技術編號:14895934 閱讀:127 留言:0更新日期:2017-03-29 11:07
    本發明專利技術公開了一種基于圖像分塊加權的卷積神經網絡的人臉識別方法,方法包括:構建樣本數據庫,對樣本圖片進行邊緣檢測,并截取出人臉輪廓圖片;對人臉輪廓圖片的五個部位進行定位,并根據定位進行分割得到局部圖片,計算所有局部圖片的灰度方差均值;將屬于同一樣本圖片的人臉輪廓圖片和六個局部圖片一起并行投入到卷積神經網絡中訓練;將待識別人臉圖片分割后一并投入到訓練好的卷積神經網絡中即可得到識別結果。本發明專利技術的有益效果是:本發明專利技術的人臉識別方法既考慮局部的特征,又考慮全局的特征,可以使系統有更好的識別效果,與傳統的人臉識別方法相比,本發明專利技術采用圖像分塊加權的卷積神經網絡的方法,能夠提高人臉識別的識別率。

    【技術實現步驟摘要】

    本專利技術涉及人臉識別
    ,特別涉及一種基于圖像分塊加權的卷積神經網絡的人臉識別方法
    技術介紹
    隨著計算機技術和互聯網技術的發展,人臉識別也成為了近幾年來計算機視覺領域的熱門研究對象,作為一種既方便快捷又安全可靠的身份認證手段,在監控、尋人、安防方面都有廣闊的應用前景。卷積神經網絡是在傳統神經網絡的基礎上發展起來,是一種高效的識別方法,近幾年來獲得極大發展并逐步應用到各個領域,卷積神經網絡能夠從輸入圖像中提取細節結構信息,同時又能使得這些結構信息具有深度旋轉等空間不變性,非常適合用于圖像中的檢測識別問題。現在主流的方法就是利用卷積神經網絡對樣本圖片進行訓練,然后用生成的模型對人臉圖片進行分類識別。但是絕大多數時候訓練是基于整幅圖像的,而且通常很多人會使用均勻分塊,但是均勻分塊會因為角度、姿態的關系無法分割成人臉的相同區域,這樣并不能有效的提取圖像的局部信息,所以識別率也會受到限制。本專利技術提供了一種并行卷積神經網絡,通過將人臉圖像分塊分別輸入相同卷積神經網絡進行訓練,最后將輸出加權融合進行分類識別。
    技術實現思路
    本專利技術的目的在于提供一種泛化能力強、識別準確率高的基于圖像分塊加權的卷積神經網絡的人臉識別方法。為了實現上述專利技術目的,本專利技術提供了一種基于圖像分塊加權的卷積神經網絡的人臉識別方法,所述人臉識別方法具體包括以下步驟:步驟S1:構建樣本數據庫,對樣本數據庫中的樣本圖片進行灰度化;步驟S2:利用Canny算子做邊緣檢測,并截取出人臉輪廓圖片;步驟S3:采用ASM方法對人臉輪廓圖片的五個部位進行定位,五個部位包括左眼中心、右眼中心、鼻尖、左嘴角和右嘴角;步驟S4:根據步驟S3的定位,對人臉輪廓圖片進行分塊,連接左眼中心和右眼中心做一條分割線a,過鼻尖做平行于分割線a的分割線b,過鼻尖做垂直于分割線b的分割線c,分割線a、分割線b和分割線c三條分割線將人臉輪廓圖片分為六個局部圖片,分別為左上人臉圖片、左中人臉圖片、左下人臉圖片、右上人臉圖片、右中人臉圖片和右下人臉圖片;步驟S5:計算出樣本數據庫中所有局部圖片的灰度,再計算出位于同一位置的所有局部圖片的灰度方差并求均值,即為灰度方差均值;具體的,以左上人臉圖片為例,先計算出所有左上人臉圖片的灰度,再計算出每一左上人臉圖片的灰度方差并求均值,即得到左上人臉平均灰度方差D1,同理分別計算出左中人臉平均灰度方差D2、左下人臉平均灰度方差D3、右上人臉平均灰度方差D4、右中人臉平均灰度方差D5和右下人臉平均灰度方差D6;步驟S6:將屬于同一樣本圖片的人臉輪廓圖片和六個局部圖片一起并行投入到卷積神經網絡中訓練,并將提取的特征向量結合步驟S5得到的平均灰度方差進行加權融合,然后通過softmax層進行分類,得到訓練好的卷積神經網絡;步驟S7:獲取待識別圖片,并對待識別圖片進行灰度化,依次采用步驟S2、步驟S3和步驟S4的方法進行處理得到待識別人臉輪廓圖片和六個局部圖片;步驟S8:將待識別人臉輪廓圖片和六個局部圖片一并投入到訓練好的卷積神經網絡中即可得到識別結果。其中,所述步驟S1中,樣本圖片灰度化的過程參見圖2,具體為:讀取圖片每個像素點的紅綠藍色彩信息(亮度值),通過下面公式(1)計算得到灰度值,并重新賦值給每個像素點得到灰度圖片;gray=0.39*R+0.50*G+0.11*B(1)其中gray為灰度值,R、G、B分別代表在紅色、綠色、藍色三個通道上的亮度值,亮度值通常劃分為0~255共256個等級,0最暗、255最亮。樣本數據庫中所有樣本圖片位于同一位置的小塊圖片的灰度方差,對應的每一小塊圖片的灰度方差,并計算出樣本數據庫中所有的左上人臉圖片的灰度;所述步驟S3中采用ASM方法對人臉輪廓圖片的五個部位進行定位,具體步驟如下:步驟301、構建形狀模型:在樣本數據庫中隨機搜集300-500個(優選為400個)樣本圖片組成訓練集,手動標記訓練集中所有樣本圖片的五個臉部特征點(包括左眼中心、右眼中心、鼻尖、左嘴角和右嘴角),將訓練集中所有臉部特征點的坐標串成特征向量,對形狀進行歸一化和對齊(對齊采用Procrustes方法),對對齊后的形狀特征做PCA處理;步驟302、為每個臉部特征點構建局部特征;目的是在每次迭代搜索過程中每個特征點可以尋找新的位置;局部特征一般采用沿著邊緣的法線方向提取的梯度特征,對光照變化有一定的魯棒性;步驟303、計算左眼中心和右眼中心的位置坐標,依據上述位置坐標對訓練集中的樣本圖片做適應性的尺度和旋轉變化,對齊人臉;步驟304、匹配每個局部特征點(優選地采用馬氏距離),計算ASM模型中的局部特征與當前特征點的局部特征之間的馬氏距離,選取馬氏距離最小的那個局部特征的中心作為當前特征點的新位置;得到仿射變換的參數,迭代直到收斂,得到五個臉部特征點的最終位置。所述步驟S6中,所述的卷積神經網絡框架具體為:從輸入到輸出按順序依次為:卷積層conv1,最大池化層pool1,卷積層conv2,最大池化層pool2,卷積層conv3,最大池化層pool3,卷積層conv4,全連接層fc作為輸出;其中所述加權融合的加權方式為:左上人臉分配權值為w1=D1/(D1+D2+D3+D4+D5+D6);左中人臉分配權值為w2=D2/(D1+D2+D3+D4+D5+D6);左下人臉分配權值為w3=D3/(D1+D2+D3+D4+D5+D6);右上人臉分配權值為w4=D4/(D1+D2+D3+D4+D5+D6);右中人臉分配權值為w5=D5/(D1+D2+D3+D4+D5+D6);右下人臉分配權值為w6=D6/(D1+D2+D3+D4+D5+D6);假設左上人臉的輸出為x1,左中人臉的輸出為x2,左下人臉的輸出為x3,右上人臉的輸出為x4,右中人臉的輸出為x5,右下人臉的輸出為x6,整張人臉的輸出為x,則最終加權融合輸出為:y=(w1*x1+w2*x2+w3*x3+w4*x4+w5*x5+w6*x6)/2+x/2,將y輸入到softmax層進行分類。本專利技術的有益效果是:本專利技術的人臉識別方法既考慮局部的特征,又考慮全局的特征,可以使系統有更好的識別效果,與傳統的人臉識別方法相比,本專利技術采用圖像分塊加權的卷積神經網絡的方法,能夠提高人臉識別的識別率;其中,本專利技術以人臉為標準進行非均勻分塊,通過計算每一塊的方差來分配權值,方差越大,分配權值越大,因為方差越大意味著像素值差異大,所以特征就比較明顯,而且構建的卷積神經網絡具有一定深度,同時采用分塊加權輸出進行softmax分類,將大大提高識別準確度。附圖說明圖1為本專利技術實施例人臉識別方法的流程圖。圖2為本專利技術實施例中樣本圖片灰度化的流程圖。圖3為本專利技術實施例中步驟S3中人臉圖片分塊的示意圖。圖4為本專利技術實施例中步驟S6中構建的卷積神經網絡框架示意圖。具體實施方式以下采用實施例來詳細說明本專利技術的實施方式,借此對本專利技術如何應用技術手段來解決技術問題,并達成技術效果的實現過程能充分理解并據以實施。實施例1本專利技術實施例提供了一種基于圖像分塊加權的卷積神經網絡的人臉識別方法,所述人臉識別方法具體包括以下步驟:步驟S1:構建樣本數據庫,對樣本數據庫中的樣本圖片進行灰度化;其中,數據庫可以基于已公開的人臉數據庫本文檔來自技高網...
    一種基于圖像分塊加權的卷積神經網絡的人臉識別方法

    【技術保護點】
    一種基于圖像分塊加權的卷積神經網絡的人臉識別方法,其特征在于,所述人臉識別方法具體包括以下步驟:步驟S1:構建樣本數據庫,對樣本數據庫中的樣本圖片進行灰度化;步驟S2:利用Canny算子做邊緣檢測,并截取出人臉輪廓圖片;步驟S3:采用ASM方法對人臉輪廓圖片的五個部位進行定位,五個部位包括左眼中心、右眼中心、鼻尖、左嘴角和右嘴角;步驟S4:根據步驟S3的定位,對人臉輪廓圖片進行分塊,連接左眼中心和右眼中心做一條分割線a,過鼻尖做平行于分割線a的分割線b,過鼻尖做垂直于分割線b的分割線c,分割線a、分割線b和分割線c三條分割線將人臉輪廓圖片分為六個局部圖片,分別為左上人臉圖片、左中人臉圖片、左下人臉圖片、右上人臉圖片、右中人臉圖片和右下人臉圖片;步驟S5:計算出樣本數據庫中所有局部圖片的灰度,再計算出位于同一位置的所有局部圖片的灰度方差并求均值,即為灰度方差均值;步驟S6:將屬于同一樣本圖片的人臉輪廓圖片和六個局部圖片一起并行投入到卷積神經網絡中訓練,并將提取的特征向量結合步驟S5得到的平均灰度方差進行加權融合,然后通過softmax層進行分類,得到訓練好的卷積神經網絡;步驟S7:獲取待識別圖片,并對待識別圖片進行灰度化,依次采用步驟S2、步驟S3和步驟S4的方法進行處理得到待識別人臉輪廓圖片和六個局部圖片;步驟S8:將待識別人臉輪廓圖片和六個局部圖片一并投入到訓練好的卷積神經網絡中即可得到識別結果。...

    【技術特征摘要】
    1.一種基于圖像分塊加權的卷積神經網絡的人臉識別方法,其特征在于,所述人臉識別方法具體包括以下步驟:步驟S1:構建樣本數據庫,對樣本數據庫中的樣本圖片進行灰度化;步驟S2:利用Canny算子做邊緣檢測,并截取出人臉輪廓圖片;步驟S3:采用ASM方法對人臉輪廓圖片的五個部位進行定位,五個部位包括左眼中心、右眼中心、鼻尖、左嘴角和右嘴角;步驟S4:根據步驟S3的定位,對人臉輪廓圖片進行分塊,連接左眼中心和右眼中心做一條分割線a,過鼻尖做平行于分割線a的分割線b,過鼻尖做垂直于分割線b的分割線c,分割線a、分割線b和分割線c三條分割線將人臉輪廓圖片分為六個局部圖片,分別為左上人臉圖片、左中人臉圖片、左下人臉圖片、右上人臉圖片、右中人臉圖片和右下人臉圖片;步驟S5:計算出樣本數據庫中所有局部圖片的灰度,再計算出位于同一位置的所有局部圖片的灰度方差并求均值,即為灰度方差均值;步驟S6:將屬于同一樣本圖片的人臉輪廓圖片和六個局部圖片一起并行投入到卷積神經網絡中訓練,并將提取的特征向量結合步驟S5得到的平均灰度方差進行加權融合,然后通過softmax層進行分類,得到訓練好的卷積神經網絡;步驟S7:獲取待識別圖片,并對待識別圖片進行灰度化,依次采用步驟S2、步驟S3和步驟S4的方法進行處理得到待識別人臉輪廓圖片和六個局部圖片;步驟S8:將待識別人臉輪廓圖片和六個局部圖片一并投入到訓練好的卷積神經網絡中即可得到識別結果。2.根據權利要求1所述的基于圖像分塊加權的卷積神經網絡的人臉識別方法,其特征在于,所述步驟S3中采用ASM方法對人臉輪廓圖片的五個部位進行定位,具體步驟如下:步驟301、構建形狀模型:在樣本數據庫中隨機搜集300-500個樣本圖片組成訓練集,手動標記訓練集中所有樣本圖片的五個臉部特征點,將訓練集中所有臉部特征點的坐標串成特征向量,對形狀進行歸一化和對齊,對對齊后的形狀特征做PCA處理;步驟302、為每個臉部特...

    【專利技術屬性】
    技術研發人員:舒泓新蔡曉東梁曉曦
    申請(專利權)人:中通服公眾信息產業股份有限公司
    類型:發明
    國別省市:新疆;65

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 日韩欧国产精品一区综合无码| 无码专区—VA亚洲V天堂| 精品人妻系列无码一区二区三区| 国产av无码专区亚洲av果冻传媒| 国产AV无码专区亚洲A∨毛片| 精品国产aⅴ无码一区二区| 日本无码一区二区三区白峰美 | 精品久久久无码中文字幕天天| 久久激情亚洲精品无码?V| 无码内射中文字幕岛国片| 国产精品无码av天天爽| 亚洲国产成人精品无码区在线网站| 免费无码AV一区二区| 无码乱码av天堂一区二区| 2014AV天堂无码一区| 无码人妻H动漫中文字幕 | 无码AV岛国片在线播放| 国产精品无码久久av| 亚洲AV无码国产剧情| 亚洲精品无码不卡| 少妇无码太爽了在线播放| 无码人妻丰满熟妇区五十路| 久久久亚洲精品无码| 中文无码熟妇人妻AV在线| 嫩草影院无码av| 精品久久久久久无码人妻| 精品无码av一区二区三区| 亚洲第一极品精品无码久久| 亚洲一级Av无码毛片久久精品 | 国产日韩精品无码区免费专区国产| 91精品日韩人妻无码久久不卡| 国产日韩精品中文字无码| 亚洲AV无码乱码在线观看| 无码A级毛片日韩精品| 国产精品无码一区二区三区毛片| 国产在线精品无码二区二区| 精品人妻大屁股白浆无码| 亚洲国产精品成人精品无码区在线| 国产高清无码视频| 中文字幕无码av激情不卡久久| 影院无码人妻精品一区二区|