• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當(dāng)前位置: 首頁(yè) > 專利查詢>山東大學(xué)專利>正文

    一種視頻監(jiān)控中的背景建模方法技術(shù)

    技術(shù)編號(hào):8348101 閱讀:199 留言:0更新日期:2013-02-21 01:58
    本發(fā)明專利技術(shù)提供一種視頻監(jiān)控中的背景建模方法,該方法采用單高斯模型進(jìn)行背景建模,所述單高斯模型的學(xué)習(xí)速率隨著視頻幀顏色和紋理特征的變化而變化。可變的學(xué)習(xí)速率使得前景物體不會(huì)融入背景,背景的光線變化卻能很好的更新到新的背景中來。這樣有效地提高了提取背景的有效性。視頻幀的顏色空間采用了HSL空間,把顏色和亮度分立,可變的學(xué)習(xí)速率是基于顏色和紋理特征進(jìn)行變化的,使得前景物體不被融入背景;由于沒有用到亮度特征,背景的亮度變化又能很好地更新到背景中。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及一種安防系統(tǒng)視頻監(jiān)控中遺留物檢測(cè)的背景建模方法。
    技術(shù)介紹
    近年來,隨著社會(huì)對(duì)公共安全的不斷重視,對(duì)于人流密集場(chǎng)所的抗議遺留物的檢測(cè)己成為安防系統(tǒng)不可或缺的部分。遺留物檢測(cè)方法一般包括如下幾個(gè)步驟背景提取、前景分割、靜態(tài)區(qū)域檢測(cè)和物體分類跟蹤。其中,背景提取是遺留物檢測(cè)的最基本步驟。一般的背景提取方法都假定背景為靜態(tài),在靜態(tài)的基礎(chǔ)上有微弱的光線變化,因此現(xiàn)有方法多采用混合高斯模型對(duì)背景進(jìn)行建模。但是這種采用混合高斯模型對(duì)背景進(jìn)行建模的方法會(huì)把長(zhǎng)時(shí)間遺留的物體學(xué)習(xí)到背景模型中,使得背景模型和當(dāng)前幀的差異消失,從而導(dǎo)致整個(gè)檢測(cè)機(jī)制失效。
    技術(shù)實(shí)現(xiàn)思路
    本專利技術(shù)針對(duì)現(xiàn)有技術(shù)中的上述問題,提出了一種基于可變學(xué)習(xí)速率的背景建模方法。實(shí)驗(yàn)顯示,該方法有效地解決了較長(zhǎng)時(shí)間后前景物體融入背景中的問題。本專利技術(shù)采用如下技術(shù)方案,該方法采用單高斯模型進(jìn)行背景建模,其特征在于所述單高斯模型的學(xué)習(xí)速率隨著視頻幀顏色和紋理特征的變化而變化,并按照如下公式更新單高斯模型的均值和方差權(quán)利要求1 ,該方法采用單高斯模型進(jìn)行背景建模,其特征在于所述單高斯模型的學(xué)習(xí)速率隨著視頻幀顏色和紋理特征的變化而變化,并按照如下公式更新單高斯模型的均值和方差2.根據(jù)權(quán)利要求I所述的視頻監(jiān)控中的背景建模方法,其特征在于K1、K2、K3通過利用具有g(shù)roundtruth的視頻庫(kù)中的多個(gè)視頻進(jìn)行訓(xùn)練得到。全文摘要本專利技術(shù)提供,該方法采用單高斯模型進(jìn)行背景建模,所述單高斯模型的學(xué)習(xí)速率隨著視頻幀顏色和紋理特征的變化而變化。可變的學(xué)習(xí)速率使得前景物體不會(huì)融入背景,背景的光線變化卻能很好的更新到新的背景中來。這樣有效地提高了提取背景的有效性。視頻幀的顏色空間采用了HSL空間,把顏色和亮度分立,可變的學(xué)習(xí)速率是基于顏色和紋理特征進(jìn)行變化的,使得前景物體不被融入背景;由于沒有用到亮度特征,背景的亮度變化又能很好地更新到背景中。文檔編號(hào)G06T7/20GK102938152SQ201210389658公開日2013年2月20日 申請(qǐng)日期2012年10月15日 優(yōu)先權(quán)日2012年10月15日專利技術(shù)者孫建德, 沈赟珺, 解江川 申請(qǐng)人:山東大學(xué)本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】
    一種視頻監(jiān)控中的背景建模方法,該方法采用單高斯模型進(jìn)行背景建模,其特征在于:所述單高斯模型的學(xué)習(xí)速率隨著視頻幀顏色和紋理特征的變化而變化,并按照如下公式更新單高斯模型的均值和方差:μt=μt?1+α(p)(xt?μt?1)σt2=σt-12+α(p)(xt-μt-1)T(xt-μt-1)其中μ為像素值的均值,σ2為像素分布的方差,x為像素值,下標(biāo)t表示時(shí)間,上標(biāo)T表示轉(zhuǎn)置;α(p)為學(xué)習(xí)速率,p表示像素,其中α0為最大學(xué)習(xí)速率,dm和d為兩個(gè)預(yù)先定義的常數(shù);為混合差異,由顏色差異和紋理差異加權(quán)求和得到,的計(jì)算方法為:其中,wt(p)為紋理差異dt(p)的權(quán)值,wc(p)為顏色差異dc(p)的權(quán)值,wc(p)=1?wt(p),并且wt(p)=1ifgi(p)>Twgi(p)Twifgi(p)≤Tw,其中Tw的值是由圖像的噪聲來決定的,Tw=kσl,σl是圖像L部分的標(biāo)準(zhǔn)差,k是系數(shù),是像素p周圍包含M個(gè)像素的鄰域;其中,Cii(p)=f′i(p)·f′i(p)=||f′i(p)||2????i=1,2??????C12(p)=f′1(p)·f′2(p)=‖f′1(p)||·||f′2(p)‖cosθf′i(p)是在圖像中像素點(diǎn)p的梯度向量,θ是梯度向量之間的夾角,x方向和y方向的梯度可以用sobel算子得到;其中,fb,h,fb,s,fb,l分別表示背景的H、S和L部分,fc,h,fc,s,fc,l分別表示當(dāng)前幀的H、S和L部分,和表示背景的H、S和L部分的方差,H、S、L分別表示HSL色彩模式中的色調(diào)、飽和度和亮度,表示兩幅圖像間的亮度差異,表示兩幅圖像間的色調(diào)差異,K1、K2、K3是三個(gè)參數(shù),由訓(xùn)練數(shù)據(jù)得到。FDA00002257657300012.jpg,FDA00002257657300013.jpg,FDA00002257657300014.jpg,FDA00002257657300015.jpg,FDA00002257657300017.jpg,FDA00002257657300018.jpg,FDA00002257657300019.jpg,FDA000022576573000110.jpg,FDA000022576573000111.jpg,FDA00002257657300021.jpg,FDA00002257657300022.jpg,FDA00002257657300023.jpg,FDA00002257657300024.jpg,FDA00002257657300025.jpg,FDA00002257657300026.jpg,FDA00002257657300027.jpg...

    【技術(shù)特征摘要】

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:孫建德沈赟珺解江川
    申請(qǐng)(專利權(quán))人:山東大學(xué)
    類型:發(fā)明
    國(guó)別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 白嫩少妇激情无码| 亚洲成A人片在线观看无码3D| 亚洲日韩精品无码一区二区三区| 成人免费无码H在线观看不卡| 亚洲国产AV无码专区亚洲AV| 亚洲精品无码国产片| 亚洲韩国精品无码一区二区三区| 午夜麻豆国产精品无码| 国产成A人亚洲精V品无码| 久久无码人妻一区二区三区| 亚洲成A人片在线观看无码3D| 精品亚洲成在人线AV无码| 一本大道久久东京热无码AV| 中日韩精品无码一区二区三区| 亚洲中文字幕久久精品无码喷水| 国产精品无码久久av不卡| 亚洲精品无码久久久久久久 | 国产一区二区三区无码免费| 日韩人妻无码精品系列| 精品人妻系列无码人妻漫画| 亚洲av无码不卡久久| 久久亚洲精品无码| 中文字幕av无码不卡| 国产成人无码a区在线视频| 亚洲中文无码永久免费| 97人妻无码一区二区精品免费| 亚洲一区AV无码少妇电影☆| 国产成人无码免费看片软件| 色综合久久久无码中文字幕 | 亚洲精品中文字幕无码A片老| 亚洲精品色午夜无码专区日韩| 最新国产AV无码专区亚洲| 亚洲午夜福利精品无码| 亚洲无码精品浪潮| 亚洲精品无码永久中文字幕| 日日日日做夜夜夜夜无码| 八戒理论片午影院无码爱恋| 亚洲无码在线播放| 精品无码一区二区三区爱欲九九| 69ZXX少妇内射无码| HEYZO无码中文字幕人妻|