• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>河海大學專利>正文

    一種基于雙目視覺的內澇積水范圍識別方法及系統技術方案

    技術編號:45263938 閱讀:2 留言:0更新日期:2025-05-13 18:59
    本發明專利技術公開了一種基于雙目視覺的內澇積水范圍識別方法及系統,通過安裝在目標區域的雙目攝像頭采集實時視頻數據,提取視頻幀;基于干濕期判別模型判別各視頻幀為干期或濕期;基于積水范圍識別模型識別分割出被判別為濕期的各視頻幀的積水區域圖像;對積水區域圖像的積水像素數量進行統計,結合雙目攝像頭的參數,計算積水區域的實際面積;系統通過視頻數據采集模塊、數據預處理模塊、干濕期判別模塊以及積水范圍識別模塊實現方法中視頻數據的采集、預處理、積水區域的判別與識別。本發明專利技術克服了傳統攝像頭在獲取積水面積時存在的三維空間信息獲取不足、平面假設依賴等問題,通過深度信息提高了積水范圍識別的準確性,實現了對積水情況的實時監測。

    【技術實現步驟摘要】

    本專利技術屬于計算機視覺、智能監測,尤其涉及一種基于雙目視覺的內澇積水范圍識別方法及系統


    技術介紹

    1、隨著城市進程的加快,城市內澇問題日益嚴重,傳統積水監測方法主要依賴于人工或靜態傳感器,積水監測精度不足、響應不及時,難以在短時間內對積水情況進行準確監控;其次,傳統攝像頭在獲取積水面積范圍時存在三維空間信息獲取不足、平面假設限制以及動態環境適應能力弱等問題,難以適用于多種不同的環境和場景;此外,現有的計算機視覺方法在應對復雜環境中的實時性和準確性上存在一定局限性。因此,提出一種基于視頻數據的內澇積水范圍識別和趨勢測試系統,結合雙目攝像頭技術,可以實時有效地監測積水情況,對城市防洪和應急管理具有重要意義。


    技術實現思路

    1、本專利技術的目的是提供一種基于雙目攝像頭技術的內澇積水范圍識別方法及采用該方法的積水范圍識別系統,解決現有技術中積水監測精度不足、響應不及時、適用場景不廣泛的問題。

    2、為實現上述目的,本專利技術提出一種基于雙目視覺的內澇積水范圍識別方法,并采用如下技術方案:

    3、一種基于雙目視覺的內澇積水范圍識別方法,包括以下步驟:

    4、步驟1、通過安裝在目標區域的雙目攝像頭采集目標區域的實時視頻數據,提取視頻幀,并對各視頻幀進行預處理;

    5、步驟2、以預處理后的各視頻幀為輸入,基于預訓練好的干濕期判別模型,判別各視頻幀是否存在積水區域,不存在積水區域的視頻幀被判別為干期,存在積水區域的視頻幀被判別為濕期;

    6、步驟3、以被判別為濕期的各視頻幀為輸入,基于預訓練好的積水范圍識別模型,識別分割出積水區域圖像;

    7、步驟4、對積水區域圖像的積水像素數量進行統計,并結合雙目攝像頭系統的參數,計算積水區域的實際面積。

    8、進一步,步驟1中對各視頻幀的預處理包括采用背景差分法去除各視頻幀中非積水區域的干擾信息,利用去噪算法清除噪聲。

    9、進一步,干濕期判別模型基于卷積神經網絡模型結構進行訓練得到,卷積神經網絡模型結構包括卷積層、池化層、全連接層、輸出層,輸出層使用sigmoid激活函數,輸出干期或濕期的二分類結果;以經預處理的各視頻幀為卷積神經網絡模型結構的輸入,以相應的干期或濕期標簽為輸出對卷積神經網絡模型結構進行訓練,獲得訓練后的卷積神經網絡模型,即干濕期判別模型。

    10、進一步,積水范圍識別模型基于u-net網絡模型結構訓練獲得,所述u-net網絡模型結構包括編碼器、解碼器和跳躍連接,輸出層使用softmax函數輸出每個像素屬于積水類別的概率;以各濕期視頻幀為u-net網絡模型結構的輸入,以識別分割出的積水區域圖像為輸出,對所述u-net網絡模型結構進行訓練,獲得訓練后的u-net網絡模型,即積水范圍識別模型。

    11、進一步,對輸出的積水區域圖像的積水像素數量進行統計,結合雙目攝像頭的內參和外參,計算積水區域的實際面積;所述內參為雙目攝像頭在x和y方向上的焦距fx和fy,圖像中心點的坐標cx和cy;所述外參為雙目攝像頭的像素點深度z,為像素點對應的實際物體到攝像頭的距離;結合像素點在圖像中的坐標px和py,計算積水區域的實際面積,具體計算過程如下:

    12、像素點在x和y方向上的實際尺寸sx和sy分別為:

    13、

    14、每個像素點的實際面積為a:

    15、a=sx*sy

    16、在計算積水區域的實際面積時,假設像素點在x和y方向上的實際尺寸是相同的,即sx=sy=s,s的表達式為:

    17、

    18、其中,f是平均焦距且f=(fx+fy)/2,則每個像素點的實際面積為:

    19、

    20、由此得到整個積水區域的實際面積為:

    21、

    22、其中,ai是第i個像素點的實際面積,zi是第i個像素點的深度,pxi是第i個像素點在圖像中的x坐標。

    23、進一步,本專利技術還保護一種基于上述方法的內澇積水范圍識別系統,主要包括視頻數據采集模塊,位于數據處理中心的數據預處理模塊、干濕期判別模塊以及積水范圍識別模塊;所述視頻數據采集模塊通過雙目攝像頭采集目標區域的實時視頻數據,并將采集的實時視頻數據傳輸至數據處理中心,進行視頻幀的提取;將經數據預處理模塊預處理后的各視頻幀輸入至干濕期判別模塊,對各視頻幀進行干期或濕期的判別;將被判別為濕期的各視頻幀輸入至所述積水范圍識別模塊,實現積水區域圖像的識別分割。

    24、進一步,所述內澇積水范圍識別系統還包括積水趨勢預測模塊,所述積水趨勢預測模塊基于預訓練好的積水趨勢預測模型對目標區域積水面積隨時間變化的趨勢進行預測,積水面積趨勢的預測公式為:

    25、a(t+1)=f(a(t),δa)

    26、其中,a(t+1)為目標區域在時間t+1的預測積水面積,a(t)為目標區域在時間t的積水面積,δa是面積變化量,而f為積水趨勢預測模型。

    27、進一步,所述積水趨勢預測模型基于長短期記憶網絡(lstm)模型結構訓練獲得,獲得積水趨勢預測模型及預測結果的具體步驟包括:

    28、步驟1、收集目標區域歷史時間段內積水面積時間序列數據;

    29、步驟2、對所收集的數據進行預處理,包括清洗數據、補充缺失數據、標準化數據;

    30、步驟3、構建長短期記憶lstm模型結構,所述lstm模型結構包括兩個lstm層,且其細胞單元數量分別為128、64;以經預處理的積水面積時間序列數據為輸入,以對應的預測的積水面積時間序列數據為輸出,對所構建的lstm模型結構進行訓練,獲得積水趨勢預測模型;

    31、步驟4、以待預測的目標區域目標時間段的積水面積時間序列數據為輸入,利用積水趨勢預測模型,獲得預測的目標區域積水面積隨時間變化的結果。

    32、與現有技術相比,本專利技術的有益效果為:

    33、本專利技術通過雙目攝像頭實時采集視頻數據,利用神經網絡深度學習和圖像分割技術對積水區域進行識別,并結合雙目攝像頭參數來評估積水范圍,進一步通過長短期記憶網絡預測積水面積的發展趨勢,克服了傳統攝像頭在獲取積水面積時存在的三維空間信息獲取不足、平面假設依賴以及動態環境適應能力弱的問題,且通過深度信息提高了積水范圍評估的準確性和魯棒性,實現對積水情況進行實時監測的情況下進一步對未來趨勢進行預測,對城市防洪和應急管理具有重要意義。

    本文檔來自技高網...

    【技術保護點】

    1.一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,對各視頻幀的預處理包括采用背景差分法去除各視頻幀中非積水區域的干擾信息,利用去噪算法清除噪聲。

    3.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,干濕期判別模型基于卷積神經網絡模型結構進行訓練得到,卷積神經網絡模型結構包括卷積層、池化層、全連接層、輸出層,輸出層使用sigmoid激活函數,輸出干期或濕期的二分類結果;以經預處理的各視頻幀為卷積神經網絡模型結構的輸入,以相應的干期或濕期標簽為輸出對卷積神經網絡模型結構進行訓練,獲得訓練后的卷積神經網絡模型,即干濕期判別模型。

    4.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,積水范圍識別模型基于U-Net網絡模型結構訓練獲得,所述U-Net網絡模型結構包括編碼器、解碼器和跳躍連接,輸出層使用softmax函數輸出每個像素屬于積水類別的概率;以各濕期視頻幀為U-Net網絡模型結構的輸入,以相應的積水區域圖像為輸出,對所述U-Net網絡模型結構進行訓練,獲得訓練后的U-Net網絡模型,即積水范圍評估模型。

    5.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,雙目攝像頭系統的參數包括內參和外參,內參為雙目攝像頭在x和y方向上的焦距fx和fy,圖像中心點的坐標cx和cy;外參為雙目攝像頭的像素點深度Z,為像素點對應的實際物體到攝像頭的距離;結合像素點在圖像中的坐標px和py,計算積水區域的實際面積,具體計算過程如下:

    6.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法的內澇積水范圍識別系統,其特征在于,主要包括視頻數據采集模塊,位于數據處理中心的數據預處理模塊、干濕期判別模塊以及積水范圍評估模塊;所述視頻數據采集模塊通過雙目攝像頭采集目標區域的實時視頻數據,并將采集的實時視頻數據傳輸至數據處理中心,進行視頻幀的提取;將經數據預處理模塊預處理后的各視頻幀輸入至干濕期判別模塊,對各視頻幀進行干期或濕期的判別;將被判別為濕期的各視頻幀輸入至所述積水范圍識別模塊,實現積水區域圖像的識別分割。

    7.根據權利要求6所述的內澇積水范圍識別系統,其特征在于,還包括積水趨勢預測模塊,所述積水趨勢預測模塊基于預訓練好的積水趨勢預測模型對目標區域積水面積隨時間變化的趨勢進行預測,積水面積趨勢的預測公式為:

    8.根據權利要求7所述的內澇積水范圍識別系統,其特征在于,積水趨勢預測模型基于長短期記憶網絡(LSTM)模型結構訓練獲得,獲得積水趨勢預測模型及預測結果的具體步驟包括:

    ...

    【技術特征摘要】

    1.一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,對各視頻幀的預處理包括采用背景差分法去除各視頻幀中非積水區域的干擾信息,利用去噪算法清除噪聲。

    3.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,干濕期判別模型基于卷積神經網絡模型結構進行訓練得到,卷積神經網絡模型結構包括卷積層、池化層、全連接層、輸出層,輸出層使用sigmoid激活函數,輸出干期或濕期的二分類結果;以經預處理的各視頻幀為卷積神經網絡模型結構的輸入,以相應的干期或濕期標簽為輸出對卷積神經網絡模型結構進行訓練,獲得訓練后的卷積神經網絡模型,即干濕期判別模型。

    4.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法,其特征在于,積水范圍識別模型基于u-net網絡模型結構訓練獲得,所述u-net網絡模型結構包括編碼器、解碼器和跳躍連接,輸出層使用softmax函數輸出每個像素屬于積水類別的概率;以各濕期視頻幀為u-net網絡模型結構的輸入,以相應的積水區域圖像為輸出,對所述u-net網絡模型結構進行訓練,獲得訓練后的u-net網絡模型,即積水范圍評估模型。

    5.根據權利要求1所述的一種基于雙目視覺的內澇積水范圍識別方法...

    【專利技術屬性】
    技術研發人員:秦友偉李心昊嚴旭丁文學孫瑜祁俊麗鄭鑫王照偉王曦堯張磊
    申請(專利權)人:河海大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 少妇中文无码高清| 国产精品白浆无码流出| 亚洲AV蜜桃永久无码精品| 久久久久亚洲精品无码网址| 2014AV天堂无码一区| 精品无码人妻一区二区三区| 中文字幕av无码一二三区电影 | 免费无码又爽又刺激网站直播| 国产a级理论片无码老男人| 无码精品A∨在线观看免费| 亚洲成A∨人片天堂网无码| 亚洲AV综合永久无码精品天堂| 国产成人A亚洲精V品无码 | 亚洲美日韩Av中文字幕无码久久久妻妇| 中文人妻无码一区二区三区| 成人免费无码视频在线网站| 久久精品国产亚洲AV无码偷窥| 一级片无码中文字幕乱伦| 亚洲国产精品无码久久久秋霞1 | 国产综合无码一区二区辣椒| 久久久国产精品无码一区二区三区| 无码午夜成人1000部免费视频| 亚洲人成影院在线无码观看| 成人免费无遮挡无码黄漫视频| 久久精品国产亚洲AV无码麻豆| 国产精品无码无卡在线播放| 日韩aⅴ人妻无码一区二区| 无码中文人妻在线一区二区三区| 无码人妻少妇久久中文字幕蜜桃 | 中文字幕乱码人妻无码久久| 麻豆人妻少妇精品无码专区| 国产精品无码一区二区在线观| 无码专区AAAAAA免费视频| 亚洲av永久无码精品网站| 狠狠躁天天躁中文字幕无码 | 免费无码又爽又刺激网站直播| av无码精品一区二区三区四区| 无码毛片一区二区三区中文字幕| 深夜a级毛片免费无码| 亚洲免费无码在线| 寂寞少妇做spa按摩无码|