• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于任意四邊形回歸的目標(biāo)檢測與精確定位方法技術(shù)

    技術(shù)編號:36703573 閱讀:20 留言:0更新日期:2023-03-01 09:22
    本發(fā)明專利技術(shù)涉及一種基于任意四邊形回歸的目標(biāo)檢測與精確定位方法,首先,進行圖像預(yù)處理,劃分圖像數(shù)據(jù)訓(xùn)練集、驗證集和測試集之后,針對數(shù)據(jù)集的特點,采用相應(yīng)的數(shù)據(jù)增強手段,添加基于目標(biāo)坐標(biāo)的隨機裁剪、亮度擾度與亮度直方圖均衡化等。其次,構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,主干網(wǎng)絡(luò)提取特征之后,構(gòu)造關(guān)鍵點檢測分支,通過熱力圖回歸直接預(yù)測目標(biāo)區(qū)域的四個關(guān)鍵點位置,使得神經(jīng)網(wǎng)絡(luò)具備直接預(yù)測任意四邊形的能力,從而精確定位目標(biāo)的關(guān)鍵區(qū)域。最后,改進與優(yōu)化算法模型,擴大特征尺寸并局部映射,基于注意力機制進行特征融合,利用多任務(wù)多階段的混合級聯(lián)結(jié)構(gòu)與分支間的信息交互進一步提升目標(biāo)檢測定位精度。標(biāo)檢測定位精度。標(biāo)檢測定位精度。

    【技術(shù)實現(xiàn)步驟摘要】
    基于任意四邊形回歸的目標(biāo)檢測與精確定位方法


    [0001]本專利技術(shù)屬于計算機視覺領(lǐng)域、目標(biāo)檢測
    ,涉及一種基于任意四邊形回歸的目標(biāo)檢測與精確定位方法。

    技術(shù)介紹

    [0002]目標(biāo)檢測是計算機視覺領(lǐng)域的基本任務(wù)之一,近些年隨著深度學(xué)習(xí)技術(shù)的發(fā)展,目標(biāo)檢測算法也從基于手工特征的傳統(tǒng)算法轉(zhuǎn)向了基于深度神經(jīng)網(wǎng)絡(luò)的檢測技術(shù)。
    [0003]隨著計算機視覺分類識別任務(wù)的深入研究,基于卷積神經(jīng)網(wǎng)絡(luò)檢測算法的研究已經(jīng)從算法的通用目標(biāo)檢測精度提升和檢測速度提升,逐漸拓展到特定領(lǐng)域的目標(biāo)檢測。一些場景的目標(biāo)普遍帶有任意旋轉(zhuǎn)的多角度,普通正框檢測的方法無法滿足需求,比如遙感目標(biāo)檢測、貨架商品檢測、自然場景下的文本檢測、頂拍魚眼鏡頭下的人體或物體檢測。與通用目標(biāo)檢測相比,特定目標(biāo)檢測有更為具體的研究背景,其研究內(nèi)容也往往是針對這些特殊背景展開。
    [0004]以工業(yè)應(yīng)用中的儀表檢測識別任務(wù)為例,當(dāng)前,深度學(xué)習(xí)方法廣泛應(yīng)用到儀表檢測定位中,采取通用目標(biāo)檢測任務(wù)中位置預(yù)測方式,定位儀表所在的最小外接矩形框,效果遠高于傳統(tǒng)檢測定位方式。但是由于儀表檢測任務(wù)具有一定特殊性,需要準(zhǔn)確獲取儀表的表盤位置,對其進行傾斜校正以方便后續(xù)讀數(shù)識別等任務(wù)。只定位包圍儀表的最小矩形具有很大的局限性,可能會對后續(xù)任務(wù)帶來不良影響,需要更加精確的定位結(jié)果。
    [0005]利用計算機視覺技術(shù)進行目標(biāo)檢測與精確定位的難點主要有兩方面:第一,目標(biāo)由于角度的傾斜很可能會發(fā)生形變,需要進行目標(biāo)區(qū)域傾斜校正,因此,算法要具備可以預(yù)測任意四邊形位置的能力,通用目標(biāo)檢測技術(shù)只預(yù)測目標(biāo)的最小包圍框,這對于特定檢測定位任務(wù)而言其定位的效果難以滿足后續(xù)任務(wù)的要求,無法僅利用包圍目標(biāo)最小包圍框位置信息進一步校正成正視角度下的目標(biāo)圖像。此外,即便使用實例分割技術(shù),可以獲取目標(biāo)的位置掩碼,但面臨如何減少利用位置掩碼進行透視變換時引入誤差的問題;第二,應(yīng)用場景不同,室內(nèi)外光照條件不同,目標(biāo)所在環(huán)境復(fù)雜存在大量的干擾信息,成像設(shè)備與目標(biāo)的距離不同,目標(biāo)的尺度會發(fā)生較大變化存在大量的小目標(biāo),而且目標(biāo)種類多樣外形多變,這些不良條件對方法的魯棒性提出了挑戰(zhàn)。

    技術(shù)實現(xiàn)思路

    [0006]要解決的技術(shù)問題
    [0007]為了避免現(xiàn)有技術(shù)的不足之處,本專利技術(shù)提出一種基于任意四邊形回歸的目標(biāo)檢測與精確定位方法。首先,對目標(biāo)圖片數(shù)據(jù)進行四邊形位置標(biāo)注,然后對圖像進行預(yù)處理操作,主要包括圖像數(shù)據(jù)訓(xùn)練集、驗證集和測試集的劃分以及特定的圖像增強處理;然后,構(gòu)建基于任意四邊形回歸的儀表檢測網(wǎng)絡(luò)模型,包括特征提取網(wǎng)絡(luò)模塊、FPN模塊、RPN模塊、ROI Align池化層和基于全連接層的分類回歸分支以及基于全卷積網(wǎng)絡(luò)的關(guān)鍵點檢測分支Grid Head;接著,利用增強后的圖像數(shù)據(jù)集對網(wǎng)絡(luò)模型進行訓(xùn)練,得到訓(xùn)練好的網(wǎng)絡(luò);最
    后,利用訓(xùn)練好的網(wǎng)絡(luò)對待檢測目標(biāo)圖像進行處理,得到最終的檢測結(jié)果。本專利技術(shù)具有檢測任意四邊形的能力,能夠使用預(yù)測的四邊形位置信息方便地得到目標(biāo)關(guān)鍵區(qū)域的正視圖,為后續(xù)處理提供便利;此外,進行網(wǎng)絡(luò)結(jié)構(gòu)調(diào)整與優(yōu)化,擴大輸入關(guān)鍵點檢測分支的特征尺寸并根據(jù)坐標(biāo)進行局部區(qū)域映射,基于多重注意力機制進行多重特征融合,利用多任務(wù)多階段的混合級聯(lián)結(jié)構(gòu)與分支間的信息交互,從多種角度提高算法性能,提高各種不良條件下方法的檢測精度與魯棒性。
    [0008]技術(shù)方案
    [0009]一種基于任意四邊形回歸的目標(biāo)檢測與精確定位方法,其特征在于步驟如下:
    [0010]步驟1:構(gòu)建基于任意四邊形回歸的目標(biāo)檢測網(wǎng)絡(luò)模型,該模型基于Faster RCNN網(wǎng)絡(luò)模型搭建,于Faster RCNN網(wǎng)絡(luò)的ROI Align池化層與邊框回歸分支的輸出端連接基于多重注意力機制特征交互融合的關(guān)鍵點檢測分支Grid Head;
    [0011]所述關(guān)鍵點檢測分支Grid Head基于全卷積網(wǎng)絡(luò)搭建,包括用于特征提取的卷積序列、增大特征局部映射模塊、特征交互融合模塊、改變特征尺寸的反卷積層以及混合級聯(lián)結(jié)構(gòu);使用卷積序列對輸入的待檢測圖像特征進行特征提取,特征提取后增大特征并進行局部映射,再使用基于多重注意力機制的特征融合模塊對提取的特征進行多級融合處理,將融合輸出的特征圖輸入到多層反卷積層,輸出用于提取關(guān)鍵點坐標(biāo)的熱力圖,利用多任務(wù)多階段的混合級聯(lián)結(jié)構(gòu)與信息交互結(jié)合邊框回歸結(jié)果進一步提精,將最終得到的熱力圖轉(zhuǎn)換得到待檢測目標(biāo)關(guān)鍵區(qū)域的任意四邊形四個頂點Grid Point的坐標(biāo)信息;
    [0012]步驟2:于監(jiān)控設(shè)備下自行采集目標(biāo)圖片數(shù)據(jù)并整理,劃分圖像訓(xùn)練集、驗證集和測試集后,對每一幅目標(biāo)圖像分別進行相應(yīng)的數(shù)據(jù)增強手段,增強處理前后的圖像共同構(gòu)成目標(biāo)圖像數(shù)據(jù)集;
    [0013]步驟3:以步驟2得到的圖像數(shù)據(jù)集中的訓(xùn)練集與驗證集為輸入,采用隨機梯度下降法對步驟1構(gòu)建的基于任意四邊形回歸的目標(biāo)檢測網(wǎng)絡(luò)模型進行訓(xùn)練,得到訓(xùn)練好的網(wǎng)絡(luò)模型,使用測試集對得到的網(wǎng)絡(luò)模型進行性能評估;
    [0014]步驟4:將待檢測的目標(biāo)圖像輸入到步驟3訓(xùn)練好的網(wǎng)絡(luò)模型中,輸出得到類別信息和目標(biāo)關(guān)鍵區(qū)域任意四邊形的頂點坐標(biāo),在完成目標(biāo)檢測的基礎(chǔ)上進一步精確定位。
    [0015]所述步驟1的增大特征局部映射的具體過程如下:
    [0016]對于待檢測的目標(biāo)來說,所有的Grid Point共享一個相同的特征表達區(qū)域,為了解決特征表達區(qū)域的問題,改變熱力圖預(yù)測的關(guān)鍵點位置坐標(biāo)與該點對應(yīng)于原圖位置坐標(biāo)的映射關(guān)系,過程為:
    [0017]首先,將輸入Grid Head的特征圖的寬高擴大到原來的兩倍,增大特征圖在原圖上映射的區(qū)域,將Grid Point包含在RPN網(wǎng)絡(luò)生成的候選框內(nèi)部;
    [0018]然后,將放大后的特征圖按照Grid Point所在的位置局部映射,對于每個Grid Point,新的輸出代表了整張?zhí)卣鲌D四分之一的區(qū)域,四個Grid Point對應(yīng)的熱力圖由完整特征的不同區(qū)域生成,而不是所有的關(guān)鍵點共享一個相同的特征表達區(qū)域;
    [0019]處理后,每個Grid Point的表達能近似地視為一個歸一化的過程,在不增加計算量的同時,提升了定位精度。
    [0020]所述步驟1的基于多重注意力機制特征交互融合的具體過程如下:
    [0021]用于特征提取的卷積序列由多個卷積層構(gòu)成,對輸入的待檢測圖像特征F
    din
    進行
    特征提取,提取后的特征記為F
    d
    ,特征提取時先增大特征并進行局部映射,再使用基于多重注意力機制的特征融合模塊對提取的特征F
    d
    進行多級融合處理,具體如下:
    [0022]將特征F
    d
    按照通道平均分成M組,與第i個Grid Point對應(yīng)的特征圖記為F
    di
    ,與源點集合S
    i
    中的第j個點對應(yīng)的特征圖記為F
    dj
    ,i=1,2,...,M,M為Grid Point點數(shù),j=1,2,...,K
    i
    ,K
    i
    為源點集合S
    ...

    【技術(shù)保護點】

    【技術(shù)特征摘要】
    1.一種基于任意四邊形回歸的目標(biāo)檢測與精確定位方法,其特征在于步驟如下:步驟1:構(gòu)建基于任意四邊形回歸的目標(biāo)檢測網(wǎng)絡(luò)模型,該模型基于Faster RCNN網(wǎng)絡(luò)模型搭建,于Faster RCNN網(wǎng)絡(luò)的ROI Align池化層與邊框回歸分支的輸出端連接基于多重注意力機制特征交互融合的關(guān)鍵點檢測分支Grid Head;所述關(guān)鍵點檢測分支Grid Head基于全卷積網(wǎng)絡(luò)搭建,包括用于特征提取的卷積序列、增大特征局部映射模塊、特征交互融合模塊、改變特征尺寸的反卷積層以及混合級聯(lián)結(jié)構(gòu);使用卷積序列對輸入的待檢測圖像特征進行特征提取,特征提取后增大特征并進行局部映射,再使用基于多重注意力機制的特征融合模塊對提取的特征進行多級融合處理,將融合輸出的特征圖輸入到多層反卷積層,輸出用于提取關(guān)鍵點坐標(biāo)的熱力圖,利用多任務(wù)多階段的混合級聯(lián)結(jié)構(gòu)與信息交互結(jié)合邊框回歸結(jié)果進一步提精,將最終得到的熱力圖轉(zhuǎn)換得到待檢測目標(biāo)關(guān)鍵區(qū)域的任意四邊形四個頂點Grid Point的坐標(biāo)信息;步驟2:于監(jiān)控設(shè)備下自行采集目標(biāo)圖片數(shù)據(jù)并整理,劃分圖像訓(xùn)練集、驗證集和測試集后,對每一幅目標(biāo)圖像分別進行相應(yīng)的數(shù)據(jù)增強手段,增強處理前后的圖像共同構(gòu)成目標(biāo)圖像數(shù)據(jù)集;步驟3:以步驟2得到的圖像數(shù)據(jù)集中的訓(xùn)練集與驗證集為輸入,采用隨機梯度下降法對步驟1構(gòu)建的基于任意四邊形回歸的目標(biāo)檢測網(wǎng)絡(luò)模型進行訓(xùn)練,得到訓(xùn)練好的網(wǎng)絡(luò)模型,使用測試集對得到的網(wǎng)絡(luò)模型進行性能評估;步驟4:將待檢測的目標(biāo)圖像輸入到步驟3訓(xùn)練好的網(wǎng)絡(luò)模型中,輸出得到類別信息和目標(biāo)關(guān)鍵區(qū)域任意四邊形的頂點坐標(biāo),在完成目標(biāo)檢測的基礎(chǔ)上進一步精確定位。2.根據(jù)權(quán)利要求1所述的一種基于任意四邊形回歸的目標(biāo)檢測與精確定位方法,其特征在于:所述步驟1的增大特征局部映射的具體過程如下:對于待檢測的目標(biāo)來說,所有的Grid Point共享一個相同的特征表達區(qū)域,為了解決特征表達區(qū)域的問題,改變熱力圖預(yù)測的關(guān)鍵點位置坐標(biāo)與該點對應(yīng)于原圖位置坐標(biāo)的映射關(guān)系,過程為:首先,將輸入Grid Head的特征圖的寬高擴大到原來的兩倍,增大特征圖在原圖上映射的區(qū)域,將Grid Point包含在RPN網(wǎng)絡(luò)生成的候選框內(nèi)部;然后,將放大后的特征圖按照Grid Point所在的位置局部映射,對于每個Grid Point,新的輸出代表了整張?zhí)卣鲌D四分之一的區(qū)域,四個Grid Point對應(yīng)的熱力圖由完整特征的不同區(qū)域生成,而不是所有的關(guān)鍵點共享一個相同的特征表達區(qū)域;處理后,每個Grid Point的表達能近似地視為一個歸一化的過程,在不增加計算量的同時,提升了定位精度。3.根據(jù)權(quán)利要求1所述的一種基于任意四邊形回歸的目標(biāo)檢測與精確定位方法,其特征在于:所述步驟1的基于多重注意力機制特征交互融合的具體過程如下:用于特征提取的卷積序列由多個卷積層構(gòu)成,對輸入的待檢測圖像特征F
    din
    進行特征提取,提取后的特征記為F
    d
    ,特征提取時先增大特征并進行局部映射,再使用基于多重注意力機制的特征融合模塊對提取的特征F
    d
    進行多級融合處理,具體如下:將特征F
    d
    按照通道平均分成M組,與第i個Grid Point對應(yīng)的特征圖記為F
    di
    ,與源點集合S
    i
    中的第j個點對應(yīng)的特征圖記為F
    dj
    ,i=1,2,

    ,M,M為Grid Point點數(shù),j=1,2,

    ,K
    i
    ,K
    i
    為源點集合S
    i
    中包含的源點個數(shù);
    所述的源點為Grid網(wǎng)格中與第i個Grid Point距離為1的點,所有源點構(gòu)成源點集合;然后,將特征圖F
    dj
    通過卷積層,得到對應(yīng)的新的待融合特征圖,記為T
    d:j

    i
    (F
    dj
    );接著,將特征圖F
    di
    與融合的特征圖T
    d:j

    i
    (F
    dj
    )按下式進行相加融合處理,i=1,2,

    ,M,得到融合后的特征圖F

    di
    :然后,對特征圖F

    di
    按照下式進行二次相加融合處理,得到二級融合特征圖F

    di
    :其中,T

    j

    i
    (F

    dj
    )表示特征圖F

    dj
    通過卷積層得到的新的二級待融合特征圖,卷積層結(jié)構(gòu)與前面得到特征圖T
    d:j

    i
    (F
    dj
    )中的卷積層結(jié)構(gòu)相同,i=1,2,

    ,M,j=1,2,

    ,K
    i
    ;對于二次融合得到的多級特征{F
    di
    ,F

    dj
    ,F

    di

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:李暉暉馮昱霖劉航
    申請(專利權(quán))人:西北工業(yè)大學(xué)
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 无码人妻精品一区二区三区66 | 亚洲精品av无码喷奶水糖心| 国产精品三级在线观看无码| 国产午夜精品无码| 久久精品无码一区二区三区不卡| 亚洲色无码专区在线观看| 国产精品无码久久av不卡| 亚洲AV无码一区二区乱子伦 | 国产成人精品无码专区| 亚洲va中文字幕无码久久不卡 | 午夜精品久久久久久久无码| 亚洲AV无码码潮喷在线观看| 无码专区国产无套粉嫩白浆内射 | 亚洲精品无码mv在线观看网站| 亚洲熟妇无码一区二区三区 | 一夲道dvd高清无码| 一本色道无码道在线观看| 无码国产精品久久一区免费| 性无码专区无码片| 韩日美无码精品无码| 国产精品亚洲一区二区无码 | 亚洲Av无码专区国产乱码DVD| 精品无人区无码乱码大片国产| 无码人妻精品一区二区蜜桃| 精品无码国产自产在线观看水浒传| 日韩人妻无码一区二区三区综合部| 特黄熟妇丰满人妻无码| 免费无码又黄又爽又刺激| 亚洲私人无码综合久久网| 亚洲AV无码专区在线观看成人 | 最新无码人妻在线不卡| 亚洲Aⅴ无码专区在线观看q| 国产成A人亚洲精V品无码性色| 国产精品无码不卡一区二区三区| 无码av无码天堂资源网| 国产免费av片在线无码免费看| 无码人妻精品一区二区蜜桃AV| 国产亚洲精久久久久久无码AV| 国产精品99无码一区二区| 亚洲av无码专区在线播放| 亚洲AV日韩AV永久无码下载|