• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于數據與任務驅動的圖像分類方法技術

    技術編號:10311181 閱讀:134 留言:0更新日期:2014-08-13 14:17
    本發明專利技術公開了一種基于數據與任務驅動的圖像分類方法,該方法包括:根據數據集規模與圖像內容設計卷積神經網絡結構;使用給定分類數據集對卷積神經網絡模型進行訓練;使用訓練后的卷積神經網絡對訓練集圖像提取特征表達;將測試圖像輸入訓練后的卷積神經網絡,并進行分類。本發明專利技術方法基于非線性卷積特征學習,可以以數據驅動的方式實現模型對數據集的自適應,從而更好的描述特定的數據集,通過任務驅動的方式直接對K近鄰的誤差進行優化,使其能夠在K近鄰任務上取得更好的性能;并且在訓練階段可以采用GPU進行高效訓練,在測試階段只需使用CPU就可以實現高效的K近鄰圖像分類,非常適用于大規模的圖像分類、檢索等任務。

    【技術實現步驟摘要】

    本專利技術涉及計算機視覺中圖像分類
    ,特別涉及。
    技術介紹
    圖像分類是計算機視覺最基本的研究問題之一,其要解決的問題就是給定一張圖像自動判斷其中是否包含某類物體。圖像分類問題是視覺研究一個核心課題,許多其他視覺研究都要依賴和涉及圖像分類問題,如圖像中物體檢測、跟蹤,圖像分割,視頻中物體分類、檢測、跟蹤,行為分析,手勢識別等。K近鄰圖像分類是一種圖像分類方法,是指在對圖像分類時采用的是K近鄰投票的方式,即K個最近的圖像中出現次數最多的類別預測為該測試樣本的類別。除了可以簡單、高效地實現對圖像進行分類外,K近鄰分類還有很多其他特性。比如K近鄰圖像分類能夠獲取與測試圖像最接近的樣本,可以應用在圖像檢索、人臉檢索、視頻檢索等領域。由于傳統技術中分類器的選擇與圖像特征表達是兩個獨立的過程,而且K近鄰分類是一個非參數模型,其預測嚴重依賴于數據的空間分布,也即圖像特征表達,這就導致圖像特征表達對K近鄰分類而言不是最優的,對分類性能造成影響。近年來,圖像分類領域發展迅速,在分類技術方面取得了很多重要突破。當前,詞包模型是圖像特征表達主流框架之一。詞包模型通過對密集提取的圖像塊的底層特征描述進行統計特征描述,獲得對圖像的整體特征表達。詞包模型通常由底層特征描述、視覺單詞生成、底層特征編碼、特征匯聚、分類器訓練與測試等步驟構成,在分類器訓練前,我們可以認為詞包模型采用的是無監督的方式對圖像進行表達,不論是傳統的SIFT、HOG等底層特征還是詞包模型中層特征表達,都沒有利用到圖像的標簽信息,因而這樣的特征表達對于K近鄰分類這樣的無參數模型來說,通常不是最優的
    技術實現思路
    有鑒于此,本專利技術的主要目的是提供,以實現在大尺度圖像數據集上更加快速、準確的圖像分類。為了達到上述目的,本專利技術采用以下技術方案:,包括:數據集準備,根據數據集規模與圖像內容設計卷積神經網絡結構;模型訓練,使用給定分類數據集對卷積神經網絡模型進行訓練;使用訓練后的卷積神經網絡對訓練集圖像進行特征表達提取;將測試圖像輸入訓練后的卷積神經網絡,使用K近鄰方式對測試圖像進行分類。進一步的,所述數據集準備,根據數據集規模與圖像內容設計卷積神經網絡結構,還包括:至少通過以下方式中的一種或多種實現數據增強:1)從原始圖像隨機裁剪去圖像四周的邊緣部分以產生出新的具有細微差別的樣本圖像;2)在原始圖像像素中加入隨機高斯噪聲產生出新的樣本圖像。進一步的,所述數據集準備,根據數據集規模與圖像內容設計卷積神經網絡結構,還包括:將圖像樣本縮放到固定尺寸,并將像素拉直成一個向量作為卷積神經網絡的輸入。進一步的,所述模型訓練,使用給定分類數據集對卷積神經網絡模型進行訓練,具體還包括:使用卷積神經網絡作為基本特征變換模型;基于鄰分量分析期望錯誤率作為損失函數對卷積神經網絡模型進行訓練;基于梯度的優化方法進行網絡訓練,并使用GPU進行運算。進一步的,所述使用訓練后的卷積神經網絡對訓練集圖像進行提取特征表達,包括:將所有訓練圖像輸入訓練后的卷積神經網絡,取出最后一層全連接層的響應作為每張訓練圖像的特征表達。進一步的,將訓練集圖像的特征表達構造成KD-樹并預先存儲。進一步的,所述將測試圖像輸入訓練后的卷積神經網絡,使用K近鄰方式對測試圖像進行分類,包括:對于給定測試圖像,將該圖像縮放到卷積神經網絡模型輸入大小,然后送入卷積神經網絡進行前向計算,取出最后一層全連接層的響應作為該測試圖像的特征表達,使用該表達在訓練集圖像的特征表達中進行K近鄰檢索,將特征表達最近的K個訓練圖像中出現次數最多的類別預測為該測試圖像的類別。進一步的,所述基于鄰分量分析期望錯誤率作為損失函數對卷積神經網絡模型進行訓練,具體包括:采用鄰分量分析NCA來對K近鄰分類誤差進行估計,給定N對訓練樣本{(Xi,Yi) | i=I,…,N},其中Xi是圖像樣本,Yi是其對應的標簽,對于一個樣本Xi來說,另一個樣本Xj與Xi屬于同一個類別的概率定義為本文檔來自技高網
    ...
    一種<a  title="一種基于數據與任務驅動的圖像分類方法原文來自X技術">基于數據與任務驅動的圖像分類方法</a>

    【技術保護點】
    一種基于數據與任務驅動的圖像分類方法,其特征在于,包括:數據集準備,根據數據集規模與圖像內容設計卷積神經網絡結構;模型訓練,使用給定分類數據集對卷積神經網絡模型進行訓練;使用訓練后的卷積神經網絡對訓練集圖像進行特征表達提取;將測試圖像輸入訓練后的卷積神經網絡,使用K近鄰方式對測試圖像進行分類。

    【技術特征摘要】
    1.一種基于數據與任務驅動的圖像分類方法,其特征在于,包括: 數據集準備,根據數據集規模與圖像內容設計卷積神經網絡結構; 模型訓練,使用給定分類數據集對卷積神經網絡模型進行訓練; 使用訓練后的卷積神經網絡對訓練集圖像進行特征表達提取; 將測試圖像輸入訓練后的卷積神經網絡,使用K近鄰方式對測試圖像進行分類。2.根據權利要求1所述的基于數據與任務驅動的圖像分類方法,其特征在于,數據集準備,根據數據集規模與圖像內容設計卷積神經網絡結構,還包括: 至少通過以下方式中的一種或多種實現數據增強:1)從原始圖像隨機裁剪去圖像四周的邊緣部分以產生出新的具有細微差別的樣本圖像;2)在原始圖像像素中加入隨機高斯噪聲產生出新的樣本圖像。3.根據權利要求1所述的基于數據與任務驅動的圖像分類方法,其特征在于,數據集準備,根據數據集規模與圖像內容設計卷積神經網絡結構,還包括: 將圖像樣本縮放到固定尺寸,并將像素拉直成一個向量作為卷積神經網絡的輸入。4.根據權利要求1所述的基于數據與任務驅動的圖像分類方法,其特征在于,模型訓練,使用給定 分類數據集對卷積神經網絡模型進行訓練,具體還包括: 使用卷積神經網絡作為基本特征變換模型; 基于鄰分量分析期望錯誤率作為損失函數對卷積神經網絡模型進行訓練; 基于梯度的優化方法進行網絡訓練,并使用GPU進行運算。5.根據權利要求1所述的基于數據與任務驅動的圖像分類方法,其特征在于,使用訓...

    【專利技術屬性】
    技術研發人員:黃凱奇任偉強張俊格
    申請(專利權)人:中國科學院自動化研究所
    類型:發明
    國別省市:北京;11

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 久久久久久国产精品无码下载 | 无码夫の前で人妻を侵犯 | 国产品无码一区二区三区在线蜜桃| 人妻丰满熟妞av无码区| 男男AV纯肉无码免费播放无码| 亚洲午夜国产精品无码| 亚洲成a∧人片在线观看无码| 水蜜桃av无码一区二区| 麻豆亚洲AV成人无码久久精品 | 亚洲AV无码专区日韩| 无码中文人妻在线一区| 国产精品多人p群无码| 亚洲中文久久精品无码1| 自拍中文精品无码| 黄色成人网站免费无码av| 国模吧无码一区二区三区| 69成人免费视频无码专区| 久久久久亚洲AV无码观看| 中文无码制服丝袜人妻av| 久久影院午夜理论片无码| 免费无码又爽又高潮视频 | 精品久久久久久无码中文字幕一区| 久久无码无码久久综合综合| 狠狠躁狠狠躁东京热无码专区| 亚洲AV无码国产精品色| 无码专区中文字幕无码| 亚洲日韩精品一区二区三区无码| 无码的免费不卡毛片视频| 天堂一区人妻无码| 亚洲精品无码专区在线| 无码人妻丰满熟妇啪啪网站牛牛| 日韩乱码人妻无码系列中文字幕 | 国产羞羞的视频在线观看 国产一级无码视频在线 | 久久久久亚洲AV无码专区首JN | 13小箩利洗澡无码视频网站免费| 国产在线无码制服丝袜无码| 日韩人妻系列无码专区| 久久国产精品成人无码网站| 亚洲精品无码人妻无码| 无码尹人久久相蕉无码| 内射中出无码护士在线|