"/>
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種莫爾斯自動識別模型的構建方法及自動識別方法技術

    技術編號:36694012 閱讀:36 留言:0更新日期:2023-02-27 20:04
    本發明專利技術涉及一種莫爾斯自動識別模型的構建方法及自動識別方法,屬于報文識別技術領域,解決了現有技術中莫爾斯自動識別模型準確率不高,識別結果需要大量人工矯正的問題。構建方法包括:獲取莫爾斯語音數據集,對莫爾斯語音數據進行標注,得到標注后的數據集D

    【技術實現步驟摘要】
    一種莫爾斯自動識別模型的構建方法及自動識別方法


    [0001]本專利技術涉及報文識別
    ,尤其涉及一種莫爾斯自動識別模型的構建方法及自動識別方法。

    技術介紹

    [0002]莫爾斯碼是一種用不同時長的高低電平表示信息的編碼方式,電平信號的不同組合代表了不同的符號、數字和英文字母。在無線電領域,莫爾斯碼用短音表示高電平中的短碼,長音表示高電平中的長碼,通常用“嘀”和“嗒”描述這兩種信號,收信人員通過聽覺識別完成信號的接收。莫爾斯電碼的發送方式通常分為機器發送和人工發送,傳統的接收方式是人工聽音辨識。通常情況下,通過人工聽音辨識的方式接收莫爾斯電碼,不僅對信號員的專業度和熟練度有較高要求,而且在長時間單一重復的辨識工作中,信號員的收信和譯碼的準確性也會受到影響。
    [0003]伴隨著人工智能的發展,以深度學習技術為基礎的莫爾斯自動識別成為新的接收方式。現有技術包括基于卷積神經網絡(CNN)、雙向長短時記憶網絡(Bi
    ?
    LSTM)的端到端識別方法以及基于卷積神經網絡(CNN)的圖像識別方法。由于真實場景下的莫爾斯通信存在發送數據的互相差異性和信號傳輸、接收的不穩定性,具體表現為人工發送的數據隨意性較強,傳輸和接收過程中易受天氣等因素影響產生較大干擾噪音,導致現有的莫爾斯自動識別模型雖然在一定程度上實現了自動識別,但是沒有針對差異信號識別和噪聲干擾問題的完善解決方案,準確率不能達到業務要求,需要進行大量人工矯正工作。可見,亟需一種能夠針對莫爾斯通信特點的全新莫爾斯自動識別模型及自動識別方法,以提高自動識別的準確率,減輕人工矯正的工作量。

    技術實現思路

    [0004]鑒于上述的分析,本專利技術實施例旨在提供一種莫爾斯自動識別模型的構建方法及自動識別方法,用以解決現有技術中莫爾斯自動識別模型準確率不高,識別結果需要大量人工矯正的問題。
    [0005]一方面,本專利技術實施例提供了一種莫爾斯自動識別模型的構建方法包括如下步驟:
    [0006]獲取莫爾斯語音數據,對莫爾斯音頻數據進行標注,得到標注后的數據集D
    p


    [0007]對標注后的數據集D
    p

    進行預處理,得到包含原始語速數據和擴展語速數據的預處理數據集D
    p1

    [0008]對所述預處理數據集D
    p1
    進行莫爾斯特征提取和特征擴展,得到由莫爾斯語音特征序列和其對應的字符序列構成的訓練數據集D
    t

    [0009]利用所述訓練數據集D
    t
    對語音識別模型M進行訓練,得到訓練好的莫爾斯自動識別模型M
    p
    ,其中所述語音識別模型M基于transformer框架構建。
    [0010]進一步的,所述對莫爾斯音頻數據進行標注包括:
    [0011]通過聽譯語音標注系統對已切分的莫爾斯語音片段進行標注,將莫爾斯音頻數據標注為對應的莫爾斯報文字符;其中所述標注后的數據集D
    p

    包括語音數據和其對應的標注文本。
    [0012]進一步的,所述對標注后的數據集D
    p

    進行預處理,包括:
    [0013]將標注后的莫爾斯數據集D
    p

    以速度變化作擴展,得到由加速語音數據和減速語音數據構成的擴展語速數據;
    [0014]將所述擴展語速數據和原始的標注后的莫爾斯數據集D
    p

    整合在一起作為模型的預處理數據集D
    p1

    [0015]進一步的,所述莫爾斯特征提取,包括:
    [0016](1)對所述訓練數據集D
    t
    中的語音數據進行莫爾斯語音特征頻帶范圍的特征提取,得到每幀語音數據降維后的Fbank特征數據集D
    r

    [0017](2)對降維后的Fbank特征數據集D
    r
    進行拼幀和跳幀的特征處理,得到包含上下文語音特征的Fbank特征數據集D
    r

    ,具體公式如下:
    [0018]P(F
    n*d
    )=F

    m*(k+1)d
    [0019]其中F為初始特征,維度為n*d,n代表單條語音數據的幀數,d代表每幀的特征維度,P為拼幀跳幀處理;F

    為拼幀跳幀處理后的特征,維度為m*(k+1)d,k為拼k幀跳k幀中的幀數,m為拼幀跳幀處理之后的單條語音數據的特征序列長度。
    [0020]進一步的,所述特征擴展,包括:
    [0021](1)使用預處理數據集D
    p1
    對GMM
    ?
    HMM聲學模型進行訓練,通過維特比對齊得到單個莫爾斯字符在語音數據對應幀中的特征序列并作為候選特征序列,建立每個莫爾斯字符與所述候選特征序列的映射表;
    [0022](2)獲取歷史積累的莫爾斯文本數據,根據所述文本數據中的字符內容從映射表中隨機選取對應字符的一條候選特征序列作為單個字符的偽語音特征序列進行完整的單條所述文本數據的偽語音特征拼接,得到包含拼接后的單條文本的偽語音特征序列和其對應的單條文本字符序列的偽特征數據集D
    h

    [0023](3)將數據集D
    r

    和偽特征數據集D
    h
    合并,得到包含莫爾斯語音特征序列和其對應的字符序列的訓練數據集D
    t

    [0024]進一步的,所述對語音識別模型M進行訓練包括:
    [0025](1)采用遷移學習的方式,設置語音識別模型M的初始隱層參數,得到模型M1。其中,所述初始隱層參數,即使用標注數據充分的語音數據訓練好的模型的隱層參數;
    [0026](2)將詞表V導入所述模型M1;其中,所述詞表V通過統計標注后的數據集D
    p
    中每個標注字符的頻度而獲得;
    [0027](3)使用訓練數據集D
    t
    對所述模型M1進行訓練,以標注字符序列為目標輸出,訓練得到莫爾斯自動識別模型M
    p

    [0028]進一步的,使用訓練數據集D
    t
    對所述模型M1進行訓練,包括:
    [0029]將所述訓練數據集D
    t
    劃分為訓練集D
    train
    、驗證集D
    valid
    、測試集D
    test
    ,用D
    train
    訓練模型,用D
    valid
    進行驗證,所述訓練集D
    train
    輸入所述模型M1,輸出最終結果概率;計算損失并更新模型參數,迭代n輪取最后的m輪模型參數的算術平均作為最終參數,得到訓練好的莫爾斯自動識別模型M
    p

    [0030]更進一步的,訓練模型的損失函數為:
    [0031][0032]其中,為transformer的交叉熵損失,為字錯誤率;y
    i...

    【技術保護點】

    【技術特征摘要】
    1.一種莫爾斯自動識別模型的構建方法,其特征在于,包括如下步驟:獲取莫爾斯語音數據集,對莫爾斯語音數據進行標注,得到標注后的數據集D
    p

    ;對標注后的數據集D
    p

    進行預處理,得到包含原始語速數據和擴展語速數據的預處理后數據集D
    p1
    ;對所述預處理后數據集D
    p1
    進行莫爾斯特征提取和特征擴展,得到包含莫爾斯語音特征序列和其對應的字符序列的訓練數據集D
    t
    ;利用所述訓練數據集D
    t
    對語音識別模型M進行訓練,得到訓練好的莫爾斯自動識別模型M
    p
    ;其中所述語音識別模型M基于transformer框架構建。2.根據權利要求1所述的構建方法,其特征在于,所述對標注后的數據集D
    p

    進行預處理,包括:將標注后的莫爾斯數據集D
    p

    以速度變化作擴展,得到由加速語音數據和減速語音數據構成的擴展語速數據;將所述擴展語速數據和原始的標注后的莫爾斯數據集D
    p

    整合在一起得到預處理后數據集D
    p1
    。3.根據權利要求1所述的構建方法,其特征在于,所述進行莫爾斯特征提取,包括:(1)對所述預處理后數據集D
    p1
    中的語音數據進行莫爾斯語音特征頻帶范圍的特征提取,得到每幀語音數據降維后的Fbank特征數據集D
    r
    ;(2)對降維后的Fbank特征數據集D
    r
    進行拼幀和跳幀的特征處理,得到包含上下文語音特征的Fbank特征數據集D
    r

    ,具體公式如下:P(F
    n*d
    )=F

    m*(k+1)d
    其中F為初始特征,維度為n*d,n代表單條語音數據的幀數,d代表每幀的特征維度,P為拼幀跳幀處理;F

    為拼幀跳幀處理后的特征,維度為m*(k+1)d,k為拼k幀跳k幀中的幀數,m為拼幀跳幀處理之后的單條語音數據的特征序列長度。4.根據權利要求1所述的構建方法,其特征在于,所述特征擴展,包括:(1)使用預處理后數據集D
    p1
    對GMM
    ?
    HMM聲學模型進行訓練,通過維特比對齊得到單個莫爾斯字符在語音數據對應幀中的特征序列并作為候選特征序列,建立每個莫爾斯字符與所述候選特征序列的映射表;(2)獲取歷史積累的莫爾斯文本數據,根據所述文本數據中的字符內容從映射表中隨機選取對應字符的一條候選特征序列作為單個字符的偽語音特征序列進行完整的單條所述文本數據的偽語音特征拼接,得到包含拼接后的單條文本的偽語音特征序列和其對應的單條文本字符序列的偽特征數據集D
    h
    ;將莫爾斯特征提取得到的Fbank特征數據集D
    r

    和所述偽特征數據集D
    h
    合并,得到包含莫爾斯語音特征序列和其對應的字符序列的訓練數據集D
    t
    。5.根據權利要求1所述的構建方法,其特征在于,所述對語音識別模型M進行訓練,包括:(1)采用遷移學習的方式,設置語音識別模型M的初始隱層參數,得到模型M1;其中,所述初始隱層參數通過使用標注數據充分的語音數據預訓練模型而獲得;(2)將詞表V導入所述模型M1;其中,所述詞表V通過統計標注后的數據集D
    p
    ...

    【專利技術屬性】
    技術研發人員:張樂樂馮少輝張建業
    申請(專利權)人:北京中科智加科技有限公司
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 久久AV高潮AV无码AV| 亚洲精品偷拍无码不卡av| 人妻少妇无码视频在线| V一区无码内射国产| 日韩精品无码一区二区三区免费| 无码任你躁久久久久久老妇App| 色欲AV无码一区二区三区| 无套中出丰满人妻无码| 国产精品无码一二区免费 | 97精品人妻系列无码人妻| 特黄熟妇丰满人妻无码| 无码AV岛国片在线播放| 成在人线av无码免费高潮水| 色综合久久久无码网中文| 亚洲第一极品精品无码久久| 亚洲精品一级无码鲁丝片 | 免费无码精品黄AV电影| 久久精品九九热无码免贵| 国产啪亚洲国产精品无码| 永久免费av无码网站大全| 亚洲AV综合永久无码精品天堂| 亚洲色偷拍另类无码专区| 内射无码午夜多人| 国产av无码久久精品| 激情无码亚洲一区二区三区| 精品国产一区二区三区无码| 亚洲精品中文字幕无码蜜桃| 久久av高潮av无码av喷吹| 久青草无码视频在线观看| 无码精品A∨在线观看无广告| 中文字幕av无码一二三区电影| 无码专区中文字幕无码| 久久精品无码精品免费专区| 亚洲国产综合无码一区| 国产真人无码作爱视频免费| 一本一道av中文字幕无码| 亚洲第一极品精品无码久久| 亚洲AV无码一区二区二三区入口| 亚洲av无码一区二区三区网站 | 人妻aⅴ无码一区二区三区| 久久久亚洲精品无码|