原创 使用CNN進行簡單的指令識別

目錄 1. 加載數據 2. 模型訓練 3. 樣本測試 在語音信號處理領域有時候並不需要對較長的句子進行處理或者識別,僅僅對幾個簡單的指令識別就可以開展後續的工作。這個任務比上次語音增強的要稍微複雜一些,因此使用Pytorch框架來實現De

原创 生成有噪聲/回聲/混響/嘯叫的混合語音樣本

目錄 1. 生成帶有噪聲的混合樣本  2. 生成帶有回聲的混合樣本  3. 生成帶有混響的混合樣本  4. 生成帶有嘯叫的混合樣本 進行語音信號處理的時候需要大量的語音樣本,有時候手上並沒有那麼多從現實中收集到的語音數據,這時候只能自己生

原创 DNN單通道語音增強(附Demo代碼)

目錄 1. 基於映射的語音增強 1.1 訓練階段 1.2 增強階段 2. 基於掩蔽的語音增強 3. Demo效果以及代碼 傳統的語音增強方法基於一些設定好的先驗假設,但是這些先驗存在一定的不合理之處。此外傳統語音增強依賴於參數的設定,人工

原创 基於Mask的語音分離

目錄 1. 時頻掩蔽 2. 語音分離 ​Mask這個單詞有的地方翻譯成掩蔽有的地方翻譯成掩膜,我個人傾向於掩蔽這個翻譯,本文就用掩蔽來作爲Mask的翻譯。 1. 時頻掩蔽 我們都知道語音信號可以通過時域波形或者頻域的各種頻譜來表示,此外語

原创 語音分幀後的重組還原

我們在對語音信號進行處理的時候經常需要對語音進行分幀,而在分幀的過程中幀與幀之間會有一些重疊部分。在對每一幀處理之後我們需要將語音還原成原來的形式。下面詳細說明語音分幀過程及如何還原重組語音。 如下圖所示,在分幀過程中,幀長爲len_,重

原创 librosa.stft的輸出

目錄 1. 函數變量及其返回值 2. hop_length & win_length詳解 2.1 使用默認參數 2.2 hop_length設置爲語音幀長 2.3 hop_length設置爲nfft librosa是語音信號處理中常用的一

原创 語音信號同態與復倒譜分析

目錄 1. 同態分析 2. 復倒譜與倒譜分析 3. 同態聲碼器 1. 同態分析 同態信號處理也稱爲同態濾波,其目的是將卷積關係變換爲求和關係的分離處理。同態濾波是非線性濾波但服從廣義疊加原理,即幾種不同原因的綜合所產生的效果等於這些不同原

原创 語音信號頻域分析

  目錄 1. 短時傅里葉變換 2. 短時傅里葉變換與其他的關係 3. 短時傅里葉變換的採樣率 4. 語譜圖 1. 短時傅里葉變換 傅里葉變換可以將信號轉爲由正弦信號疊加或者復指數的形式,傅里葉變換的相關內容可以參考這裏。和時域分析一樣,

原创 語音信號時域分析

目錄 1. 短時能量 2. 短時幅值 3. 短時過零率 4. 短時自相關 5. 短時平均幅差 語音信號的時域分析是直接對語音波形進行處理或者估計得到一系列隨時間變化的特徵。時域分析建立在語音的短時不變性的基礎之上,即在較短時間內語音各種特

原创 Pytorch實現經典卷積網絡架構

  AlexNet EfficientNet LeNet GoogleNet ResNet VGG MobileNetV1 MobileNetV2 MobileNetV3 SENet ShuffleNetV1 ShuffleNetV2

原创 Pytorch獲取模型所有層

  def getLayers(model): """ get each layer's name and its module :param model: :return: each layer's n

原创 Pytorch遷移學習——修改訓練好的網絡結構及不同層設置不同的學習速率

目錄 1. 修改最後一層的網絡結構 2. 不同網絡層設置不同的學習速率 3. Demo 在使用深度學習的時候有時候需要用到遷移學習,但是由於不同的任務最終的輸出可能不同因此需要修改最後的網絡結構,並且由於最後一層前面的權重是已經訓練好的,

原创 AutoML入門概述

目錄 2. AutoML原理  2.1 NAS 2.1.1 RNN控制器 2.1.2  強化學習訓練 2.1.3 並行和異步更新加速訓練 2.1.4 Skip-connect 的生成 2.1.5 RNN控制器結點架構 2.2 NASNet

原创 從零實現機器學習算法(十八)隨機森林

目錄 目錄 1. 隨機森林算法簡介 2. 隨機森林模型 2.1 boostrap方法 2.2 袋外誤差 2.3 決策樹 2.4 迴歸與分類規則 3. 總結與分析 1. 隨機森林算法簡介 前面我們知道決策樹算法通過從決策樹根節點開始,對待檢

原创 一步一步在Ubuntu下搭建Hadoop環境

目錄 1. 安裝JDK 2. 設置SSH 2.1 安裝SSH 2.2 安裝rsync 2.3 產生SSH key 2.4 將產生的key放置到許可證中 3. 安裝Hadoop 3.1 官網下載Hadoop壓縮包後在/usr/local/h