原创 【機器學習】關於注意力模型(Attention-model)的理解和應用

注意力模型是近年來在序列處理領域新提出的機器學習方法,在語言翻譯等領域取得了不錯的效果。要想了解注意力模型,那麼必須對現在的機器學習各領域有一定的瞭解,而且要了解encoder-decoder基本思想。 首先可以大致的概括下目前的

原创 基於深度學習的心電圖分類

具體源碼請看github https://github.com/LuZhenHuan/code 詳細介紹日後補充

原创 2017-07-27-【機器學習】關於注意力模型(Attention-model)的理解和應用

注意力模型是近年來在序列處理領域新提出的機器學習方法,在語言翻譯等領域取得了不錯的效果。要想了解注意力模型,那麼必須對現在的機器學習各領域有一定的瞭解,而且要了解encoder-decoder基本思想。 首先可以大致的概括下目前的機器

原创 【機器學習】PyTorch如何選擇最優初始學習率

衆所周知,機器學習尤其是現在的深度學習,大量的工作都集中在調參上。一個模型能否很好的解決問題,調參佔了很大的比重。而學習率又是模型衆多超參數中最重要和最容易調節的一個。 1.什麼是學習率 目前深度學習優化的基本思想是梯度下降法,已經有

原创 【機器學習】關於t-sne:降維、可視化

關於t-sne:降維、可視化 機器學習中,我們的使用的數據基本都是高維的,所以我們很難直接從數據中觀察分佈和特徵。因此出現了很多數據降維的手段幫助我們提取特徵和可視化數據。這就是流行學習方法(Manifold Learning):假設數據

原创 CSDN-markdown

歡迎使用Markdown編輯器寫博客 本Markdown編輯器使用StackEdit修改而來,用它寫博客,將會帶來全新的體驗哦: Markdown和擴展Markdown簡潔的語法 代碼塊高亮 圖片鏈接和圖片上傳 LaTex數學公式 UM

原创 【轉】【譯】How to Handle Very Long Sequences with LSTM(LSTM RNN 超長序列處理)

原文地址 http://machinelearningmastery.com/handle-long-sequences-long-short-term-memory-recurrent-neural-networks/ 一個長的輸入序列

原创 基於torch-rnn的心電圖分類(第一階段)test

基礎知識 torch-rnn分析 torch-rnn是jcjohnson寫的torch平臺上的rnn模型,優化了char-rnn的效率,並提高了速度。源碼和文檔見github @Github:https://github.com/jcjo

原创 【機器學習】梯度下降算法分析與簡述

梯度下降算法分析與簡述 梯度下降(gradient descent)是一種最優化算法,基於爬山法的搜索策略,其原理簡單易懂,廣泛應用於機器學習和各種神經網絡模型中。在吳恩達的神經網絡課程中,梯度下降算法是最先拿來教學的基礎算法。 梯度下降