原创 Transformer原理及代碼註釋(Attention is all you need)

Transformer是谷歌針對NLP的機器翻譯問題,2017年發表了一篇名爲Attention Is All You Need 的論文中提出的模型。Transformer採用了機器翻譯中通用的encoder-decoder模型,

原创 GLMP 代碼 詳細註釋

GLMP 縮寫來自論文 GLOBAL-TO-LOCAL MEMORY POINTER NETWORKS FOR TASK-ORIENTED DIALOGUE 下面是它代碼的詳細註釋(已跑通) 3.1 模型 3.1.1 Contex

原创 Text LSTM 學習筆記

LSTM,全程爲Long Short-Term Memory(長短期記憶),是RNN(循環神經網絡)的一種變體,它對RNN進行了改進並有效避免了常規RNN網絡的梯度消失問題。 由於是對RNN網絡的改進,所以它的框架跟RNN是相同的

原创 LINUX命令常用 備忘

//新建文件夾 mkdir balabala //新建文件 touch example.txt //安裝包安裝並解決依賴問題 sudo dpkg -i xxx.deb sudo apt-get install -f //切

原创 JabRef main函數 註釋

/** * JabRef MainClass */ public class JabRefMain extends Application { /* Application類Life-cycle : The entry

原创 Bag of Tricks for Efficient Text Classification (fastText) 學習筆記

雖然神經網絡在實踐中效果不錯,然而訓練和測試需要大量的時間,但是有rank constraint和fast loss approximation的線性模型卻可以在十億級別的單詞量下十分鐘完成分析。fastText是可以應用在帶監督

原创 DEEPLREARNING.Ai-2.11~14 筆記

吳老師這四節課,主要講述了向量化計算。雖然在大多數情況中,for循環都適用,而且是最常用的方法之一,但是對於深度學習的計算,反而是向量化的方法更爲適用。下面就來探究一下原因和實踐一下吧。 2.11 向量化(Vectorization)