原创 word2vec 與 Glove 對比
都是詞向量。 Glove的推出時間比 word2vec要晚 孰優孰劣的問題,並沒有完全的定論。但 word2vec 的知名度卻要跟很多
原创 全角與半角的英文
常用的是 全角:sbc 半角:dbc 英文的出處一直 未查到
原创 交叉熵及相關
LR的損失函數 RankNet損失函數
原创 autoencode
autoencode
原创 word2vec個人理解
c-bow 和 skip-gram 直觀區別如 圖所示。 但真實的區別是:在計算一個 term 的向量時, c-bow是將該term 的 window內所有的term累加後進行計算,而skip-gram卻是將依次使用每一個term進行計
原创 Topic Model
LSI LDA
原创 LambdaMART小結
pairwise
原创 能量模型
基於能量的模型
原创 序列相關
序列標註 序列迴歸 序列分類
原创 讀論文《Attention and Augmented Recurrent Neural Network》
谷歌大腦計劃研究員博文 http://distill.pub/2016/augmented-rnns/
原创 增強學習
待學習
原创 GRU
RNN
原创 DSSM
MS推出的深度學習模型