原创 Adversarial Learning for Neural Dialogue Generation

Adversarial Learning for Neural Dialogue Generation文獻的重點翻譯和總結

原创 卷積神經網絡(CNN)概述及其在NLP中的應用(一)

原文鏈接: http://www.wildml.com/2015/11/understanding-convolutional-neural-networks-for-nlp/ 原標題《Understanding convolutio

原创 A Diversity-Promoting Objective Function for Neural Conversation Models

該論文提出了基於最大互信息(Maximum Mutual Information—MMI)的期望計算思想。 傳統的生成模型計算方式是:target = argmax(logP(T|S)),即在source給定的條件下,尋找出最大概率的ta

原创 Neural Relation Extraction(神經關係抽取)的兩篇文章

文章一 《Neural Relation Extraction with Selective Attention over Instances》 該論文中提到的Distant supervised是一種弱監督形式,作用是在Relat

原创 zero-shot learning 論文三篇小結

what is zero-shot learning zero-shot learning 是爲了能夠識別在測試中出現,而在訓練中未遇到過的數據類別。例如識別一張貓的圖片,但在訓練時沒有訓練到貓的圖片和對應貓的標籤。那麼我們可以通過比較

原创 SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient

GAN作爲生成模型的一種新型訓練方法,通過discriminative model來指導generative model的訓練,並在真實數據中取得了很好的效果。儘管如此,當目標是一個待生成的非連續性序列時,該方法就會表現出其侷限性。其中最

原创 卷積神經網絡(CNN)概述及其在NLP中的應用(二)

原文鏈接: http://www.wildml.com/2015/11/understanding-convolutional-neural-networks-for-nlp/ 原標題《Understanding convoluti

原创 A Knowledge-Grounded Neural Conversation Model

原文:https://arxiv.org/pdf/1702.01932.pdf 原論文的主要內容翻譯與總結 摘要 Neural network 模型已經可以進行很自然的對話交互了。但目前來看,這些模型在基於任務的對話中並沒有通過吸取其他

原创 End-To-End Memory Networks

原文:《End-To-End Memory Networks》

原创 深度學習簡介--PPT

小記:前些天中科院政策所導師讓我給小組同學(大部分是學經濟和通信的)介紹了下深度學習。做了幾頁PPT,做了個小介紹。

原创 tensorflow編程填坑筆記

1. tf.mul(a,b) 和 tf.matmul(a,b) tf.mul(a,b) 這裏的矩陣a和矩陣b的shape必須相等 tf.mul()是矩陣的element-wise相乘(即Hadamard乘積) tf.matmul(a,b

原创 (Dual learning)對偶學習——視頻筆記

Dual Learning解決的問題: 帶標籤的訓練數據少且高昂的成本,儘可能的利用無標籤數據 Dual Learning 思想 Dual Learning在NMT中的應用 1.算法思想 2.負例 3.正例 4.實

原创 關於RNN(Seq2Seq)的一點個人理解與感悟

自己在這近三個月的深度網絡學習中的一點小小總結與感悟,希望對自己的後面學習和實驗能有所啓發。 博主還是初學者,描述有誤的地方,歡迎大家指出~ 注:前半部分是小小總結,後半部分是小小感悟

原创 情感分析與觀點挖掘總結筆記(一)

總結自《SentimentAnalysis-and-OpinionMining》 注:這是自己研一上半年做的筆記,文章有些老舊了,但前幾章的概述還是不錯的,所以就只上傳了前四章內容以饗讀者,如果有哪位對後面內容感興趣,我再把後面章節的部

原创 RNN的四種代表性擴展—Attention and Augmented Recurrent Neural Networks(一)

看到一片不錯的文章,按着自己的理解翻譯的,水平有限,難免會有錯誤,各路大牛看到後感謝指出! Attention and Augmented Recurrent Neural Networks(二) 作者:CHRIS OLAH Goo