原创 問題生成(QG)總結

問題生成(QG)總結 (2018.8)   背景:  爲什麼要研究QG?  從人的經驗看,好的學習者一定是擅長提問的。機器知識庫作爲“學習者”,也許可以利用主動提問來高效構建或者補充知識庫,擴充數據集等等。  現在的一些應用場景:在教育領

原创 論文閱讀 QA與QG聯合學習

詳細: https://blog.csdn.net/thormas1996/article/details/81081529 https://blog.csdn.net/thormas1996/article/details/815376

原创 《A Survey on Transfer Learning》中文版翻譯《遷移學習研究綜述》

首先感謝(http://blog.csdn.net/magic_leg/article/details/73957331)這篇博客首次將《A Survey on Transfer Learning》這篇文章翻譯成中文版,給予我們很大的參考

原创 【收藏】各種乘法的區別 “點積、外積、數乘...等”

I've seen several conventions, including ⋅⋅, ∘∘, ∗∗, ⊗⊗, and ⊙⊙. However, most of these have overloaded meanings (see h

原创 遷移學習和多任務學習

遷移學習 總結一下,什麼時候遷移學習是有意義的?如果你想從任務A學習並遷移一些知識到任務B,那麼當任務A和任務B都有同樣的輸入時,遷移學習是有意義的。在第一個例子中,A和B的輸入都是圖像,在第二個例子中,兩者輸入都是音頻。當任務A的數據比

原创 【ICML2018見聞】 遷移學習、多任務學習領域的進展

【導讀】如今 ICML(International Conference on Machine Learning,國際機器學習大會)已經成爲有巨大影響力的會議,每年都會爲我們帶來很多關於機器學習趨勢與發展方向等有意義的分享。今年的 ICM

原创 閱讀《Learning to Ask: Neural Question Generation for Reading Comprehension 》

閱讀《Learning to Ask: Neural Question Generation for Reading Comprehension 》@(NLP)[自然語言生成|LSTM|QA|Attention]Abstract作者爲解決

原创 論文復現|pointer-generator

論文代碼鏈接:https://github.com/becxer/pointer-generator/ 一、數據(cnn,dailymail) 數據處理(代碼鏈接):https://github.com/becxer/cnn-dailym

原创 Reading Note: Gated Self-Matching Networks for Reading Comprehension and Question Answering

AbstractAuthors present the gated self-matching networks for reading comprehension style question answering, which aims

原创 Tensorflow 國內鏡像源 [安裝]

今天安裝Tensorflow,找到清華大學開源軟件鏡像站,直接替換域名即可,下載安裝超快速,不要太開心~~~地址:https://mirrors.tuna.tsinghua.edu.cn/help/tensorflow/還可以選擇版本,自

原创 動態記憶網絡

原文 Ask Me Anything: Dynamic Memory Networks for Natural Language Processing簡介Question answering 是自然語言處理領域的一個複雜問題. 它需要對文

原创 解讀阿里iDST SLQA 技術-機器閱讀理解

機器閱讀理解的評測維度分爲 EM(Exact Match,精準匹配分數)和 F1(精確率和召回率的平均,模糊匹配分數)。下圖可見,阿里巴巴在 F1 分數上略勝一籌,微軟的 EM 分數優於阿里巴巴。無論如何,我們可以欣喜地看到包括阿里,微軟

原创 [NLP論文閱讀]Learned in Translation: Contextualized Word Vectors

論文原文:Learned in Translation: Contextualized Word Vectors題外話前段時間一直在寫自己的論文,目前論文基本成型,又要轉入新一階段的論文閱讀了。由於對GAN等技術不是很瞭解,所以在挑選論文

原创 [NLP論文閱讀]A Neural Knowledge Language Model(一)

原文地址:A Neural Knowledge Model摘要現有的語言模型(Language Model)在對factual knowledge的編碼(encode)和解碼(decode)方面存在着明顯的侷限。原因是語言模型主要通過統計

原创 統計SQuAD的詞彙得到word2id 並把詞都轉成id的python代碼

import json import collections json_file = open("train-v1.1.json") data = json.load(json_file) all_words = [] for pa