《Adversarial Training for Community Question Answer Selection Based on Multi-scale Matching》筆記

來源:AAAI2019
資源:https://arxiv.org/pdf/1804.08058.pdf

MOTIVATION

  • CQA任務存在語義鴻溝現象,即一個和問題有很多重疊單詞的答案可能並不是這個問題的相關答案。
  • 標籤不均衡問題:相關答案的整體數量通常比不相關答案的數量少。而且爲了更好地利用標註數據以及給QA對提供更多訓練,之前的研究大多是對於當前問題,隨機採樣答案作爲這個問題的負樣本。這會擴大標籤不均衡的問題。

CONTRIBUTIONS

  • 考慮多個粒度級別的匹配(multi-scale matching)擴展當前用於CQA選擇任務的matching-aggregating框架,可以明確地考慮單詞和不同粒度的n-grams之間的關係。
  • 使用對抗訓練網絡減輕標籤不平衡的問題。通過生成模型交互式地採樣負樣本的子集,以欺騙分類模型,生成更好的負樣本。這種交替優化生成模型和分類模型的策略能夠顯著提高CQA任務的性能。

MODEL

multi-scale matching

文章遵循matching-aggregating框架,除了word-to-word的比較外,也使用單詞和不同長度的ngrams的比較結果(在多個粒度上的比較)。通過考慮word-to-ngrams比較結果,模型可以捕捉不同粒度的語義信息,並且利用它幫助分類。爲了獲得word-to-ngrams比較結果,文章首先用了CNN來爲每個句子學習層級表示。低層的神經元學習局部語義信息,高層次的神經元能夠在大文本上壓縮信息。例如下圖中的Q0是表示的是詞向量,Q1表示的是5-gram的語義信息(如果感受野爲5)。
在這裏插入圖片描述

用來進行答案選擇的對抗網絡

作者提出的對抗訓練框架採用一個multi-scale matching生成高質量的負樣本,用另一個multi-scale matching判別給定的樣本是負樣本還是正樣本。
目標函數爲:
在這裏插入圖片描述
生成器和判別器模型分別爲:
在這裏插入圖片描述

生成器試圖擬合底層的真實數據分佈,並在此基礎上,從整個答案集中隨機抽取一個答案,以欺騙鑑別器。我們利用multi-scale matching模型的打分功能對每一個候選答案進行打分,具有高相關性分數的答案將被高概率採樣。也就是說我們傾向於選擇與Q更相關的負樣本作爲答案。

我們需要計算每一個候選答案與問題的得分函數,但是因爲候選答案有很多,計算量過大。於是我們採取的辦法是控制候選答案來源,候選答案來自於兩個方面:①對於問題Q,已經標記爲負樣本的答案②來自其他與問題Q不相同的問題的答案。

優化部分

在這裏插入圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章