知識圖譜與問答系統-論文分享兩則

論文一:Improving Question Generation with Sentence-level Semantic Matching and Answer Position Inferring

論文鏈接:https://arxiv.org/pdf/1912.00879.pdf

本文主要聚焦問答系統(Q&A)的反問題—問題生成(Question Generation,Q&G)。問題生成的目的是在給定上下文和相應答案的情況下生成語義相關的問題,問題生成任務可分爲兩類:一類是基於規則的方法,即在不深入理解上下文語義的情況下手動設計詞彙規則或模板,將上下文轉換成問題。另一類是基於神經網絡的、直接從語句片段中生成問題詞彙的方法,包括序列-序列模型(seq-to-seq)、編碼器解碼器(encoder-decoder)等。本文討論的是後一種基於神經網絡的問題生成方法。
目前,基於神經網絡的問題生成模型主要面臨以下兩個問題:(1)錯誤的關鍵詞和疑問詞:模型可能會使用錯誤的關鍵詞和疑問詞來提問;(2)糟糕的複製機制:模型複製與答案語義無關的上下文單詞。本文旨在解決以上兩個問題。

本文的亮點主要包括:
(1)以多任務學習的方式學習句子級語義
(2)引入答案位置感知。

與現有的問答系統、問題生成模型的處理方式不同,本文並不是通過引入更多的有效特徵或者改進複製機制本身等來改進模型效果,而是直接在經典序列-序列模型(seq-to-seq)中增加了兩個模塊:句子級語義匹配模塊和答案位置推斷模塊。此外,利用答案感知門控融合機制來增強解碼器的初始狀態,從而進一步改進模型的處理效果。

論文二:Stepwise Reasoning for Multi-Relation Question Answering over Knowledge Graph with Weak Supervision

論文鏈接:https://dl.acm.org/doi/abs/10.1145/3336191.3371812

知識圖譜問答(KG-QA)系統大多包含兩個步驟:鏈接問題中的topic entity到KG,然後識別問題所指的在KG中的最相關的關係。根據獲取答案所需的KG三元組的數量,可以將自然語言問題分成單一關係問題和多關係問題兩種。
現有的KG-QA方法可以分成兩個主流的分支。
第一種主要致力於學習一個能夠將非結構化的問題轉換爲結構化表示的語義解析器(Semantic Parser, SP),其中傳統的基於SP的方法利用諸如SPARQL、λ-DCS和λ-calculus之類的邏輯形式,但這就要求用戶熟悉這些邏輯形式的語法和後臺數據結構,而且預測所得的結構和和KG的結構之間存在的不匹配的情況也會限制模型的表現。因此最近的研究使用query graph來表示問題的語義結構,這樣可以取得較好的結果,但以人工標註成本作爲代價,因此難以用於其它領域,且依賴於成熟的NLPpipelines,會有錯誤的疊加。
另外一個分支的方法利用以topic entity爲中心的子圖獲取候選答案,且將問題和每個候選子圖編碼爲同一個嵌入空間的語義向量,利用嵌入相似度排序,其中神經網絡可以較好地用以表示問題和KG成分。這一類方法可以端到端地訓練,且有泛化到其他領域的可能,但在多關係問題上表現不是很好。
因此,對於後一類方法,最近的研究工作致力於提高多關係問題上的推理能力。然而還有以下幾個挑戰:(1) 時間複雜度過高,因爲現有的方法對於每個問題都需要用到整個以topic entity爲中心的子圖,使得候選答案個數以指數級上升。(2) 語義信息太複雜,因爲多關係問題中的每一個部分都對三元組選擇有各自的影響,故需要在不同步驟裏關注問題中的不同部分,而許多現有的方法沒有對多關係問題作更進一步的分析,因此表現很差。(3) 需要使用弱監督來訓練,因爲一步步地分析到底如何回答一個多關係問題是不現實的,這需要大量的數據標註。實際的標註只有最終的答案,因此是弱監督的。有些工作使用外部知識(如Wikipediafree text)來豐富分佈式表示,但這種操作不適用於沒有外部知識的某些特定領域。
針對以上挑戰,本文提出了一個基於強化學習的神經網絡模型“Stepwise Reasoning Network (SRN)”。貢獻如下:
(1) 針對第一個挑戰,SRN將多關係問題的回答形式化爲一個順序決策問題,通過學習一個從topic entity開始,在KG中執行路徑搜索的策略來得到一個自然語言問題的答案,並使用beam search在每一步獲取三元組列表,因此可以不考慮整個以topic entity爲中心的子圖,進而顯著減少對於一個問題的候選答案。
(2) 針對第二個挑戰,SRN使用注意力機制決定當前關注哪一個部分以獲取問題中不同部分的獨特的信息,在每一步使用對應的單層感知機以強調三元組選擇的順序,使用GRU網絡來編碼決策歷史。
(3) SRN使用REINFORCE算法進行端到端訓練。針對第三個挑戰,特別是在弱監督、多關係問題的情況下存在的一系列問題,SRN使用基於potential 的reward shaping方法來爲agent提供額外的rewards,該方法不會使得agent偏離真正的目標,也不需要外部知識。
(4) 通過實驗證明了方法的有效性,在3個benchmark數據集上進行了ablationstudy。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章