【論文調研】IJCAI-2019 論文投稿與錄用調研報告

【論文調研】IJCAI-2019 論文投稿與錄用調研報告


[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-ASG7zyPr-1584099245132)(./image/2020-02-02.png)]

1. IJCAI會議簡介


  • IJCAI 全稱爲Internation Joint Conference on Artifical Intelligence(國際人工智能聯合會議)。
  • IJCAI是人工智能領域種最主要的學術會議之一,成立於1969年,地點位於美國加州。
  • IJCAI舉辦時間:自1969年以來奇數年每兩年舉辦一次,2015年之後改爲每年一屆,其中2019年的IJCAI在中國澳門進行,而2020年的IJCAI將在日本名古屋進行。
  • 每屆IJCAI會議都會收錄大量的高質量的論文,爲了表彰一些學者在人工智能領域的突出貢獻,
    大會設定了4個獎項,分別爲傑出研究獎、計算機與思想獎、約翰麥卡錫獎、唐納德·沃克傑出服務獎,以此來表彰專家學者對該領域的服務和貢獻。下面就來簡單介紹一下每個獎項。
  • IJCAI歷年投稿2019年止論文的投稿情況大體情況如下圖所示:
關於IJCAI設定的4個獎項:

1. 傑出研究獎
該獎項每年授予一位科學家,表揚其在整個職業生涯中開展的具有高質量且持續性的研究,
並且取得了實質性成果。過去獲得這一榮譽的都是人工智能領域最傑出的學者、科學家。
該獎項開始於1985年,第一位獲得該殊榮的是John McCarthy,他也被稱爲“人工智能之父”。
直至2018年,共有18位學者榮獲該獎項。

2. 計算機與思想獎
計算機與思想獎在IJCAI會議上頒發給傑出的人工智能青年科學家。
該獎項是由Edward Feigenbaum和Julian Feldman編輯的計算機與思想書中收取的版稅而設立的。
它目前得到IJCAI基金的收入支持。該獎項於1971年開始,第一位獲得該殊榮的是Jitendra Malik,
直至2018年,共有29位學者榮獲該獎項。

3. 約翰麥卡錫獎
約翰麥卡錫獎旨在表彰公認的中期研究人員,通常是在獲得博士學位15至25年後,這些研究人員在人
工智能領域建立了卓越的研究成果。這個獎項是以約翰麥卡錫(1927-2011)命名的,
他被公認爲人工智能領域的創始人之一。麥卡錫不僅給這門學科起了名字,還對計算機科學,
尤其是人工智能做出了持久重要的基本貢獻,包括分時操作系統、LISP編程語言、知識表示、
常識推理和人工智能的邏輯學範式。該獎項是在麥卡錫家族的全力支持和鼓勵下設立的。
該獎項於2015年開始至今,共有四位學者獲此殊榮。

4.唐納德·沃克傑出服務獎
唐納德·沃克傑出服務獎由IJCAI董事會於1979年設立,以表彰AI的資深科學家在其職業生涯
中對該領域的貢獻和服務。直至2018年,共有17位學者獲此殊榮。

2. IJCAI-2019會議整體分析


IJCAI-2019會議於2019年8月10日在中國澳門舉行,爲期七天,這是繼2013年第23屆IJCAI會議在北京舉辦過後,又一次在中國舉辦。

1. 論文投稿情況分析

  • 2019的IJCAI 會議共收到論文4752篇,最終收錄的論文爲847篇,接收率爲 17.9% 。
    論文提交量和錄取量都創歷史新高,但錄取比率卻是近10年最低。
  • 今年 IJCAI 的投稿總數相較於去年增加了約 37%(1282篇),而錄取數僅比去年多了141篇,
    因此,錄取率降低也就不足爲奇。下圖爲1997年至今各屆會議論文提交量、錄取量以及錄取比例。

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-zPs2TnNJ-1584099245134)(./image/2020-02-03.png)]

  • 在2019年收錄的 847 篇論文中,有 327 篇來自中國,佔比 38%。
  • 插曲:2019年的評審、打分、rebuttal等環節不專業出現了嚴重甚至是可笑的“錯誤”。主要原因是採用了
    學生審稿從而導致審稿不專業,審稿意見水品不高等問題。對於作者們的反應和評論,IJCAI 2019 的 PC (program chair,程序主席)Sarit Kraus 給作者們發送了一封郵件,做出瞭解釋,給出了比較中肯的回覆,這也得到了不少學者的支持。小編認爲,這個問題也反映了近年來不少學者往一些頂級會議投一些水平較低論文,
    這種“灌水”的行爲也是導致論文錄用率較低的主要原因,這次事件也值得各個領域的學者反思和借鑑。
  • 在最新的2020年投稿中還未進評審則被拒,近半投稿遭Summary reject
  • IJCAI-2019 投遞組織分析,如下所示
【會議審稿流程的簡單描述】:

1. 對於會議審稿流程而言,由於會議論文往往有比較嚴格的截止日期(Deadline),
作者們通常會根據這一時間來rush自己的paper,待deadline一過,大會的程序委員會主席
(Program Committee Chair或Program Chair)首先會剔除一批不符合會議投稿政策的論文,
如:篇幅不合要求、一稿多投、未匿名、未註明Conflict Domain等,
這些論文會直接作“Desk Reject”處理。處理之後的投稿(Submission)便爲有效投稿。

2. 這些稿件會由PC Chair根據一定規則分配給高級程序委員會委員
(Senior PC,IJCAI/AAAI一般是這個叫法)或領域主席(Area Chair,CVPR/ICCV/ECCV一
般用此稱謂),這些人便是論文最終命運的判決者,也是在審稿最後時刻書寫meta review的
meta reviewer——一般會由領域內頗有建樹、有判斷力的專家學者擔任。而後,這些meta reviewer
會繼續分配稿件給到實際操刀審稿、給出具體審稿意見的審稿人(Reviewer)。
對於CVPR/ICCV/ECCV等CV領域會議,近幾年每個AC負責的文章大約在30-50篇左右,
而普通審稿人分配的稿件一般不超過10篇/人。以CVPR 2019爲例,針對5160篇有效投稿,
全球共召集了132位AC和2887位審稿人。一共提交了超過15000條審稿意見,做到了平均一篇文章至少3條,
其中一篇文章甚至有7條審稿意見之多。

3. rebuttal環節: 在reviewer各自獨立提交審稿意見並經由AC檢查質量之後,
絕大多數會議會將首輪意見開放給作者(目前Data Mining領域的KDD、ICDM等仍
保持不設rebuttal環節的傳統),作者可根據意見內容進行rebuttal來更正審稿人理解的錯誤、
解釋/澄清審稿人的疑慮、提供更多方法和實驗細節等信息。在收回作者rebuttal之後,
同一篇文章的首輪意見、作者rebuttal信息均會開放給所有審稿人和責任AC,
進入paper discussion環節。

4.paper discussion環節:Discussion時,AC會主持每篇文章的討論,每位審稿人根據其他審稿人意見
和作者rebuttal會留言給其他審稿人。經過幾天系統線上討論,所有審稿人需更新自己最終意見。
更新的意見以及整個討論過程,再加上AC自己的判斷會作爲AC給予每篇論文生殺予奪的重要依據:
若多數審稿人在rebuttal後提高了論文得分或保持accept認爲可以接收,則文章有較大概率可被錄用;
若多數審稿人在rebuttal後降分或保持reject,則這篇文章命運便岌岌可危。可以看到,
rebuttal在整個論文錄用過程中起到了舉足輕重的作用——優秀的rebuttal能力挽狂瀾;
無力的rebuttal則於事無補甚至會畫蛇添足、過猶不及。

5. 特別的,CV領域的會議如CVPR/ICCV/ECCV等在AC給予最終決定時,有開線下AC meeting的傳統,
即在paper discussion之後會選在某個城市線下召集所有AC共同決定了投稿的最終命運。一般而言,
一篇文章是否錄用由三位(有時兩位)沒有conflict domain的AC共同決定,稱作“AC Triplet”。
到此,每篇會議論文最終結果(錄用與否以及oral、poster、spotlight)便蓋棺定論,
等待着PC Chair公佈給如坐鍼氈的作者們。

以上內容來自於:https://zhuanlan.zhihu.com/p/104298923?utm_source=qq 

2. 論文投稿的主題組成

  • 在論文的主題上,機器學習依然是最熱的一個領域,收錄數量爲 438 篇,超過半數,
    且提交論文中,共有 2516 篇爲機器學習領域,
    此外論文數量最多的領域依次爲計算機視覺,機器學習應用,自然語言處理。各個
    主題的提交於錄用情況如下圖所示:

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-pD7E2uVa-1584099245137)(./image/2020-02-04.png)]

  • 由上圖可知,其中NLP submitted 630篇,而最後錄用的只有103篇,Knowledge representation
    投稿349篇,最終錄用88篇

3. IJCAI-2019 NLP 領域的研究風向與分析


1. IJCAI-2019 NLP領域的研究概況

IJCAI 2019 NLP領域佔全部接受論文總數的9.91%,較去年有所下降,主要集中在如下的幾個方面:

  • Sentiment Analysis
  • Cross-Modal Information
  • Information Retrieval
  • Text Classification
  • Q&A
  • Visual Dialog 可視化對話
  • Word Embedding
  • knowledge Representation
  • Text style transfer
  • Named Entity Recognition
  • Sentiment detection
  • Relation Extraction
  • Network Embedding
  • Text Generation
  • Machine Translation etc.

2. IJCAI-2019 NLP領域的詳細概況

根據IJCAI-2019 NLP的錄用的所有文章的總結,詳細分析如下(爲方便觀看,截圖如下):

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-PGOblp2P-1584099245138)(./image/2020-02-06.png)]

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-tkliaRRN-1584099245139)(./image/2020-02-07.png)]

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-5FpXQ0r1-1584099245141)(./image/2020-02-08.png)]

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-7BhBYMME-1584099245142)(./image/2020-02-09.png)]

以上83篇論文可到[4] https://github.com/Pin-Ni/NLP-in-IJCAI-2019下載
  • 有意思和新穎的主題如:圖像與文本的匹配,多人對話(公司參與,落地),GANGAN做文本生成,文本風格遷移,
    實體與事件提取
  • 將知識融入NLP架構
    • 常識推理
    • 科學問答
  • 關於知識圖譜構建的NLP的一些子任務: 關係抽取,命名實體識別,依存句法分析,WordEmbeddingWord Embedding,
    ReleationEmbeddingReleation Embedding,實體鏈接(EL,主要有端到端以及僅消除歧義兩類方法),細粒度抽取
  • 社交媒體分析是與自然語言處理密切相關的研究主題,在最近的與NLP相關的會議中,無論從提交的數量還是參與者的人數來看,很明顯,情感分析和社交媒體分析無疑是兩個主要的研究主題
  • 多模態學習
  • 遷移學習/多任務學習
  • 從應用程序的角度來看,新穎的在線應用程序涉及社交媒體分析和情感分析,例如緊急情況管理,社交推薦,用戶行爲分析,用戶社交社區分析和未來預測是NLP和AI研究人員關注的主題
  • 無監督預訓練火熱,主要是由BERT(2018年10月誕生)以及其他變體驅動(Bert with his friends)
  • 圖卷積網絡在自然語言處理任務上的進展
補充點:
1. Cross Modal 跨模態
跨模態學習日益引起了學術界和工業界的關注。
跨模態學習進行聯合特徵學習和跨模態關係建模,
旨在有效地利用不同模態內容的相關性進行系統性能優化。
對多模態內容的深入理解主要依賴於特徵學習、實體識別、知識圖譜、邏輯推理、
語言表達等方面的多種技術。
2. Cross Modal Information Retrieval 跨模態信息檢索
模態是指數據的存在形式,比如文本、音頻、圖像、視頻等文件格式。
有些數據的存在形式不同,但都是描述同一事物或事件的。
而我們在信息檢索的需求往往不只是同一事件單一模態的數據,
也可能需要其他模態的數據來豐富我們對同一事物或事件的認知,
此時就需要跨模態檢索來實現不同模態數據之間的檢索。

3. IJCAI-2019 NLP領域知識圖譜類論文解讀(部分)

Section 1 【知識圖譜對齊】

Multi-view Knowledge Graph Embedding for Entity Alignment 多視角知識圖譜嵌入的實體對齊

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-vnynT3Mt-1584099245143)(./image/2020-02-10.png)]

1. 什麼是知識圖譜嵌入(KGE)?
知識圖譜嵌入作爲一種新的研究方向,關鍵思想是嵌入KG的組件,
包括將實體和關係轉化爲連續的向量空間,從而簡化操作,同時保留KG的原有的結構。
那些實體和關係嵌入能進一步應用於各種任務中,如KG補全、關係提取、實體分類和實體解析。

具體可參考: 《Knowledge Graph Embedding: A Survey of Approaches and Applications》
和劉知遠老師的《知識表示學習的研究與進展》做的總結

2. 什麼是實體對齊?
* 實體對齊(Entitiy alignment) 旨在發現不同知識圖譜中稱爲真實世界相同事物的實體,
* 實體對齊是指給定兩個網絡,把兩個網絡中等價的實體合併。實體對齊在很多領域都有重要應用,
比如,跨平臺社交網絡的用戶對齊可以用於用戶畫像、
用戶興趣挖掘,跨語言知識圖譜的實體對齊可以輔助機器翻譯、跨語言信息檢索。
* 其中基於知識圖譜嵌入的實體對齊方法近來備受關注,2019年可以說是對齊任務模型爆炸增長的一年,
新的方向和思路層出不窮,主要分爲四個:
   * 無監督對齊,第一種思路是讓結構和屬性信息相互”監督“,從而達到不需要預先匹配實體的效果,另一種思路是基於對抗的方法對齊兩個網絡。讓判別器區分兩個網絡中生成的點,直到判別器無法判別生成的點來自哪個網絡,兩個網絡就對齊了。
   * 多視角嵌入,由於對齊問題的複雜性,單一模型的嵌入能力往往不足以對齊兩個網絡,因此從多種視角來對齊效果會更好
   * 改進現有的嵌入表示模型並用於對齊。相當於從底層改進對齊效果,
   * 超大規模對齊

3. 現有基於嵌入的實體對齊方法存在什麼問題?

a. 知識圖譜存在多種特徵,現有方法僅利用了其中的一種或兩種,被廣泛使用的特徵是
關係型 三元組 (relation triples) ,
近來也有方法嘗試使用屬性型三元組 (attribute triples),但並未完全利用知識圖譜
的已有特徵,因此本文希望整合使用多種特徵來提升實體對齊的效果;

b. 現有方法依賴大量的已對齊實體對作爲監督信息來訓練模型,然而這些監督信息在現實中
很難獲得。此外,現有方法大多忽略或不重視關係或屬性對齊,而關係或屬性對齊可以在很大程度
上幫助實體對齊任務。

3. 論文貢獻與方法
提出了一種基於多視圖知識圖譜嵌入的實體對齊框架,稱爲 MultiKE,主要有以下幾點: 

a. 從數據出發,我們定義了三種具有代表性的視圖,分別是:名稱視圖 (name view)、
關係視圖 (relation view) 和屬性視圖 (attribute view),
如上圖所示,並針對每個視圖採用適當的模型進行訓練;
b. 針對實體對齊任務,我們從實體和關係或屬性兩個層面設計了跨知識圖譜監督方式,來保留和豐富對齊信息
c. 提出了三種組合策略,從多個特定視圖的實體表示中,獲得最終的用於實體對齊任務的實體表示;
d. 兩個數據集上進行實驗,實驗表明 MultiKE 在實體對齊任務上明顯優於當前已有的相關方法。

由於本篇文章主要是關於IJCAI-2019 的概覽,因此對具體細節不做討論,具體方法與實驗可詳見論文

Relation-Aware Entity Alignment for Heterogeneous Knowledge Graphs 【實體對齊】

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-fiNPjXET-1584099245144)(./image/2020-02-11.png)]

1. 論文動機與貢獻
該論文旨在解決知識圖譜中的實體對齊問題,爲了能夠捕獲複雜的語義信息,
作者提出了一種關係敏感式對偶圖卷積網絡(Relation-aware Dual-Graph Convolutional Network, RDGCN)模型。
如上圖所示

2. 論文方法
a. 首先,基於原始的圖結構構建對偶關係圖;
b. 然後,通過原始attention層和對偶attention層進行迭代;
c. 接着,通過GCN網絡進一步結合結構信息;
d. 最後,得到實體的向量表示,用於實體對齊任務。
實體抽取該論文的實驗部分採用了JAPE的數據集DBP15K,主要對比方法有MTransE、JAPE、IPTransE、BootEA和GCN-Align,該論文所提出的方法RDGCN取得了相對較優的結果。

Entity Alignment for Cross-lingual Knowledge Graph with Graph Convolutional Networks

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-PvecxY7O-1584099245145)(./image/2020-02-17.png)]

本文提出了一種基於圖卷積網絡的跨語言實體對齊方法,通過設計一種屬性 embedding 
用於 GCN 的訓練,發現GCN能同時學習到特徵 embedding 和屬性 embedding 的信息。
實驗表明該方法是目前性能最好的的 GCN 對齊模型。

1. 動機
在近期的研究工作中, GCN被用來處理一些基於圖的學習問題,也有研究者提出基於該模型的
跨語言知識圖譜實體對齊工作。但這些工作並沒有有效的利用圖譜的屬性信息,且對整體模型
帶來了負面的影響,這主要是因爲對於同一實體,在不同語言上,它的屬性存在較大的差異。
雖然也有研究者提出異構圖注意力網絡,提供了節點級與語義級的注意力機制。但這個方法依然
沒有考慮不同屬性帶來的影響。
基於上述分析,作者提出利用GCN的聚合能力將屬性embedding加入跨語言知識圖譜對齊中。

2. 方法
上圖描述了本文提出模型的主要框架和流程,待對齊的知識圖譜主要提供了兩個角度的信息,
其一是圖譜本身的圖結構信息,這個部分被直接輸入到GCN中, GCN包含多層網絡,
其二,爲了提高不同語言實體信息embed到統一的向量空間中的精準性,
作者設計了增強的屬性embedding方法,用於減少不同語言對等實體之間的差異性。

Section 2 【知識圖譜嵌入與鏈接預測】

Neural Collective Entity Linking Based on Recurrent Random Walk
Network Learning 【實體鏈接】

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-ZrRwyg0W-1584099245146)(./image/2020-02-12.png)]

1, 動機與成果
由於神經網絡具有良好的學習語義表徵能力,現有的實體連接研究已經開始借鑑
利用神經網絡的局部特徵對實體兼容性和不同 EL 決策間的全局相互依賴性進行目標實體消歧。 
然而,大多數神經元集體 EL 方法完全依賴於神經網絡來自動建模不同 EL 決策之間的語義
依賴關係
缺乏來自外部知識的指導
在本文中,我們提出了一種用於共同的EL的具有遞歸 random-walk layers的端到端神經網絡
上圖則爲RRWEL模型
2. 方法
首先,我們建立了一個基於局部上下文特徵的模型,然後,在此基礎上提出了一個基於局部上
下文特徵的模型
然後堆疊random-walk layers,以加強證據使得相關的 EL成爲高概率決策,
其中候選實體之間的語義相互依賴性主要是從
一個外部知識庫引導。 最後,在傳統的目標函數中引入一個語義規則器,保持集體 EL
 決策的一致性,從而使外部 EL 決策具有一致性
知識庫可以在集體 EL 決策中充分利用。 實驗結果和對各種數據集的深入分析表明,本文的
模型比其他最先進的模型獲得了更好的性能

3. 關於實體鏈接的簡單補充

*  實體鏈接任務是做什麼的?
實體鏈接(entity linking)就是將一段文本中的某些字符串映射到知識庫中對應的實體上。
比如對於文本“鄭雯出任復旦大學新聞學院副院長”,就應當將字符串“鄭雯”、“復旦大學”、
“復旦大學新聞學院”分別映射到對應的實體上。在很多時候,
存在同名異實體或者同實體異名的現象,因此這個映射過程需要進行消歧,
比如對於文本“我正在讀《哈利波特》”,其中的“《哈利波特》”應指的是“《哈利波特》(圖書)”
這一實體,而不是“《哈利波特》系列電影”這一實體。當前的實體鏈接一般
已經識別出實體名稱的範圍(一般稱作mention),需要做的工作主要是實體(稱作entity)
的消歧。也有一些工作同時做實體識別和實體消歧,變成了一個端到端的任務。

* 實體鏈接的難點在於兩個方面,即多詞一義和一詞多義

* 實體鏈接包括兩個步驟,即指稱識別和實體消歧(或者候選實體生成和候選實體排序)兩個過程

Robust Embedding with Multi-Level Structures for Link Prediction

  • M-GNN 架構

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-CsylgYC8-1584099245147)(./image/2020-02-13.png)]

  • Graph coarsening 圖採樣/圖粗化

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-eTsjYhOn-1584099245148)(./image/2020-02-14.png)]

1. 論文動機
* 知識圖譜嵌入對於鏈接預測而言,至關重要,最近有許多研究應用encoder-decoder模型
來解決這個問題,其中encoder主要歸納爲graph neural network,decoder部分主要
使用一種embedding的方法,這些方法強制在結構信息中使用embedding技術,非常糟糕的
是基於GNN框架的這種方法仍然面臨着3個嚴重的問題:
    * low represential power 代表能力過於低下
    * stacking in a flat way 始終不斷的堆疊模型
    * poor robustness to noise 對於噪聲情況魯棒性過差
* 在本文中我們提出了一個新的多層圖卷積模型(M-GNN)來解決上述面臨的挑戰,模型架構如上圖1
所示

2. 論文的思路
* 首先我們確定了一種injective aggregate schema 並且設計了一種使用多層感知機(MLPs)的
GNN layer
* 其次,我們定義了對於多種關係之間的Graph coarsening(圖粗化/圖池化,實際目的就是用來生
成圖表示,核心要義在於:操作本身要對結點順序不敏感,爲了使得同構圖的表示能夠保持一致,大體
顯示如上圖2所示)
同時在這一系列圖池化中堆疊GNN layers,以便爲層次結構建模。 此外,我們在方法中使用了
注意力機制,目的是爲了讓我們的方法在噪音較大的知識圖譜中也能夠多出準確的鏈接預測任務
最後的結果是在FB15k-237上表示顯著,M-GNN 具有很強的魯棒性到稀疏和噪音。

Unsupervised Embedding Enhancements of Knowledge Graphs using Textual Associations 使用文本關聯的知識圖譜無監督嵌入增強

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-FqqbHzAT-1584099245149)(./image/2020-02-15.png)]

1. 動機
知識圖譜嵌入對於表示多關係數據並從中學習是有用的,最近的嵌入模型
顯示出從現有數據庫中推斷新事實的高效性。但是,這種結構精確的數據通常在數量
和範圍上受到限制。因此,要完全優化嵌入,還必須考慮更廣泛的可用信息源,例如文本。

2. 論文思路
本文介紹了一種無監督的方法,該方法通過使用關聯詞的嵌入來增強實體嵌入來合併文本信息。
該方法不會修改知識圖譜嵌入的優化目標,而是可以將其與現有的嵌入模型集成。
考慮了兩種不同形式的文本數據,針對每種情況建議了不同的嵌入增強功能。
* 在第一種情況下,每個實體都有一個描述它的關聯文本文檔。
* 在第二種情況下,文本文檔不可用,而是實體以單詞或短語的形式出現在非結構化的文本片段中。
實驗表明,將兩種方法應用於許多不同的知識圖譜嵌入模型時,都可以改善鏈接預測任務。

3. 論文小結
本文討論了兩種新穎的方法,可以利用文本數據中的信息來增強知識圖中的實體嵌入。
第一種方法將實體矢量表示爲與每個實體相關聯的單詞的直接函數,並且只要文本數據
以實體描述的形式可用,就可以應用。 第二種方法在文本文檔上訓練 word2vec 算法,
並將它從實體名稱中學到的功能添加到原始實體功能向量中。實證結果表明,如果文本數據
具有足夠的質量,則與沒有文本的嵌入和用於合併文本的替代方法相比,這兩種方法都
可以提高許多不同嵌入模型上的鏈接預測精度。

Section 3 【關係抽取與關係表示】

【Relation Extraction Using Supervision from Topic Knowledge of Relation Labels】關係抽取

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-InQfDYKr-1584099245150)(./image/2020-02-16.png)]

1. 動機

* 關係抽取旨在基於文本上下文識別出實體對的語義關係。這些關係通常是預先定義好的。
例如,給定實體對[ Microsoft, Bill Gates ]和
句子“Bill Gates co-founded Microsoft withhis childhood friend Paul Allen”,
我們希望抽取出關係“ founder ”。
* 傳統的方法通常將關係抽取建模爲分類問題或者標註問題。在這些方法中,
不同的關係標籤往往被視爲不同的 ID。例如,在關係分類中,
每個 ID 代表多分類問題的一個類別( class )。給定一個樣本,
模型將其映射到一個或多個關係 ID 。然而,關係標籤包含着非常豐富的語義信息,
這些語義信息被現有的關係抽取模型所忽略。我們認爲,充分建模關係標籤的語義信息
並將其作爲關係分類的監督信號,有望進一步提升關係抽取性能。很顯然,僅僅靠關係
標籤這個詞組本身很難挖掘出太多的語義信息。因此,我們需要引入額外的信息作爲關係
的背景知識。
* 爲了克服這一挑戰,本文求助於主題模型。對於預定義關係,我們通過相應的
訓練句子集合進行主題建模,進而從訓練數據中挖掘出關係的主題知識。我們的基本假設是:
對於每個關係,其標註句子集合包含幾個潛在主題,並且這些主題在語義上與關係是相關的。
通過主題建模,我們提取前k個帶權重的主題詞來表示關係的語義。因此,關係的主題知識
被具體化爲帶權重的詞袋( weighted bag of words, WBoW )。不難理解,每個主題詞都
刻畫了關係的某些方面,而詞的權重則刻畫了它對關係的重要性。因此,一個被標註爲該關係的
句子應該匹配關係的某些重要方面。

2. 方法
* 上圖左邊表示了應用關係的主題知識的框架流程圖,主要步驟爲:
  * 步驟1:從訓練句子中檢索關係r的所有句子。
  * 步驟2:獲取 r 的主題知識,即通過主題建模從r的標記句子集合中提取前k個加權主題詞。
  * 步驟3:爲句子-關係對( s; r )建立深度匹配網絡。
  * 步驟4:基於主題知識,通過 Word Mover Distance( WMD )計算 s 和 r 之間的語義距離 d ( s,r )。
  * 步驟5:根據語義距離 d ( s,r ) 計算樣本的重要性權重。
  * 步驟6:基於深度匹配網絡和樣本重要性權重建立損失函數。
* 上圖右圖表示了句子關係匹配網絡,主要包括三個部分:
  * 句子學習模塊
    * 按照頭尾實體的位置,我們將句子分成三部分。主要原因有兩個。第一:在一個句子中,表達實體對關係的往往位於實體對之間。因此,每部分對於關係推理的貢獻是不一樣的。第二,爲了後續注意力機制的處理,將句子分塊可以顯著提升效率。句子學習模塊主要採用多頭的注意力機制( multi-head self-attention )。此外,關係敏感的注意力機制( relation-awareattention )旨在將學習到的句子特徵中關係敏感的部分抽取出來,從而降低噪聲的影響。
  * 關係學習模塊
    * 關係學習模塊的輸入是關係的主題詞集合。在該模塊中,我們仍採用自注意力機制。但值得注意的是,在輸入詞袋中我們考慮了每個詞的先驗權重,因此,我們希望在自注意力機制學習中將該先驗權重考慮進去。這在 weighted multi-head self-attention 中實現。
  * 句子關係匹配模塊
    * 基於學到的句子表示和關係表示,我們採用簡單的全連接操作實現匹配建模

4. IJCAI-2019 NLP WorkShop的研討熱點回顧

  • W4 Financial Technology and Natural Language Processing (FinNLP)
W4: 
Leveraging BERT to Improve the FEARS Index for Stock  Forecasting 
   利用BERT改進股票預測的FEARS指數
“Financial and Economic Attitudes Revealed by Search (FEARS) index 
reflects the attention and sentiment of public investors and is an
important factor for predicting stock price return. In this paper, 
we take into account the semantics of the FEARS search terms by leveraging 
the Bidirectional Encoder Representations from Transformers (BERT), 
and further apply a self-attention deep learning model to our refined FEARS 
seamlessly for stock return prediction. We demonstrate the practical benefits 
of our approach by comparing to baseline works.”
  • W11 Semantic Deep Learning (SemDeep) 語義深度學習
  • W12 Big Social Media Data Management and Analysis (BSMDMA) 社交大數據的管理與分析
  • W16 Linguistic and Cognitive Approaches to Dialogue Agents (LaCATODA) 對話Agents的語言與認知方法
  • W17 Bringing Semantic Knowledge into Vision and Text Understanding 將語義知識引入視覺和文本理解
  • W22 Search-Oriented Conversational AI (SCAI) 面向搜索的對話Ai
  • W31 Language Sense on Computer 計算機語感
  • W45 Natural Language Processing for Social Media (SocialNLP) 社交媒體自然語言處理
Natural Language Processing for Social Media (SocialNLP)
Ex-Twit: Explainable Twitter Mining on Health Data
   Ex-Twit:可解釋的Twitter健康數據挖掘
“Since most machine learning models provide no explanations 
for the predictions, their predictions are obscure for the human. 
The ability to explain a model's prediction has become a necessity 
in many applications including Twitter mining. In this work, 
we propose a method called Explainable Twitter Mining (Ex-Twit)
combining Topic Modeling and Local Interpretable Model-agnostic
Explanation (LIME) to predict the topic and explain the model predictions.
We demonstrate the effectiveness of Ex-Twit on Twitter health-related data.”


4.IJCAI-2019 NLP領域在學界和產業界的探討


  • 覆蓋面較廣,多不同領域學科的投稿。實用性較強,不拘泥於學術研究,很多業界的工具和技術的展示也在其中佔有重要的分量。
  • 創新性較強,較其它領域會議有較多跨領域的前沿方向探索。
  • 參會人員多樣,研究領域各不相同。業界人員參會數量大
  • 國人在NLP領域內扮演重要角色
  • 更多強調真實世界數據、實際應用場景的研究的出現

不足之處,歡迎批評指正

參考文獻:

[1] https://www.zhihu.com/search?type=content&q=IJCAI%E4%BC%9A%E8%AE%AE%E4%BB%8B%E7%BB%8D

[2] https://www.zhihu.com/search?type=content&q=ijcai%202020%20NLP%20%E8%AE%BA%E6%96%87%E8%B0%83%E7%A0%94%E6%8A%A5%E5%91%8A

[3] https://www.paperdigest.org/2019/08/ijcai-2019-highlights/

[4] https://zhuanlan.zhihu.com/p/74574073

[5] https://www.aminer.cn/research_report/5cecc3f41976c5c87c8bee63

[6] https://zhuanlan.zhihu.com/p/81073607

[7] https://www.ijcai.org/Proceedings/2019/0728.pdf

[8] https://www.ijcai.org/proceedings/2019/0725.pdf
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章