這篇文章選自NAACL_HLT
他的核心是用KG和embedding中獲得的知識做數據增強
兩層Attention模型,然後是兩層attention,一層捕捉當前詞和(KG,embeeding)獲得的相似詞之間的關係
一層是Attention起來。
最後輸出隱藏層。
直接看圖片和方法就可以了。
這個是計算方式,簡直不要太eassy;
這篇文章選自NAACL_HLT
他的核心是用KG和embedding中獲得的知識做數據增強
兩層Attention模型,然後是兩層attention,一層捕捉當前詞和(KG,embeeding)獲得的相似詞之間的關係
一層是Attention起來。
最後輸出隱藏層。
直接看圖片和方法就可以了。
這個是計算方式,簡直不要太eassy;