NLP自然語言處理中的hanlp分詞實例


 

本篇分享的依然是關於hanlp的分詞使用,文章內容分享自 gladosAI 的博客,本篇文章中提出了一個問題,hanlp分詞影響了實驗判斷結果。爲何會如此,不妨一起學習一下 gladosAI 的這篇文章。

封面.jpg 

學習內容

 

在之前的實驗中得到了不在詞向量裏的詞與分詞結果,結果有500多個詞不在詞向量裏,解決方案就是重新分詞,或再追加訓練這些詞到詞向量裏。但後者相對麻煩且目前樣本量不大。我跟據詞向量的作者[6]所使用的分詞工具來分詞,會比不同工具(jieba)的效果要好,因爲都是同一模式的分詞,分出來的詞應該都會存在於大型語料庫中。實驗證明思路是對的,最後結果是隻有60幾個詞不在詞向量裏,其中大部分爲名詞,還有些爲因語音翻譯問題所造成的出錯連詞,所有這些詞也只出現一次,這部分可以考慮最後刪去也不會影響結果。改善未出現詞是個關鍵步驟,因爲此後模型會用到詞向量,如果未出現詞過多,會影響詞向量效果。

問題:不過最後HANLP分詞影響了實驗判斷結果,準確率從93%(jieba分詞,同模型同參數)下降到90%。

實驗:使用HanLP分詞

1,前期準備,(環境ubuntu,python3)安裝JAVA-10[3](hanlp是JAVA開發的,即使使用python調用pyhanlp需要藉助java), jpype(python中虛擬java環境),hanlp(開源中文處理工具,不只是分詞還有各種工具),hanlp的root路徑配置及data數據包放置[4]

2,主要程序[5]

w2v_model = KeyedVectors.load_word2vec_format(w2vpath, binary=False, unicode_errors='ignore') # 加載詞向量

hanlppath=\"-Djava.class.path=/media/glados/Learning/project/NLP/hanlp/hanlp-1.6.4.jar:/media/glados/Learning/project/NLP/hanlp/"

jp.startJVM(jp.getDefaultJVMPath(), hanlppath)  # , "-Xms1g", "-Xmx1g")  # 啓動JVM, Xmx1g分配1g內存

jp.JClass('com.hankcs.hanlp.HanLP$Config').ShowTermNature = False  # 關閉分詞屬性顯示

HanLP = jp.JClass('com.hankcs.hanlp.HanLP') #普通分詞模式

words = str(HanLP.segment(sentence)) #分詞將結果轉爲str

words = re.sub('[反斜槓[反斜槓],\n]', ' ', words) # 這裏注意實際程序是單\,在blog裏會出問題,所以用反斜槓替代

words = words.split()

words = del_stopword(words)

...

jp.shutdownJVM() # 最後關閉java虛擬環境

使用的是HANLP的普通分詞功能,另外需注意,hanlp.segment()不能直接輸出或賦值給python,因爲其是java環境中數據,所以只有轉爲str()後,再進行處理,否則會報錯#A fatal error。(另外還有其他java與python數據對應問題,在這裏沒遇到,請參考其他)

 

詞向量選用的是“Mixed-large綜合”[6],其包括百度wiki百科、人民日報等,總共1293214個詞。

 

Hanlp的中部份功能沒法使用,例如精確分詞CRF。另外,要先加載詞向量再加載java虛擬環境。#A fatal error has been detected by the Java Runtime Environment

 

3,實驗結果

 圖1.JPG

(模型使用的是特徵爲tfidf的lsi模型, 參數:num_topics=3, 判斷是否相似閥值爲0.45,即大於0.45爲true相似 )

 

同模型同參數下,jieba分詞結果

 圖2.JPG

jieba分詞未出現在詞向量的約500多,有些詞出現了好幾次,而hanlp分詞只有60幾個未出現,且多數爲名詞,只出現過一次。

4,分析

在樣本中,所有樣本分詞結果jieba比hanlp要多分出100個詞左右。所以推測因hanlp分詞細粒度大,分出詞少,導致較少的共現詞出現(也可能是hanlp分詞精度更高,分出很多虛詞被停止詞表過濾造成),也就是說,lsi+tfidf模型對詞細粒度大、分詞少的分詞器不友好,所以最後hanlp出錯率更大。

jieba與hanlp都是很不錯的分詞器,結巴使用更方便。hanlp準確度要高一些(感覺),而且與文中提到的詞向量相匹配。

(我免貴姓AI,jieba:我免/貴姓/AI,hanlp:我/免/貴姓/AI,實際:我/免貴/姓AI)


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章