中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python分詞工具哪個好用

發布時間:2021-07-10 14:29:32 來源:億速云 閱讀:156 作者:chen 欄目:編程語言

本篇內容介紹了“python分詞工具哪個好用”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

分詞在自然語言處理中有著常見的場景,比如從一篇文章自動提取關鍵詞就需要用到分詞工具,中文搜索領域同樣離不開分詞,python中,有很多開源的分詞工具。下面來介紹以下常見的幾款。

1. jieba 分詞

“結巴”分詞,GitHub最受歡迎的分詞工具,立志做最好的 Python 中文分詞組件,支持多種分詞模式,支持自定義詞典。

github star:26k

代碼示例

import jieba

strs=["我來到北京清華大學","乒乓球拍賣完了","中國科學技術大學"]

for str in strs:
    seg_list = jieba.cut(str,use_paddle=True) # 使用paddle模式
    print("Paddle Mode: " + '/'.join(list(seg_list)))

seg_list = jieba.cut("我來到北京清華大學", cut_all=True)
print("全模式: " + "/ ".join(seg_list))  # 全模式

seg_list = jieba.cut("我來到北京清華大學", cut_all=False)
print("精確模式: " + "/ ".join(seg_list))  # 精確模式

seg_list = jieba.cut("他來到了網易杭研大廈")  # 默認是精確模式
print("新詞識別:", ",".join(seg_list))

seg_list = jieba.cut_for_search("小明碩士畢業于中國科學院計算所,后在日本京都大學深造")  # 搜索引擎模式
print("搜索引擎模式:", ".join(seg_list))

輸出:

【全模式】: 我/ 來到/ 北京/ 清華/ 清華大學/ 華大/ 大學

【精確模式】: 我/ 來到/ 北京/ 清華大學

【新詞識別】:他, 來到, 了, 網易, 杭研, 大廈    (此處,“杭研”并沒有在詞典中,但是也被Viterbi算法識別出來了)

【搜索引擎模式】: 小明, 碩士, 畢業, 于, 中國, 科學, 學院, 科學院, 中國科學院, 計算, 計算所, 后, 在, 日本, 京都, 大學, 日本京都大學, 深造


github地址:https://github.com/fxsjy/jieba

2. pkuseg 分詞

pkuseg 是北大語言計算與機器學習研究組開源的一款分詞工具,它的特點是支持多領域分詞,目前支持新聞領域,網絡領域,醫藥領域,旅游領域,以及混合領域的分詞預訓練模型,用戶可以自由地選擇不同的模型。相比通用分詞工具,它的分詞準確率更高 。

github star:5.4k

代碼示例


import pkuseg

seg = pkuseg.pkuseg()           # 以默認配置加載模型
text = seg.cut('python是一門很棒的語言')  # 進行分詞
print(text)

輸出

['python', '是', '一', '門', '很', '棒', '的', '語言']

github地址:https://github.com/lancopku/pkuseg-python

3. FoolNLTK 分詞

基于BiLSTM模型訓練而成,據說可能是最準的開源中文分詞,同樣支持用戶自定義詞典。

GitHub  star: 1.6k

代碼示例

import fool

text = "一個傻子在北京"
print(fool.cut(text))
# ['一個', '傻子', '在', '北京']

github地址:https://github.com/rockyzhengwu/FoolNLTK

4. THULAC

THULAC由清華大學自然語言處理與社會人文計算實驗室研制推出的一套中文詞法分析工具包。具有詞性標注功能,能分析出某個詞是名詞還是動詞或者形容詞。

github star:1.5k

 代碼示例1
  代碼示例1
 import thulac  

 thu1 = thulac.thulac()  #默認模式
 text = thu1.cut("我愛北京天安門", text=True)  #進行一句話分詞
 print(text) # 我_r 愛_v 北京_ns 天安門_ns
 代碼示例2
 thu1 = thulac.thulac(seg_only=True)  #只進行分詞,不進行詞性標注
 thu1.cut_f("input.txt", "output.txt")  #對input.txt文件內容進行分詞,輸出到output.txt

github地址:https://github.com/thunlp/THULAC-Python

“python分詞工具哪個好用”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

尚志市| 金阳县| 无极县| 黄骅市| 岳池县| 秭归县| 繁峙县| 疏勒县| 苍南县| 宝鸡市| 牙克石市| 含山县| 虹口区| 淅川县| 长顺县| 林西县| 竹溪县| 柳州市| 沅陵县| 疏附县| 五台县| 苗栗市| 大关县| 色达县| 襄樊市| 将乐县| 林口县| 长宁区| 都兰县| 新蔡县| 防城港市| 深州市| 阿合奇县| 那曲县| 井冈山市| 顺昌县| 定日县| 庐江县| 纳雍县| 闸北区| 绵竹市|