在Python中使用jieba進行中文分詞的方法如下:
pip install jieba
import jieba
jieba.cut
方法,傳入要分詞的文本,返回一個可迭代的生成器對象,然后可以對生成器對象進行遍歷獲取每個分詞結果:text = "我愛自然語言處理"
seg_list = jieba.cut(text)
for word in seg_list:
print(word)
jieba還提供了一些其他的分詞方法,如jieba.cut_for_search
用于搜索引擎分詞,jieba.lcut
返回一個列表對象等,具體可以參考官方文檔:https://github.com/fxsjy/jieba
除了基本的分詞功能,jieba還提供了詞性標注功能和關鍵詞提取功能,可以根據需要進行調用。