您好,登錄后才能下訂單哦!
本篇內容介紹了“怎么使用python中文分詞庫jieba”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
法1:Anaconda Prompt下輸入conda install jieba
法2:Terminal下輸入pip3 install jieba
1.1、CUT函數簡介
cut(sentence, cut_all=False, HMM=True)
返回生成器,遍歷生成器即可獲得分詞的結果
lcut(sentence)
返回分詞列表
import jiebasentence = '我愛自然語言處理'# 創建【Tokenizer.cut 生成器】對象generator = jieba.cut(sentence)# 遍歷生成器,打印分詞結果words = '/'.join(generator)print(words)
打印結果
我/愛/自然語言/處理
import jiebaprint(jieba.lcut('我愛南海中學'))
打印結果
[‘我', ‘愛', ‘南海中學']
1.2、分詞模式
精確模式:精確地切開
全模式:所有可能的詞語都切出,速度快
搜索引擎模式:在精確模式的基礎上,對長詞再次切分
import jiebasentence = '訂單數據分析'print('精準模式:', jieba.lcut(sentence))print('全模式:', jieba.lcut(sentence, cut_all=True))print('搜索引擎模式:', jieba.lcut_for_search(sentence))
打印結果
精準模式: [‘訂單', ‘數據分析']
全模式: [‘訂單', ‘訂單數', ‘單數', ‘數據', ‘數據分析', ‘分析']
搜索引擎模式: [‘訂單', ‘數據', ‘分析', ‘數據分析']
1.3、詞性標注
jieba.possegimport jieba.posseg as jpsentence = '我愛Python數據分析'posseg = jp.cut(sentence)for i in posseg: print(i.__dict__) # print(i.word, i.flag)
打印結果
{‘word': ‘我', ‘flag': ‘r'}{‘word': ‘愛', ‘flag': ‘v'}{‘word': ‘Python', ‘flag': ‘eng'}{‘word': ‘數據分析', ‘flag': ‘l'}
詞性標注表
a形容詞mq數量詞tg時語素ad副形詞n名詞u助詞ag形語素ng例:義 乳 亭ud例:得an名形詞nr人名ug例:過b區別詞nrfg也是人名uj例:的c連詞nrt也是人名ul例:了d副詞ns地名uv例:地df例:不要nt機構團體uz例:著dg副語素nz其他專名v動詞e嘆詞o擬聲詞vd副動詞f方位詞p介詞vg動語素g語素q量詞vi例:沉溺于 等同于h前接成分r代詞vn名動詞i成語rg例:茲vq例:去浄 去過 唸過j簡稱略語rr人稱代詞x非語素字k后接成分rz例:這位y語氣詞l習用語s處所詞z狀態詞m數詞t時間詞zg例:且 丗 丟
1.4、詞語出現的位置
jieba.tokenize(sentence)import jiebasentence = '訂單數據分析'generator = jieba.tokenize(sentence)for position in generator: print(position)
打印結果
(‘訂單', 0, 2)(‘數據分析', 2, 6)
2.1、默認詞典
import jieba, os, pandas as pd# 詞典所在位置print(jieba.__file__)jieba_dict = os.path.dirname(jieba.__file__) + r'\dict.txt'# 讀取字典df = pd.read_table(jieba_dict, sep=' ', header=None)[[0, 2]]print(df.head())# 轉字典dt = dict(df.values)print(dt.get('暨南大學'))
2.2、添詞和刪詞
往詞典添詞
add_word(word, freq=None, tag=None)
往詞典刪詞,等價于add_word(word, freq=0)
del_word(word)
import jiebasentence = '天長地久有時盡,此恨綿綿無絕期'# 添詞jieba.add_word('時盡', 999, 'nz')print('添加【時盡】:', jieba.lcut(sentence))# 刪詞jieba.del_word('時盡')print('刪除【時盡】:', jieba.lcut(sentence))
打印結果
添加【時盡】: [‘天長地久', ‘有', ‘時盡', ‘,', ‘此恨綿綿', ‘無', ‘絕期']
刪除【時盡】: [‘天長地久', ‘有時', ‘盡', ‘,', ‘此恨綿綿', ‘無', ‘絕期']
2.3、自定義詞典加載
新建詞典,按照格式【單詞 詞頻 詞性】添詞,以UTF-8編碼保存
使用函數load_userdict加載詞典
import os, jieba# 創建自定義字典my_dict = 'my_dict.txt'with open(my_dict, 'w', encoding='utf-8') as f: f.write('慕容紫英 9 nr\n云天河 9 nr\n天河劍 9 nz')# 加載字典進行測試sentence = '慕容紫英為云天河打造了天河劍'print('加載前:', jieba.lcut(sentence))jieba.load_userdict(my_dict)print('加載后:', jieba.lcut(sentence))os.remove(my_dict)
打印結果
加載前: [‘慕容', ‘紫英為', ‘云', ‘天河', ‘打造', ‘了', ‘天河', ‘劍']
加載后: [‘慕容紫英', ‘為', ‘云天河', ‘打造', ‘了', ‘天河劍']
2.4、使單詞中的字符連接或拆分
suggest_freq(segment, tune=False)
import jiebasentence = '上窮碧落下黃泉,兩處茫茫皆不見'print('修正前:', ' | '.join(jieba.cut(sentence)))jieba.suggest_freq(('落', '下'), True)print('修正后:', ' | '.join(jieba.cut(sentence)))
打印結果
修正前: 上窮 | 碧 | 落下 | 黃泉 | , | 兩處 | 茫茫 | 皆 | 不見
修正后: 上窮 | 碧落 | 下 | 黃泉 | , | 兩處 | 茫茫 | 皆 | 不見
基于詞典,對句子進行詞圖掃描,生成所有成詞情況所構成的有向無環圖(Directed Acyclic Graph)
根據DAG,反向計算最大概率路徑(動態規劃算法;取對數防止下溢,乘法運算轉為加法)
根據路徑獲取最大概率的分詞序列
import jiebasentence = '中心小學放假'DAG = jieba.get_DAG(sentence)print(DAG)route = {}jieba.calc(sentence, DAG, route)print(route)
DAG
{0: [0, 1, 3], 1: [1], 2: [2, 3], 3: [3], 4: [4, 5], 5: [5]}
最大概率路徑
{6: (0, 0), 5: (-9.4, 5), 4: (-12.6, 5), 3: (-20.8, 3), 2: (-22.5, 3), 1: (-30.8, 1), 0: (-29.5, 3)}
示例:使Blade Master這類中間有空格的詞被識別
import jieba, resentence = 'Blade Master疾風刺殺Archmage'jieba.add_word('Blade Master') # 添詞print('修改前:', jieba.lcut(sentence))jieba.re_han_default = re.compile('(.+)', re.U) # 修改格式print('修改后:', jieba.lcut(sentence))
打印結果
修改前: [‘Blade', ' ', ‘Master', ‘疾風', ‘刺殺', ‘Archmage']
修改后: [‘Blade Master', ‘疾風', ‘刺殺', ‘Archmage']
5.1、并行分詞
運行環境:linux系統
開啟并行分詞模式,參數n為并發數:jieba.enable_parallel(n)
關閉并行分詞模式:jieba.disable_parallel()
5.2、關鍵詞提取
基于TF-IDF:jieba.analyse
基于TextRank:jieba.textrank
import jieba.analyse as ja, jiebatext = '柳夢璃施法破解了狐仙的法術'jieba.add_word('柳夢璃', tag='nr')keywords1 = ja.extract_tags(text, allowPOS=('n', 'nr', 'ns', 'nt', 'nz'))print('基于TF-IDF:', keywords1)keywords2 = ja.textrank(text, allowPOS=('n', 'nr', 'ns', 'nt', 'nz'))print('基于TextRank:', keywords2)
打印結果
基于TF-IDF: [‘柳夢璃', ‘狐仙', ‘法術']
基于TextRank: [‘狐仙', ‘柳夢璃', ‘法術']
5.3、修改HMM參數
import jiebatext = '柳夢璃解夢C法'print(jieba.lcut(text, HMM=False)) # ['柳', '夢', '璃', '解夢', 'C', '法']print(jieba.lcut(text)) # ['柳夢璃', '解夢', 'C', '法']jieba.finalseg.emit_P['B']['C'] = -1e-9 # beginprint(jieba.lcut(text)) # ['柳夢璃', '解夢', 'C', '法']jieba.finalseg.emit_P['M']['夢'] = -100 # middleprint(jieba.lcut(text)) # ['柳', '夢璃', '解夢', 'C', '法']jieba.finalseg.emit_P['S']['夢'] = -.1 # singleprint(jieba.lcut(text)) # ['柳', '夢', '璃', '解夢', 'C', '法']jieba.finalseg.emit_P['E']['夢'] = -.01 # endprint(jieba.lcut(text)) # ['柳夢', '璃', '解夢', 'C', '法']jieba.del_word('柳夢') # Force_Split_Wordsprint(jieba.lcut(text)) # ['柳', '夢', '璃', '解夢', 'C', '法']
[‘柳', ‘夢', ‘璃', ‘解夢', ‘C', ‘法']
[‘柳夢璃', ‘解夢', ‘C', ‘法']
[‘柳夢璃', ‘解夢', ‘C', ‘法']
[‘柳', ‘夢璃', ‘解夢', ‘C', ‘法']
[‘柳', ‘夢', ‘璃', ‘解夢', ‘C', ‘法']
[‘柳夢', ‘璃', ‘解夢', ‘C', ‘法']
[‘柳', ‘夢', ‘璃', ‘解夢', ‘C', ‘法']
“怎么使用python中文分詞庫jieba”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。