中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python jieba中文分詞與詞頻統計的操作案例

發布時間:2021-03-09 13:53:30 來源:億速云 閱讀:237 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關Python jieba中文分詞與詞頻統計的操作案例的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

Python主要用來做什么

Python主要應用于:1、Web開發;2、數據科學研究;3、網絡爬蟲;4、嵌入式應用開發;5、游戲開發;6、桌面應用開發。

直接看代碼吧:

#! python3
# -*- coding: utf-8 -*-
import os, codecs
import jieba
from collections import Counter
 
def get_words(txt):
 seg_list = jieba.cut(txt)
 c = Counter()
 for x in seg_list:
  if len(x)>1 and x != '\r\n':
   c[x] += 1
 print('常用詞頻度統計結果')
 for (k,v) in c.most_common(100):
  print('%s%s %s %d' % (' '*(5-len(k)), k, '*'*int(v/3), v))
 
if __name__ == '__main__':
 with codecs.open('19d.txt', 'r', 'utf8') as f:
  txt = f.read()
 get_words(txt)

樣本:十九大報告全文

常用詞頻度統計結果
  發展 ********************************************************************** 212
  中國 ******************************************************** 168
  人民 **************************************************** 157
  建設 ************************************************* 148
 社會主義 ************************************************ 146
  堅持 ******************************************* 130
  國家 ****************************** 90
  全面 ***************************** 88
  制度 *************************** 83
  實現 *************************** 83
  推進 *************************** 81
  政治 ************************** 80
  社會 ************************** 80
  特色 ************************** 79
  加強 *********************** 71
  體系 ********************** 68
  文化 ********************** 66
  我們 ********************* 64
  時代 ********************* 63
  必須 ******************** 61
  經濟 ******************* 59
  偉大 ******************* 58
  完善 ***************** 51
  我國 **************** 50
  推動 *************** 47
 現代化 *************** 47
  安全 *************** 46
  更加 ************** 44
  民主 ************** 44

補充:jieba讀取txt文檔并進行分詞、詞頻統計,輸出詞云圖

代碼實現

# 庫的引用
import jieba
import matplotlib as mpl
import matplotlib.pyplot as plt
from wordcloud import WordCloud
#定義一個空字符串
final = ""
#文件夾位置
filename = r"D:\python\pra\推薦系統1-500.txt"
 
#打開文件夾,讀取內容,并進行分詞
with open(filename,'r',encoding = 'utf-8') as f:
  for line in f.readlines():
    word = jieba.cut(line)
    for i in word:
      final = final + i +" "

運行結果

Python jieba中文分詞與詞頻統計的操作案例

# 圖云打印
word_pic = WordCloud(font_path = r'C:\Windows\Fonts\simkai.ttf',width = 2000,height = 1000).generate(final)
plt.imshow(word_pic)
#去掉坐標軸
plt.axis('off')
#保存圖片到相應文件夾
plt.savefig(r'D:\python\pra\6.png')

圖云輸出圖

Python jieba中文分詞與詞頻統計的操作案例

感謝各位的閱讀!關于“Python jieba中文分詞與詞頻統計的操作案例”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

靖宇县| 左贡县| 江北区| 札达县| 榕江县| 乐平市| 唐山市| 永兴县| 延寿县| 宜城市| 贺兰县| 镇江市| 乌鲁木齐市| 大余县| 儋州市| 侯马市| 长葛市| 绥宁县| 石阡县| 宜宾市| 台东市| 苏尼特右旗| 蕲春县| 理塘县| 罗江县| 象州县| 淮北市| 兴安盟| 镇宁| 湘潭县| 瑞昌市| 安徽省| 新巴尔虎左旗| 依安县| 梁平县| 虎林市| 西宁市| 井研县| 积石山| 视频| 钟祥市|