您好,登錄后才能下訂單哦!
這篇“怎么使用Python的sklearn中的CountVectorizer”文章的知識點大部分人都不太理解,所以小編給大家總結了以下內容,內容詳細,步驟清晰,具有一定的借鑒價值,希望大家閱讀完這篇文章能有所收獲,下面我們一起來看看這篇“怎么使用Python的sklearn中的CountVectorizer”文章吧。
CountVectorizer官方文檔。
將一個文檔集合向量化為為一個計數矩陣。
如果不提供一個先驗字典,不使用分析器做某種特征選擇,那么特征的數量將等于通過分析數據發現的詞匯量。
兩種方法:1.可以不分詞直接投入模型;2.可以先將中文文本進行分詞。
兩種方法產生的詞匯會非常不同。在后面會具體給出示范。
import jieba import re from sklearn.feature_extraction.text import CountVectorizer #原始數據 text = ['很少在公眾場合手機外放', '大部分人都還是很認真去學習的', '他們會用行動來', '無論你現在有多頹廢,振作起來', '只需要一點點地改變', '你的外在和內在都能煥然一新'] #提取中文 text = [' '.join(re.findall('[\u4e00-\u9fa5]+',tt,re.S)) for tt in text] #分詞 text = [' '.join(jieba.lcut(tt)) for tt in text] text
#構建模型 vectorizer = CountVectorizer() #訓練模型 X = vectorizer.fit_transform(text)
#所有文檔匯集后生成的詞匯 feature_names = vectorizer.get_feature_names() print(feature_names)
不分詞生成的詞匯
分詞后生成的詞匯
#每個文檔相對詞匯量出現次數形成的矩陣 matrix = X.toarray() print(matrix)
#計數矩陣轉化為DataFrame df = pd.DataFrame(matrix, columns=feature_names) df
print(vectorizer.vocabulary_)
以上就是關于“怎么使用Python的sklearn中的CountVectorizer”這篇文章的內容,相信大家都有了一定的了解,希望小編分享的內容對大家有幫助,若想了解更多相關的知識內容,請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。