中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python基礎學習之 特征工程

發布時間:2020-08-16 15:36:07 來源:ITPUB博客 閱讀:167 作者:ckxllf 欄目:編程語言

  一、特征提取

  字典加載特征:DictVectorizer

  文本特征提取:詞頻向量(CountVectorizer)TF-IDF向量(TfidfVectorizer,FfidfTransformer) 特征哈希向量(HashingVectorizer)

  圖像特征的提取:提取像素矩陣邊緣和興趣點

  1.1、字典加載特征

  用python中的字典存儲特征是一種常用的做法,其優點是容易理解,但是sklearn的輸入特征必須是numpy或Scipy的數組。可以用DictVectorizer從字典加載特征轉化成numpy,并且對分類特征會采用獨熱編碼。

  me=[

  {'city':'Dubai','temperature':33.},

  {'city':'London','temperature':12.},

  {'city':'San Francisco','temperature':18.}

  ]

  from sklearn.feature_extraction import DictVectorizer

  vec=DictVectorizer()

  print(vec.fit_transform(me).toarray())

  vec.get_feature_names()

  [[ 1. 0. 0. 33.]

  [ 0. 1. 0. 12.]

  [ 0. 0. 1. 18.]]

  1.2、字頻向量

  詞庫模型(Bag-of-words model)是文字模型化最常用的方法,它為每個單詞設值一個特征值,依據是用類似單詞的文章意思也差不多

  CountVectorizer類會將文檔全部轉化成小寫,然后把句子分割成塊或有意義的字母序列,并統計他們出現的次數

  可以使用stop_words選項排除一些常用的但沒有意義的助詞。

  from sklearn.feature_extraction.text import CountVectorizer

  co=[

  'UNC played Duke in basketball',

  'Duke lost the basketball game ,game over',

  'I ate a sandwich'

  ]

  vec=CountVectorizer(stop_words='english')

  print(vec.fit_transform(co).todense())

  print(vec.vocabulary_)

  # 三行數據

  [[0 1 1 0 0 1 0 1]

  [0 1 1 2 1 0 0 0]

  [1 0 0 0 0 0 1 0]]

  {'unc': 7, 'played': 5, 'duke': 2, 'basketball': 1, 'lost': 4, 'game': 3, 'ate': 0, 'sandwich': 6}

  import jieba

  from sklearn.feature_extraction.text import CountVectorizer

  corpus=[

  '朋友,小紅是我的',

  '小明對小紅說:“小紅,我們還是不是朋友”',

  '小明與小紅是朋友'

  ]

  cutcorpus=["/".join(jieba.cut(x)) for x in corpus]

  vec==CountVectorizer(stop_words=['好的','是的'])

  counts=vec.fit_transform(cutcorpus).todense()

  print(counts)

  # 查看映射字典

  print(vec.vocabulary_)

  可以用詞頻向量的歐式距離(L2范數)來衡量兩個文檔之間的距離(距離越小越相似)

  from sklearn.feature_extraction.text import CountVectorizer

  # 計算歐式距離

  from sklearn.metrics.pairwise import euclidean_distances

  vectorizer=CountVectorizer()

  for x,y in [[0,1],[0,2],[1,2]]:

  dist=euclidean_distances(counts[x],counts[y])

  print('文檔{}與文檔{}的距離{}'.format(x,y,dist))

  1.3、Tf-idf權重向量

  from sklearn.feature_extraction.text import TfidfTransformer

  transformer=TfidfTransformer(smooth_idf=False)

  counts=[[3,0,1],

  [2,0,0],

  [3,0,0],

  [4,0,0],

  [3,2,0],

  [3,0,2]]

  tfidf=transformer.fit_transform(counts)

  tfidf.toarray()

  array([[0.81940995, 0. , 0.57320793],

  [1. , 0. , 0. ],

  [1. , 0. , 0. ],

  [1. , 0. , 0. ],

  [0.47330339, 0.88089948, 0. ],

  [0.58149261, 0. , 0.81355169]])

  from sklearn.feature_extraction.text import TfidfVectorizer

  vectorizer=TfidfVectorizer()

  vectorizer.fit_transform(cutcorpus).toarray()

  vectorizer.vocabulary_

  {'小明': 0, '小紅': 1, '我們': 2, '是不是': 3, '朋友': 4}

  1.4、特征哈希值

  詞袋模型的方法很好用,也很直接,但在有些場景下很難使用,比如分詞后的詞匯字典表非常大, 達到100萬+,此時如果直接使用詞頻向量或Tf-idf權重向量的方法,將對應的樣本對應特征矩陣載入內存,有可能將內存撐爆,在這種情況下我們該怎么辦呢?

  我們可以應用哈希技巧進行降維。

  Hash函數可以將一個任意長度的字符串映射到_個固定長度的散列數字中去。Hash函數是一種典 型的多對一映射。

  正向快速:給定明文和hash算法,在有限時間和有限資源內能計算出hash值。

  逆向困難:給定(若干)hash值,在有限時間內很難(基本不可能)逆推出明文。

  輸入敏感:原始輸入信息修改一點信息,產生的hash值看起來應該都有很大不同。

  碰撞避免:很難找到兩段內容不同的明文,使得它們的hash值一致(發生碰撞)。即對于任意兩個不同的數據塊,其hash值相同的可能性極小;對于一個給定的數據塊,找到和它hash值相同的數據塊極為困難。

  目前流行的Hash函數包括MD4,MD5,SHA等。

  from sklearn.feature_extraction.text import HashingVectorizer

  corpus=['smart boy','ate','bacon','a cat']

  # HashingVectorizeras是無狀態的,不需要fit

  vectorizer=HashingVectorizer(n_features=6,stop_words='english')

  print(vectorizer.transform(corpus).todense())

  [[-0.70710678 -0.70710678 0. 0. 0. 0. ]

  [ 0. 0. 0. 1. 0. 0. ]

  [ 0. 0. 0. 0. -1. 0. ]

  [ 0. 1. 0. 0. 0. 0. ]]

  from sklearn.feature_extraction.text import HashingVectorizer

  corpus=[

  'UNC played Duke in basketball',

  'Duke lost the basketball game ,game over',

  'I ate a sandwich'

  ]

  vectorizer=HashingVectorizer(n_features=6)

  counts=vectorizer.transform(corpus).todense()

  print(counts)

  counts.shape

  [[ 0. 0. -0.89442719 0. 0. -0.4472136 ]

  [-0.37796447 -0.75592895 -0.37796447 0. 0. -0.37796447]

  [ 0. 0. 0.70710678 0.70710678 0. 0. ]]

  Out[9]:(3, 6)

  二、特征選擇

  當數據預處理完成后,我們需要選擇有意義的特征輸入機器學習的算法和模型進行訓練。通常來 說,從兩個方面考慮來選擇特征: 無錫婦科醫院排行 http://www.0510bhyy.com/

  特征是否發散:如果一個特征不發散,例如方差接近于0 ,也就是說樣本在這個特征上基本上沒有差異,這個特征對于樣本的區分并沒有什么用。

  特征與目標的相關性:這點比較顯見,與目標相關性高的特征,應當優選選擇。除方差法外,本文介紹的其他方法均從相關性考慮。

  根據特征選擇的形式又可以將特征選擇方法分為3種:

  1、Filter:過濾法,按照發散性或者相關性對各個特征進行評分,設定閾值或者待選擇閾值的個數,選擇特征。

  2、Wrapper:包裝法,根據目標函數(通常是預測效果評分),每次選擇若干特征,或者排除若干特征。

  3、Embedded :嵌入法,先使用某些機器學習的算法和模型進行訓練,得到各個特征的權值系數,根據系數從大到小選擇特征。類似于Filter方法,但是是通過訓練來確定特征的優劣。

  2.1、Filter過濾法

  2.1.1、方差選擇法

  使用方差選擇法,先要計算各個特征的方差,然后根據闕值,選擇方差大于闕值的特征。(用的不是很多)

  from sklearn.feature_selection import VarianceThreshold

  **方差選擇法,返回值為特征選擇后的數據**

  **參數thresshold為方差的闕值,方差大于3(threshold=3)**

  vardata=VarianceThreshold(threshold=3).fit_transform(iris.data)

  vardata.shape

  (150, 1)

  2.1.2、相關系數法

  使用相關系數,先要計算各個特征對目標值的相關系數。用feature_selection庫的SelectKBest類結合相關系數來選擇

  from sklearn.feature_selection import SelectKBest

  from scipy.stats import pearsonr

  import numpy as np

  **選擇K個最好的特征,返回選擇特征后的數據**

  **第一個參數為計算評估特征是否好的函數,該函數輸入特征矩陣和目標向量**

  **輸出二元(評分,P值)的數組,數組第i項為第i個特征的評分和P值**

  f=lambda X ,Y:np.array(list(map(lambda x:pearsonr(x,Y)[0],X.T))).T

  SelectKBest(f,k=2).fit_transform(iris.data,iris.target)

  2.1.3、卡方檢驗

  from sklearn.feature_selection import SelectKBest

  from sklearn.feature_selection import chi2

  SelectKBest(chi2,k=2).fit_transform(iris.data,iris.target)

  2.1.4、互信息法

  經典的互信息法也是評價定性自變量對定性因變量的相關性的。相關系數,卡方檢驗,互信息選擇原理相似,但相關系數通常只適用于連續特征選擇

  import numpy as np

  from sklearn.feature_selection import SelectKBest

  from sklearn import metrics

  mic=metrics.mutual_info_score

  g=lambda X ,Y:np.array(list(map(lambda x:mic(x,Y),X.T))).T

  SelectKBest(g,k=2).fit_transform(iris.data,iris.target)

  2.2、Wrapper

  遞歸特征消除法(RFE)

  遞歸消除特征法使用一個基膜型進行多倫訓練,每輪訓練后,消除若干權值系數的特征,再基于新的特征集進行下一輪訓練

  from sklearn.feature_selection import RFE

  from sklearn.linear_model import LogisticRegression

  **遞歸特征消除法,返回特征選擇后的數據**

  **參數estimator為基膜型**

  **n_features_to_select=2特征個數**

  RFE(estimator=LogisticRegression(),n_features_to_select=2).fit_transform(iris.data,iris.target)

  2.3、Embedded嵌入法

  https://blog.csdn.net/jinping_shi/article/details/52433975

  使用帶懲罰項的基模型,除了篩選出特征外同時也進行了降維。使用feature_selection庫的SelectFormModel類結合帶L1懲罰項的邏輯回歸模型,來選擇特征的代碼如下

  from sklearn.feature_selection import SelectFromModel

  from sklearn.linear_model import LogisticRegression

  # L1正則化的回歸模型

  SelectFromModel(LogisticRegression(penalty='l1',C=0.1)).fit_transform(iris.data,iris.target)

  L1懲罰項降維的原理在于保留多個對目標值具有同等相關性的特征中的一個,所以沒選到的特征不代表不重要。故,可結合L2懲罰項來優化。具體操作為:若一個特征在L1中的權值為1 ,選擇在L2 中權值差別不大且在L1中權值為0的特征構成同類集合,將這一集合中的特征平分L1中的權值,故需要構建一個新的邏輯回歸模型:

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

丰都县| 台北县| 和硕县| 南康市| 进贤县| 拉萨市| 海南省| 苏尼特左旗| 外汇| 阿荣旗| 谢通门县| 安西县| 晴隆县| 宜兰县| 日土县| 阿城市| 巴彦淖尔市| 察雅县| 衡阳县| 丹江口市| 青海省| 大同市| 新沂市| 开平市| 黔江区| 乌什县| 新民市| 嘉定区| 九江市| 涿鹿县| 阿鲁科尔沁旗| 安达市| 乐昌市| 密山市| 青海省| 壶关县| 仁布县| 祁东县| 太仆寺旗| 伊通| 青浦区|