您好,登錄后才能下訂單哦!
小編給大家分享一下Pytorch訓練模型得到輸出后計算F1-Score 和AUC的示例分析,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
對于二分類來說,假設batch size 大小為64的話,那么模型一個batch的輸出應該是torch.size([64,2]),所以首先做的是得到這個二維矩陣的每一行的最大索引值,然后添加到一個列表中,同時把標簽也添加到一個列表中,最后使用sklearn中計算F1的工具包進行計算,代碼如下
import numpy as np import sklearn.metrics import f1_score prob_all = [] lable_all = [] for i, (data,label) in tqdm(train_data_loader): prob = model(data) #表示模型的預測輸出 prob = prob.cpu().numpy() #先把prob轉到CPU上,然后再轉成numpy,如果本身在CPU上訓練的話就不用先轉成CPU了 prob_all.extend(np.argmax(prob,axis=1)) #求每一行的最大值索引 label_all.extend(label) print("F1-Score:{:.4f}".format(f1_score(label_all,prob_all)))
計算AUC的時候,本次使用的是sklearn中的roc_auc_score () 方法
輸入參數:
y_true
:真實的標簽。形狀 (n_samples,) 或 (n_samples, n_classes)。二分類的形狀 (n_samples,1),而多標簽情況的形狀 (n_samples, n_classes)。
y_score
:目標分數。形狀 (n_samples,) 或 (n_samples, n_classes)。二分類情況形狀 (n_samples,1),“分數必須是具有較大標簽的類的分數”,通俗點理解:模型打分的第二列。舉個例子:模型輸入的得分是一個數組 [0.98361117 0.01638886],索引是其類別,這里 “較大標簽類的分數”,指的是索引為 1 的分數:0.01638886,也就是正例的預測得分。
average='macro'
:二分類時,該參數可以忽略。用于多分類,' micro ':將標簽指標矩陣的每個元素看作一個標簽,計算全局的指標。' macro ':計算每個標簽的指標,并找到它們的未加權平均值。這并沒有考慮標簽的不平衡。' weighted ':計算每個標簽的指標,并找到它們的平均值,根據支持度 (每個標簽的真實實例的數量) 進行加權。
sample_weight=None
:樣本權重。形狀 (n_samples,),默認 = 無。
max_fpr=None
:
multi_class='raise'
:(多分類的問題在下一篇文章中解釋)
labels=None
:
輸出:
auc
:是一個 float 的值。
import numpy as np import sklearn.metrics import roc_auc_score prob_all = [] lable_all = [] for i, (data,label) in tqdm(train_data_loader): prob = model(data) #表示模型的預測輸出 prob_all.extend(prob[:,1].cpu().numpy()) #prob[:,1]返回每一行第二列的數,根據該函數的參數可知,y_score表示的較大標簽類的分數,因此就是最大索引對應的那個值,而不是最大索引值 label_all.extend(label) print("AUC:{:.4f}".format(roc_auc_score(label_all,prob_all)))
補充:pytorch訓練模型的一些坑
opencv的python和c++讀取的圖像結果不一致,是因為python和c++采用的opencv版本不一樣,從而使用的解碼庫不同,導致讀取的結果不同。
PIL和pytorch的圖像resize操作,與opencv的resize結果不一樣,這樣會導致訓練采用PIL,預測時采用opencv,結果差別很大,尤其是在檢測和分割任務中比較明顯。
pytorch的torch.exp與c++的exp計算,10e-6的數值時候會有10e-3的誤差,對于高精度計算需要特別注意,比如
兩個輸入5.601597, 5.601601, 經過exp計算后變成270.85862343143174, 270.85970686809225
1.PyTorch是相當簡潔且高效快速的框架;2.設計追求最少的封裝;3.設計符合人類思維,它讓用戶盡可能地專注于實現自己的想法;4.與google的Tensorflow類似,FAIR的支持足以確保PyTorch獲得持續的開發更新;5.PyTorch作者親自維護的論壇 供用戶交流和求教問題6.入門簡單
以上是“Pytorch訓練模型得到輸出后計算F1-Score 和AUC的示例分析”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。