中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何深入理解Pytorch微調torchvision模型

發布時間:2021-11-10 22:41:53 來源:億速云 閱讀:175 作者:柒染 欄目:開發技術

如何深入理解Pytorch微調torchvision模型,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

一、簡介

在本小節,深入探討如何對torchvision進行微調和特征提取。所有模型都已經預先在1000類的magenet數據集上訓練完成。 本節將深入介紹如何使用幾個現代的CNN架構,并將直觀展示如何微調任意的PyTorch模型。
本節將執行兩種類型的遷移學習:

  • 微調:從預訓練模型開始,更新我們新任務的所有模型參數,實質上是重新訓練整個模型。

  • 特征提取:從預訓練模型開始,僅更新從中導出預測的最終圖層權重。它被稱為特征提取,因為我們使用預訓練的CNN作為固定 的特征提取器,并且僅改變輸出層。

通常這兩種遷移學習方法都會遵循一下步驟:

  • 初始化預訓練模型

  • 重組最后一層,使其具有與新數據集類別數相同的輸出數

  • 為優化算法定義想要的訓練期間更新的參數

  • 運行訓練步驟

二、導入相關包

from __future__ import print_function
from __future__ import division
import torch
import torch.nn as nn
import torch.optim as optim
import numpy as np
import torchvision 
from torchvision import datasets,models,transforms
import matplotlib.pyplot as plt
import time
import os
import copy
print("Pytorch version:",torch.__version__)
print("torchvision version:",torchvision.__version__)

運行結果

如何深入理解Pytorch微調torchvision模型

三、數據輸入

數據集——>我在這里

鏈接:https://pan.baidu.com/s/1G3yRfKTQf9sIq1iCSoymWQ
提取碼:1234

#%%輸入
data_dir="D:\Python\Pytorch\data\hymenoptera_data"
# 從[resnet,alexnet,vgg,squeezenet,desenet,inception]
model_name='squeezenet'
# 數據集中類別數量
num_classes=2
# 訓練的批量大小
batch_size=8
# 訓練epoch數
num_epochs=15
# 用于特征提取的標志。為FALSE,微調整個模型,為TRUE只更新圖層參數
feature_extract=True

四、輔助函數

1、模型訓練和驗證

  • train_model函數處理給定模型的訓練和驗證。作為輸入,它需要PyTorch模型、數據加載器字典、損失函數、優化器、用于訓練和驗 證epoch數,以及當模型是初始模型時的布爾標志。

  • is_inception標志用于容納 Inception v3 模型,因為該體系結構使用輔助輸出, 并且整體模型損失涉及輔助輸出和最終輸出,如此處所述。 這個函數訓練指定數量的epoch,并且在每個epoch之后運行完整的驗證步驟。它還跟蹤最佳性能的模型(從驗證準確率方面),并在訓練 結束時返回性能最好的模型。在每個epoch之后,打印訓練和驗證正確率。

#%%模型訓練和驗證
device=torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
def train_model(model,dataloaders,criterion,optimizer,num_epochs=25,is_inception=False):
    since=time.time()
    val_acc_history=[]
    best_model_wts=copy.deepcopy(model.state_dict())
    best_acc=0.0
    for epoch in range(num_epochs):
        print('Epoch{}/{}'.format(epoch, num_epochs-1))
        print('-'*10)
        # 每個epoch都有一個訓練和驗證階段
        for phase in['train','val']:
            if phase=='train':
                model.train()
            else:
                model.eval()
                
            running_loss=0.0
            running_corrects=0
            # 迭代數據
            for inputs,labels in dataloaders[phase]:
                inputs=inputs.to(device)
                labels=labels.to(device)
                # 梯度置零
                optimizer.zero_grad()
                # 向前傳播
                with torch.set_grad_enabled(phase=='train'):
                    # 獲取模型輸出并計算損失,開始的特殊情況在訓練中他有一個輔助輸出
                    # 在訓練模式下,通過將最終輸出和輔助輸出相加來計算損耗,在測試中值考慮最終輸出
                    if is_inception and phase=='train':
                        outputs,aux_outputs=model(inputs)
                        loss1=criterion(outputs,labels)
                        loss2=criterion(aux_outputs,labels)
                        loss=loss1+0.4*loss2
                    else:
                        outputs=model(inputs)
                        loss=criterion(outputs,labels)
                        
                    _,preds=torch.max(outputs,1)
                    
                    if phase=='train':
                        loss.backward()
                        optimizer.step()
                        
                # 添加
                running_loss+=loss.item()*inputs.size(0)
                running_corrects+=torch.sum(preds==labels.data)
                
            epoch_loss=running_loss/len(dataloaders[phase].dataset)
            epoch_acc=running_corrects.double()/len(dataloaders[phase].dataset)
            
            print('{}loss : {:.4f} acc:{:.4f}'.format(phase, epoch_loss,epoch_acc))
            
            if phase=='train' and epoch_acc>best_acc:
                best_acc=epoch_acc
                best_model_wts=copy.deepcopy(model.state_dict())
            if phase=='val':
                val_acc_history.append(epoch_acc)
            
        print()

    time_elapsed=time.time()-since
    print('training complete in {:.0f}s'.format(time_elapsed//60, time_elapsed%60))
    print('best val acc:{:.4f}'.format(best_acc))
    
    model.load_state_dict(best_model_wts)
    return model,val_acc_history

2、設置模型參數的'.requires_grad屬性'

當我們進行特征提取時,此輔助函數將模型中參數的 .requires_grad 屬性設置為False。
默認情況下,當我們加載一個預訓練模型時,所有參數都是 .requires_grad = True,如果我們從頭開始訓練或微調,這種設置就沒問題。
但是,如果我們要運行特征提取并且只想為新初始化的層計算梯度,那么我們希望所有其他參數不需要梯度變化。

#%%設置模型參數的.require——grad屬性
def set_parameter_requires_grad(model,feature_extracting):
    if feature_extracting:
        for param in model.parameters():
            param.require_grad=False

關于如何深入理解Pytorch微調torchvision模型問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

成武县| 商丘市| 崇州市| 农安县| 天全县| 龙里县| 察隅县| 鄄城县| 东山县| 龙游县| 寿阳县| 威信县| 张家港市| 大庆市| 于田县| 隆安县| 莱阳市| 台中县| 万年县| 武山县| 溧阳市| 渝中区| 财经| 昌图县| 海宁市| 广宁县| 潮州市| 江北区| 增城市| 澄江县| 惠州市| 沙洋县| 昌邑市| 郓城县| 黑山县| 柳林县| 屏边| 红河县| 石首市| 买车| 贵港市|