中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

tensorflow模型的save與restore,及checkpoint中如何讀取變量

發布時間:2020-07-22 10:02:23 來源:億速云 閱讀:721 作者:小豬 欄目:開發技術

小編這次要給大家分享的是tensorflow模型的save與restore,及checkpoint中如何讀取變量,文章內容豐富,感興趣的小伙伴可以來了解一下,希望大家閱讀完這篇文章之后能夠有所收獲。

創建一個NN

import tensorflow as tf
import numpy as np

#fake data
x = np.linspace(-1, 1, 100)[:, np.newaxis] #shape(100,1)
noise = np.random.normal(0, 0.1, size=x.shape)
y = np.power(x, 2) + noise  #shape(100,1) + noise
tf_x = tf.placeholder(tf.float32, x.shape) #input x
tf_y = tf.placeholder(tf.float32, y.shape) #output y
l = tf.layers.dense(tf_x, 10, tf.nn.relu) #hidden layer
o = tf.layers.dense(l, 1)     #output layer
loss = tf.losses.mean_squared_error(tf_y, o ) #compute loss
train_op = tf.train.GradientDescentOptimizer(learning_rate=0.5).minimize(loss)

1.使用save對模型進行保存

sess= tf.Session()
sess.run(tf.global_variables_initializer())  #initialize var in graph
saver = tf.train.Saver() # define a saver for saving and restoring
for step in range(100):   #train
 sess.run(train_op,{tf_x:x, tf_y:y})
saver.save(sess, 'params/params.ckpt', write_meta_graph=False) # mate_graph is not recommend

生成三個文件,分別是checkpoint,.ckpt.data-00000-of-00001,.ckpt.index

2.使用restore對提取模型

在提取模型時,需要將模型結構再定義一遍,再將各參數加載出來

#bulid entire net again and restore
tf_x = tf.placeholder(tf.float32, x.shape)
tf_y = tf.placeholder(tf.float32, y.shape)
l_ = tf.layers.dense(tf_x, 10, tf.nn.relu)
o_ = tf.layers.dense(l_, 1)
loss_ = tf.losses.mean_squared_error(tf_y, o_)
 
sess = tf.Session()
# don't need to initialize variables, just restoring trained variables
saver = tf.train.Saver() # define a saver for saving and restoring
saver.restore(sess, './params/params.ckpt')

3.有時會報錯Not found:b1 not found in checkpoint

這時我們想知道我在文件中到底保存了什么內容,即需要讀取出checkpoint中的tensor

import os
from tensorflow.python import pywrap_tensorflow
checkpoint_path = os.path.join('params','params.ckpt')
# Read data from checkpoint file
reader = pywrap_tensorflow.NewCheckpointReader(checkpoint_path)
var_to_shape_map = reader.get_variable_to_shape_map()
# Print tensor name and value
f = open('params.txt','w')
for key in var_to_shape_map: # write tensors' names and values in file
 print(key,file=f)
 print(reader.get_tensor(key),file=f)
f.close()

運行后生成一個params.txt文件,在其中可以看到模型的參數。

補充知識:TensorFlow按時間保存檢查點

一 實例

介紹一種更簡便地保存檢查點功能的方法——tf.train.MonitoredTrainingSession函數,該函數可以直接實現保存及載入檢查點模型的文件。

演示使用MonitoredTrainingSession函數來自動管理檢查點文件。

二 代碼

import tensorflow as tf
tf.reset_default_graph()
global_step = tf.train.get_or_create_global_step()
step = tf.assign_add(global_step, 1)
with tf.train.MonitoredTrainingSession(checkpoint_dir='log/checkpoints',save_checkpoint_secs = 2) as sess:
 print(sess.run([global_step]))
 while not sess.should_stop():
  i = sess.run( step)
  print( i)

三 運行結果

1 第一次運行后,會發現log文件夾下產生如下文件

tensorflow模型的save與restore,及checkpoint中如何讀取變量

2 第二次運行后,結果如下:

INFO:tensorflow:Create CheckpointSaverHook.
INFO:tensorflow:Restoring parameters from log/checkpoints\model.ckpt-15147
INFO:tensorflow:Saving checkpoints for 15147 into log/checkpoints\model.ckpt.
[15147]
15148
15149
15150
15151
15152
15153
15154
15155
15156
15157
15158
15159

四 說明

本例是按照訓練時間來保存的。通過指定save_checkpoint_secs參數的具體秒數,來設置每訓練多久保存一次檢查點。

可見程序自動載入檢查點是從第15147次開始運行的。

五 注意

1 如果不設置save_checkpoint_secs參數,默認的保存時間是10分鐘,這種按照時間保存的模式更適合用于使用大型數據集來訓練復雜模型的情況。

2 使用該方法,必須要定義global_step變量,否則會報錯誤。

看完這篇關于tensorflow模型的save與restore,及checkpoint中如何讀取變量的文章,如果覺得文章內容寫得不錯的話,可以把它分享出去給更多人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

会东县| 师宗县| 乌兰县| 双峰县| 宜春市| 杨浦区| 江山市| 高尔夫| 蓬溪县| 瓦房店市| 达州市| 东山县| 洛浦县| 花垣县| 宜宾市| 南和县| 通河县| 巴里| 大城县| 新兴县| 古浪县| 榆林市| 浑源县| 宣武区| 久治县| 阿合奇县| 门头沟区| 乌鲁木齐市| 河南省| 永兴县| 云霄县| 嘉义市| 唐河县| 五台县| 德阳市| 凤台县| 梁平县| 金山区| 金堂县| 江源县| 张家界市|