中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

TensorFlow梯度求解tf.gradients實例

發布時間:2020-08-20 10:14:49 來源:腳本之家 閱讀:196 作者:yqtaowhu 欄目:開發技術

我就廢話不多說了,直接上代碼吧!

import tensorflow as tf 

w1 = tf.Variable([[1,2]]) 
w2 = tf.Variable([[3,4]]) 

res = tf.matmul(w1, [[2],[1]]) 

grads = tf.gradients(res,[w1]) 

with tf.Session() as sess: 
 tf.global_variables_initializer().run()
 print sess.run(res)
 print sess.run(grads) 

輸出結果為:

[[4]]
[array([[2, 1]], dtype=int32)]

可以這樣看res與w1有關,w1的參數設為[a1,a2],則:

2*a1 + a2 = res

所以res對a1,a2求導可得 [[2,1]]為w1對應的梯度信息。

import tensorflow as tf 
def gradient_clip(gradients, max_gradient_norm):
 """Clipping gradients of a model."""
 clipped_gradients, gradient_norm = tf.clip_by_global_norm(
   gradients, max_gradient_norm)
 gradient_norm_summary = [tf.summary.scalar("grad_norm", gradient_norm)]
 gradient_norm_summary.append(
  tf.summary.scalar("clipped_gradient", tf.global_norm(clipped_gradients)))

 return clipped_gradients
w1 = tf.Variable([[3.0,2.0]]) 
# w2 = tf.Variable([[3,4]]) 
params = tf.trainable_variables()
res = tf.matmul(w1, [[3.0],[1.]]) 
opt = tf.train.GradientDescentOptimizer(1.0)
grads = tf.gradients(res,[w1]) 
clipped_gradients = gradient_clip(grads,2.0)
global_step = tf.Variable(0, name='global_step', trainable=False)
#update = opt.apply_gradients(zip(clipped_gradients,params), global_step=global_step)
with tf.Session() as sess: 
 tf.global_variables_initializer().run()
 print sess.run(res)
 print sess.run(grads) 
 print sess.run(clipped_gradients)

以上這篇TensorFlow梯度求解tf.gradients實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持億速云。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

双辽市| 西乌| 宝丰县| 信阳市| 潮安县| 武定县| 和硕县| 贵南县| 临高县| 石门县| 大名县| 拜城县| 平度市| 吴旗县| 鱼台县| 台安县| 文成县| 遂宁市| 平安县| 依兰县| 砀山县| 布拖县| 云龙县| 合作市| 西畴县| 龙陵县| 武穴市| 武鸣县| 泰和县| 武清区| 林西县| 玉门市| 泰安市| 民县| 扎鲁特旗| 历史| 叙永县| 荣成市| 瓦房店市| 林芝县| 邮箱|