中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用Tensorflow怎么實現梯度異步更新

發布時間:2021-04-06 16:56:51 來源:億速云 閱讀:174 作者:Leah 欄目:開發技術

使用Tensorflow怎么實現梯度異步更新?相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

先計算梯度:

# 模型部分
Optimizer = tf.train.GradientDescentOptimizer(1)
gradient = Optimizer.compute_gradients(loss)  # 每次計算所有變量的梯度
grads_holder = [(tf.placeholder(tf.float32, shape=g.get_shape()), v) for (g, v) in gradient]# 將每次計算的梯度保存
optm = Optimizer.apply_gradients(grads_holder) # 進行梯度更新

# 初始化部分
sess = tf.Session()
init = tf.global_variables_initializer()
sess.run(init)

# 實際訓練部分
grads = []         # 定義一個空的列表用于存儲每次計算的梯度
for i in range(batchsize): # batchsize設置在這里
  x_i = ...       # 輸入
  y_real = ...      # 標簽
  grad_i = sess.run(gradient, feed_dict={inputs: x_i, outputs: y_real}) #梯度計算
  grads.append(grad_i)  # 梯度存儲
# 定義一個空的字典用于存儲,batchsize中所有梯度的和
grads_sum = {}     
# 將網絡中每個需要更新梯度的變量都遍歷一遍  
for i in range(len(grads_holder)): 
  k = grads_holder[i][0] # 得到該變量名
  # 將該變量名下的所有梯度求和,這里也可以求平均,求平均只需要除以batchsize
  grads_sum[k] = sum([g[i][0] for g in grads]) 
# 完成梯度更新
sess.run(optm,feed_dict=grads_sum)

看完上述內容,你們掌握使用Tensorflow怎么實現梯度異步更新的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

搜索| 赤峰市| 东平县| 珠海市| 内乡县| 瑞金市| 汝南县| 布尔津县| 新河县| 镇坪县| 沐川县| 乐亭县| 普洱| 临朐县| 东明县| 隆林| 霞浦县| 连州市| 贵南县| 山阳县| 巧家县| 石河子市| 化德县| 依兰县| 鄂伦春自治旗| 固安县| 卓尼县| 龙山县| 洞头县| 勃利县| 尉犁县| 章丘市| 乌鲁木齐县| 剑川县| 德安县| 屯门区| 泰安市| 和平区| 合川市| 阜南县| 肃宁县|