中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python的tf.train.batch函數怎么用

發布時間:2022-05-05 09:29:49 來源:億速云 閱讀:167 作者:iii 欄目:開發技術

這篇文章主要介紹“python的tf.train.batch函數怎么用”的相關知識,小編通過實際案例向大家展示操作過程,操作方法簡單快捷,實用性強,希望這篇“python的tf.train.batch函數怎么用”文章能幫助大家解決問題。

tf.train.batch函數

tf.train.batch(
    tensors,
    batch_size,
    num_threads=1,
    capacity=32,
    enqueue_many=False,
    shapes=None,
    dynamic_pad=False,
    allow_smaller_final_batch=False,
    shared_name=None,
    name=None
)

其中:

1、tensors:利用slice_input_producer獲得的數據組合。

2、batch_size:設置每次從隊列中獲取出隊數據的數量。

3、num_threads:用來控制線程的數量,如果其值不唯一,由于線程執行的特性,數據獲取可能變成亂序。

4、capacity:一個整數,用來設置隊列中元素的最大數量

5、allow_samller_final_batch:當其為True時,如果隊列中的樣本數量小于batch_size,出隊的數量會以最終遺留下來的樣本進行出隊;當其為False時,小于batch_size的樣本不會做出隊處理。

6、name:名字

測試代碼

1、allow_samller_final_batch=True

import pandas as pd
import numpy as np
import tensorflow as tf
# 生成數據
def generate_data():
    num = 18
    label = np.arange(num)
    return label
# 獲取數據
def get_batch_data():
    label = generate_data()
    input_queue = tf.train.slice_input_producer([label], shuffle=False,num_epochs=2)
    label_batch = tf.train.batch(input_queue, batch_size=5, num_threads=1, capacity=64,allow_smaller_final_batch=True)
    return label_batch
# 數據組
label = get_batch_data()
sess = tf.Session()
# 初始化變量
sess.run(tf.global_variables_initializer())
sess.run(tf.local_variables_initializer())
# 初始化batch訓練的參數
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess,coord)
try:
    while not coord.should_stop():
        # 自動獲取下一組數據
        l = sess.run(label)
        print(l)
except tf.errors.OutOfRangeError:
    print('Done training')
finally:
    coord.request_stop()
coord.join(threads)
sess.close()

運行結果為:

[0 1 2 3 4]
[5 6 7 8 9]
[10 11 12 13 14]
[15 16 17  0  1]
[2 3 4 5 6]
[ 7  8  9 10 11]
[12 13 14 15 16]
[17]
Done training

2、allow_samller_final_batch=False

相比allow_samller_final_batch=True,輸出結果少了[17]

import pandas as pd
import numpy as np
import tensorflow as tf
# 生成數據
def generate_data():
    num = 18
    label = np.arange(num)
    return label
# 獲取數據
def get_batch_data():
    label = generate_data()
    input_queue = tf.train.slice_input_producer([label], shuffle=False,num_epochs=2)
    label_batch = tf.train.batch(input_queue, batch_size=5, num_threads=1, capacity=64,allow_smaller_final_batch=False)
    return label_batch
# 數據組
label = get_batch_data()
sess = tf.Session()
# 初始化變量
sess.run(tf.global_variables_initializer())
sess.run(tf.local_variables_initializer())
# 初始化batch訓練的參數
coord = tf.train.Coordinator()
threads = tf.train.start_queue_runners(sess,coord)
try:
    while not coord.should_stop():
        # 自動獲取下一組數據
        l = sess.run(label)
        print(l)
except tf.errors.OutOfRangeError:
    print('Done training')
finally:
    coord.request_stop()
coord.join(threads)
sess.close()

運行結果為:

[0 1 2 3 4]
[5 6 7 8 9]
[10 11 12 13 14]
[15 16 17  0  1]
[2 3 4 5 6]
[ 7  8  9 10 11]
[12 13 14 15 16]
Done training

關于“python的tf.train.batch函數怎么用”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識,可以關注億速云行業資訊頻道,小編每天都會為大家更新不同的知識點。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

慈利县| 安泽县| 瑞昌市| 香河县| 民乐县| 德庆县| 津南区| 宜兰市| 南漳县| 定襄县| 安阳县| 洪洞县| 南丰县| 南通市| 丹江口市| 女性| 五原县| 洞口县| 伊宁县| 珲春市| 常宁市| 铜川市| 岫岩| 乐亭县| 兴文县| 丁青县| 博乐市| 法库县| 岳池县| 楚雄市| 诏安县| 榆树市| 依安县| 波密县| 红原县| 佛冈县| 慈溪市| 和田县| 满城县| 松滋市| 娱乐|