在TensorFlow中,GRU(Gated Recurrent Unit)的參數設置包括num_units(GRU單元的數量)、activation(激活函數)、kernel_initializer(權重初始化方法)、bias_initializer(偏置初始化方法)等。
下面是一個示例代碼,展示如何在TensorFlow中設置GRU的參數:
import tensorflow as tf
# 定義GRU層
gru_layer = tf.keras.layers.GRU(num_units=256, activation='tanh', kernel_initializer='glorot_uniform', bias_initializer='zeros')
# 輸入數據形狀為(batch_size, time_steps, input_dim)
inputs = tf.keras.Input(shape=(time_steps, input_dim))
# 將輸入數據傳遞給GRU層
outputs = gru_layer(inputs)
# 創建模型
model = tf.keras.Model(inputs=inputs, outputs=outputs)
在上面的示例中,我們定義了一個包含256個GRU單元的GRU層,激活函數為tanh,權重初始化方法為glorot_uniform,偏置初始化方法為zeros。您可以根據您的需求自定義這些參數,以實現不同的效果。