中文字幕av专区_日韩电影在线播放_精品国产精品久久一区免费式_av在线免费观看网站

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

TensorFlow平臺下Python實現神經網絡

發布時間:2020-10-17 19:00:55 來源:腳本之家 閱讀:303 作者:Jaster_wisdom 欄目:開發技術

本篇文章主要通過一個簡單的例子來實現神經網絡。訓練數據是隨機產生的模擬數據集,解決二分類問題。

下面我們首先說一下,訓練神經網絡的一般過程:

1.定義神經網絡的結構和前向傳播的輸出結果

2.定義損失函數以及反向傳播優化的算法

3.生成會話(Session)并且在訓練數據上反復運行反向傳播優化算法

要記住的一點是,無論神經網絡的結構如何變化,以上三個步驟是不會改變的。

完整代碼如下:

import tensorflow as tf 
#導入TensorFlow工具包并簡稱為tf 
 
from numpy.random import RandomState 
#導入numpy工具包,生成模擬數據集 
 
batch_size = 8 
#定義訓練數據batch的大小 
 
w1 = tf.Variable(tf.random_normal([2,3],stddev=1,seed=1)) 
w2 = tf.Variable(tf.random_normal([3,1],stddev=1,seed=1)) 
#分別定義一二層和二三層之間的網絡參數,標準差為1,隨機產生的數保持一致 
 
x = tf.placeholder(tf.float32,shape=(None,2),name='x-input') 
y_ = tf.placeholder(tf.float32,shape=(None,1),name='y-input') 
#輸入為兩個維度,即兩個特征,輸出為一個標簽,聲明數據類型float32,None即一個batch大小 
#y_是真實的標簽 
 
a = tf.matmul(x,w1) 
y = tf.matmul(a,w2) 
#定義神經網絡前向傳播過程 
 
cross_entropy = -tf.reduce_mean(y_ * tf.log(tf.clip_by_value(y,1e-10,1.0))) 
train_step = tf.train.AdamOptimizer(0.001).minimize(cross_entropy) 
#定義損失函數和反向傳播算法 
 
rdm = RandomState(1) 
dataset_size = 128 
#產生128組數據 
X = rdm.rand(dataset_size,2) 
Y = [[int(x1+x2 < 1)] for (x1,x2) in X] 
#將所有x1+x2<1的樣本視為正樣本,表示為1;其余為0 
 
#創建會話來運行TensorFlow程序 
with tf.Session() as sess: 
 init_op = tf.global_variables_initializer() 
 #初始化變量 
 sess.run(init_op) 
 
 print(sess.run(w1)) 
 print(sess.run(w2)) 
 #打印出訓練網絡之前網絡參數的值 
 
 STEPS = 5000 
 #設置訓練的輪數 
 for i in range(STEPS): 
  start = (i * batch_size) % dataset_size 
  end = min(start+batch_size,dataset_size) 
 #每次選取batch_size個樣本進行訓練 
  
  sess.run(train_step,feed_dict={x:X[start:end],y_:Y[start:end]}) 
 #通過選取的樣本訓練神經網絡并更新參數 
  
  if i%1000 == 0: 
   total_cross_entropy = sess.run(cross_entropy,feed_dict={x:X,y_:Y}) 
   print("After %d training step(s),cross entropy on all data is %g" % (i,total_cross_entropy)) 
 #每隔一段時間計算在所有數據上的交叉熵并輸出,隨著訓練的進行,交叉熵逐漸變小 
 
 print(sess.run(w1)) 
 print(sess.run(w2)) 
 #打印出訓練之后神經網絡參數的值 

運行結果如下:

TensorFlow平臺下Python實現神經網絡

結果說明:

首先是打印出訓練之前的網絡參數,也就是隨機產生的參數值,然后將訓練過程中每隔1000次的交叉熵輸出,發現交叉熵在逐漸減小,說明分類的性能在變好。最后是訓練網絡結束后網絡的參數。

分享一個圖形化神經網絡訓練過程的網站:點這里,可以自己定義網絡參數的大小,層數以及學習速率的大小,并且訓練過程會以很直觀的形式展示出來。比如:

TensorFlow平臺下Python實現神經網絡

 TensorFlow平臺下Python實現神經網絡

以上對于神經網絡訓練過程可以有一個很深刻的理解。

最后,再補充一些TensorFlow相關的知識:

1.TensorFlow計算模型-計算圖

       Tensor表示張量,可以簡單的理解為多維數據結構;Flow則體現了它的計算模型。Flow翻譯過來是“流”,它直觀地表達了張量之間通過計算相互轉換的過程。TensorFlow中的每一個計算都是計算圖上的一個節點,而節點之間的邊描述了計算之間的依賴關系。

指定GPU方法,命令如下:

import tensorflow as tf
a = tf.constant([1.0,2.0],name=“a”)
b = tf.constant([3.0,4.0],name=“b”)
g = tf.Graph()
with g.device(/gpu:0):
result = a + b
sess = tf.Session()
sess.run(result)

2.TensorFlow數據模型-張量

      張量是管理數據的形式。零階張量表示標量,第一階張量為向量,也就是一維數組,一般來說,第n階張量可以理解為一個n維數組。張量本身不存儲運算的結果,它只是得到對結果的一個引用。可以使用tf.Session().run(result)語句來得到計算結果。

3.TensorFlow運行模型-會話

我們使用session來執行定義好的運算。

主要有以下兩種方式,第一種會產生內存泄漏,第二種不會有這種問題。

#創建一個會話
sess = tf.Session()
sess.run(…)
#關閉會話使得本次運行中使用的資源得到釋放
sess.close()

第二種方式是通過Python的上下文資源管理器來使用會話。

with tf.Session() as sess:
sess.run(…)

此種方式自動關閉和自動進行資源的釋放

4.TensorFlow-神經網絡例子

使用神經網絡解決分類問題可以分為以下四個步驟:
①提取問題中實體的特征向量作為輸入。
②定義神經網絡的結構,并定義如何從神經網絡的輸入得到輸出。這個過程就是神經網絡的前向傳播算法。
③通過訓練數據來調整神經網絡中參數的設置,這就是訓練網絡的過程。
④使用訓練好的神經網絡來預測未知的數據  

在TensorFlow中聲明一個2*3的矩陣變量的方法:

weight = tf.Variable(tf.random_normal([2,3],stddev=2))

 即表示為方差為0、標準差為2的正態分布

在TensorFlow中,一個變量的值在被使用之前,這個變量的初始化過程需要被明確調用。一下子初始化所有的變量

sess = tf.Session()
init_op = tf.initialize_all_variables()

或者換成init_op = tf.global_variables_initializer()也可

sess.run(init_op)

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持億速云。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

洞头县| 金沙县| 家居| 高碑店市| 黔西| 谷城县| 平度市| 西盟| 乌审旗| 炉霍县| 苍南县| 米易县| 东台市| 渝中区| 文水县| 济源市| 东兰县| 忻州市| 伊川县| 铜川市| 寿宁县| 明溪县| 上杭县| 原平市| 东丽区| 波密县| 南澳县| 南江县| 项城市| 台山市| 耿马| 老河口市| 屏南县| 永吉县| 赤水市| 克拉玛依市| 聂拉木县| 科技| 赤峰市| 湟源县| 大埔县|