您好,登錄后才能下訂單哦!
小編給大家分享一下使用keras實現非線性回歸的方法,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
我就廢話不多說了,大家還是直接看代碼吧~
import keras import numpy as np import matplotlib.pyplot as plt #Sequential 按順序構成的模型 from keras.models import Sequential#Sequential是模型結構,輸入層,隱藏層,輸出層 #Dense 全連接層,Activation激活函數 from keras.layers import Dense,Activation from keras.optimizers import SGD x_data=np.linspace(-0.5,0.5,200)#從-0.5到0.5范圍內生成200個隨機點 noise=np.random.normal(0,0.02,x_data.shape)#生成和x_data形狀一樣的噪聲 y_data=np.square(x_data)+noise #顯示隨機點 #plt.scatter(x_data,y_data) #plt.show() #構建一個順序模型 model=Sequential() #1-10-1,添加一個隱藏層 model.add(Dense(units=10,input_dim=1,activation='relu'))#units是隱藏層,輸出維度,輸出y,input_dim是輸入維度,輸入x #model.add(Activation('tanh'))#給這一層添加一個雙曲正切激活函數tanh函數 model.add(Dense(units=1,input_dim=10,activation='relu'))#input_dim可以不寫,它可以識別到上一句的輸出是10維 #model.add(Activation('tanh'))#給這一層添加一個雙曲正切激活函數tanh函數 #定義優化器 sgd=SGD(lr=0.3)#學習率提高到0.3,訓練速度會加快 model.compile(optimizer=sgd,loss='mse')#編譯這個模型,sgd是隨機梯度下降法,優化器.mse是均方誤差 #訓練模型 for step in range(5001): #每次訓練一個批次 cost=model.train_on_batch(x_data,y_data)#代價函數的值,其實就是loss #每500個batch打印一次cost值 if step %500==0: print('cost:',cost) #打印權值和偏置值 W,b=model.layers[0].get_weights()#線性回歸,只有一層 print('W:',W,'b:',b) #x_data輸入網絡中,得到預測值y_pred y_pred=model.predict(x_data) #顯示隨機點s plt.scatter(x_data,y_data) #顯示預測結果 plt.plot(x_data,y_pred,'r-',lw=3)#r-表示紅色的線,lw表示線寬 plt.show()
結果:
cost: 0.0077051604 cost: 0.0004980223 cost: 0.00047812634 cost: 0.00047762066 cost: 0.00047761563 cost: 0.00047761557 cost: 0.0004776156 cost: 0.0004776156 cost: 0.0004776156 cost: 0.00047761566 cost: 0.0004776156 W: [[ 0.37828678 0.37509003 0.1847014 -0.46519393 -0.6347979 -0.70865685 0.55382997 -0.66780925 0.08229994 0.5980157 ]] b: [-0.00412499 -0.01216194 0.01939214 -0.03005166 -0.00475936 -0.00794064 -0.00015427 -0.01620528 0.08056344 -0.01741577]
看完了這篇文章,相信你對使用keras實現非線性回歸的方法有了一定的了解,想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。