您好,登錄后才能下訂單哦!
小編給大家分享一下python怎么實現梯度下降和邏輯回歸,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
具體內容如下
import numpy as np import pandas as pd import os data = pd.read_csv("iris.csv") # 這里的iris數據已做過處理 m, n = data.shape dataMatIn = np.ones((m, n)) dataMatIn[:, :-1] = data.ix[:, :-1] classLabels = data.ix[:, -1] # sigmoid函數和初始化數據 def sigmoid(z): return 1 / (1 + np.exp(-z)) # 隨機梯度下降 def Stocgrad_descent(dataMatIn, classLabels): dataMatrix = np.mat(dataMatIn) # 訓練集 labelMat = np.mat(classLabels).transpose() # y值 m, n = np.shape(dataMatrix) # m:dataMatrix的行數,n:dataMatrix的列數 weights = np.ones((n, 1)) # 初始化回歸系數(n, 1) alpha = 0.001 # 步長 maxCycle = 500 # 最大循環次數 epsilon = 0.001 error = np.zeros((n,1)) for i in range(maxCycle): for j in range(m): h = sigmoid(dataMatrix * weights) # sigmoid 函數 weights = weights + alpha * dataMatrix.transpose() * (labelMat - h) # 梯度 if np.linalg.norm(weights - error) < epsilon: break else: error = weights return weights # 邏輯回歸 def pred_result(dataMatIn): dataMatrix = np.mat(dataMatIn) r = Stocgrad_descent(dataMatIn, classLabels) p = sigmoid(dataMatrix * r) # 根據模型預測的概率 # 預測結果二值化 pred = [] for i in range(len(data)): if p[i] > 0.5: pred.append(1) else: pred.append(0) data["pred"] = pred os.remove("data_and_pred.csv") # 刪除List_lost_customers數據集 # 第一次運行此代碼時此步驟不要 data.to_csv("data_and_pred.csv", index=False, encoding="utf_8_sig") # 數據集保存 pred_result(dataMatIn)
以上是“python怎么實現梯度下降和邏輯回歸”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。