牛頓法、梯度下降法、最小二乘法的原理以及利用它們解決實際問題的python程式設計
牛頓法、梯度下降法、最小二乘法的原理以及利用它們解決實際問題的python程式設計
一、牛頓法原理
1、產生背景
2、牛頓迭代公式
二、梯度下降法原理
根據計算梯度時所用資料量不同,可以分為三種基本方法:批次梯度下降法(Batch Gradient Descent, BGD)、小批次梯度下降法(Mini-batch Gradient Descent, MBGD)以及隨機梯度下降法(Stochastic Gradient Descent, SGD)。
梯度下降法的一般求解框架
三、最小二乘法原理
最小二乘法(又稱最小平方法)是一種數學最佳化技術。它透過最小化誤差的平方和尋找資料的最佳函式匹配。利用最小二乘法可以簡便地求得未知的資料,並使得這些求得的資料與實際資料之間誤差的平方和為最小。最小二乘法還可用於曲線擬合。其他一些最佳化問題也可透過最小化能量或最大化熵用最小二乘法來表達。
詳細原理請參考:%E6%9C%80%E5%B0%8F%E4%BA%8C%E4%B9%98%E6%B3%95/2522346#4
四、運用梯度下降法原理解決實際問題的python程式設計舉例
1、問題如下
2、匯入所需要的包
import numpy as np
import matplotlib.pyplot as plt
import matplotlib as mpl
import math
from mpl_toolkits.mplot3d import Axes3D
import warnings
3、畫出函式影像
def f2(x1,x2):
return x1 ** 2 + 2 * x2 ** 2 -4*x1- 2 * x1*x2
X1 = np.arange(-4,4,0.2)
X2 = np.arange(-4,4,0.2)
X1, X2 = np.meshgrid(X1, X2) # 生成xv、yv,將X1、X2變成n*m的矩陣,方便後面繪圖
Y = np.array(list(map(lambda t : f2(t[0],t[1]),zip(X1.flatten(),X2.flatten()))))
Y.shape = X1.shape # 1600的Y圖還原成原來的(40,40)
%matplotlib inline
#作圖
fig = plt.figure(facecolor='w')
ax = Axes3D(fig)
ax.plot_surface(X1,X2,Y,rstride=1,cstride=1,cmap=plt.cm.jet)
ax.set_title(u'$ x1 ** 2 + 2 * x2 ** 2 -4*x1- 2 * x1*x2 $')
plt.show()
4、求極小點和極值點
# 解決中文顯示問題
mpl.rcParams['font.sans-serif'] = [u'SimHei']
mpl.rcParams['axes.unicode_minus'] = False
%matplotlib inline
# 二維原始影像
def f2(x, y):
return x ** 2 + 2 * y ** 2 -4*x- 2 * x*y
## 偏函式
def hx1(x, y):
return 2*x-4-2*y
def hx2(x, y):
return 4*y-2*x
x1 = 4
x2 = 4
alpha = 0.001
#儲存梯度下降經過的點
GD_X1 = [x1]
GD_X2 = [x2]
GD_Y = [f2(x1,x2)]
# 定義y的變化量和迭代次數
y_change = f2(x1,x2)
iter_num = 0
while(iter_num < 10000) :
tmp_x1 = x1 - alpha * hx1(x1,x2)
tmp_x2 = x2 - alpha * hx2(x1,x2)
tmp_y = f2(tmp_x1,tmp_x2)
f_change = np.absolute(tmp_y - f2(x1,x2))
x1 = tmp_x1
x2 = tmp_x2
GD_X1.append(x1)
GD_X2.append(x2)
GD_Y.append(tmp_y)
iter_num += 1
print(u"最終結果為:(%.5f, %.5f, %.5f)" % (x1, x2, f2(x1,x2)))
print(u"迭代過程中X的取值,迭代次數:%d" % iter_num)
print(GD_X1)
# 作圖
fig = plt.figure(facecolor='w',figsize=(20,18))
ax = Axes3D(fig)
ax.plot_surface(X1,X2,Y,rstride=1,cstride=1,cmap=plt.cm.jet)
ax.plot(GD_X1,GD_X2,GD_Y,'ko-')
ax.set_xlabel('x')
ax.set_ylabel('y')
ax.set_zlabel('z')
ax.set_title(u'函式;\n學習率:%.3f; 最終解:(%.3f, %.3f, %.3f);迭代次數:%d' % (alpha, x1, x2, f2(x1,x2), iter_num))
plt.show()
最終結果為:(4.00043, 2.00027, -8.00000)
迭代過程中X的取值,迭代次數:10000
從上面求出的結果可以得到極小點為(4,2),極小值為-8
5、用Excel求上個函式的極小點和極小值
實驗結果如下圖:
依舊可以清晰地看出該函式的極小點為(4,2),極值點為-8
五、使用梯度下降法和最小二乘法求解多元函式python程式設計舉例
1、問題如下
用梯度下降法和最小二乘法根據以下圖片的資料進行多元線性迴歸並求解相關係數
將資料寫入Excel中
2、使用梯度下降法求解多元函式
程式碼如下:
import matplotlib.pyplot as plt
import numpy as np
from numpy import array
import pandas as pd
# 讀取資料檔案
df=pd.read_csv("C:/Users/LOL/Desktop/店鋪多元迴歸.csv")
%matplotlib notebook
df=df.values
x_data=df[:,:2]
y_data=df[:,2]
#定義學習率、斜率、截據
#設方程為y=theta1*x1+theta2*x2+theta0
lr=0.00001
theta0=0
theta1=0
theta2=0
#定義最大迭代次數
epochs=10000
#定義最小二乘法函式-損失函式(代價函式)
def compute_error(theta0,theta1,theta2,x_data,y_data):
totalerror=0
for i in range(0,len(x_data)):#定義一共有多少樣本點
totalerror=totalerror+(y_data[i]-(theta1*x_data[i,0]+theta2*x_data[i,1]+theta0))**2
return totalerror/float(len(x_data))/2
#梯度下降演算法求解引數
def gradient_descent_runner(x_data,y_data,theta0,theta1,theta2,lr,epochs):
m=len(x_data)
for i in range(epochs):
theta0_grad=0
theta1_grad=0
theta2_grad=0
for j in range(0,m):
theta0_grad-=(1/m)*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta2)+y_data[j])
theta1_grad-=(1/m)*x_data[j,0]*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta0)+y_data[j])
theta2_grad-=(1/m)*x_data[j,1]*(-(theta1*x_data[j,0]+theta2*x_data[j,1]+theta0)+y_data[j])
theta0=theta0-lr*theta0_grad
theta1=theta1-lr*theta1_grad
theta2=theta2-lr*theta2_grad
return theta0,theta1,theta2
#進行迭代求解 鄭州婦科醫院
theta0,theta1,theta2=gradient_descent_runner(x_data,y_data,theta0,theta1,theta2,lr,epochs)
print('迭代次數:{0} 學習率:{1}之後 a0={2},a1={3},a2={4},代價函式為{5}'.format(epochs,lr,theta0,theta1,theta2,compute_error(theta0,theta1,theta2,x_data,y_data)))
print("多元線性迴歸方程為:y=",theta1,"X1+",theta2,"X2+",theta0)
迭代次數:10000 學習率:1e-05之後 a0=5.3774162274868,a1=45.0533119768975,a2=-0.19626929358281256,代價函式為366.7314528822914
多元線性迴歸方程為:y= 45.0533119768975 X1+ -0.19626929358281256 X2+ 5.3774162274868
3、用最小二乘法求解
程式碼如下:
import numpy as np
import pandas as pd
#變數初始化
X=[]
Y=[]
B=[]
Q_e=0
Q_E=0
#從csv檔案中讀取資料
def get_data(file_name):
data=pd.read_csv(file_name,header=0)
data=np.array(data)
Y=data[:,data.shape[1]-1]#預測物件位於最後一列
X=data[:,0:data.shape[1]-1]
print(X.shape)
return X,Y
return X,Y
X,Y=get_data('C:/Users/LOL/Desktop/店鋪多元迴歸.csv')
X=np.mat(np.c_[np.ones(X.shape[0]),X])#為係數矩陣增加常數項係數
Y=np.mat(Y)#陣列轉化為矩陣
B=np.linalg.inv(X.T*X)*(X.T)*(Y.T)
print("第一項為常數項,其他為迴歸係數",B)#輸出係數,第一項為常數項,其他為迴歸係數
print("輸入店鋪面積,距離最近的車站距離,預測營業額:",np.mat([1,10,80])*B ,"萬日元")#預測結果
#相關係數
Y_mean=np.mean(Y)
for i in range(Y.size):
Q_e+=pow(np.array((Y.T)[i]-X[i]*B),2)
Q_E+=pow(np.array(X[i]*B)-Y_mean,2)
R2=Q_E/(Q_e+Q_E)
print("R2的值:",R2)
(10, 2)
第一項為常數項,其他為迴歸係數 [[65.32391639]
[41.51347826]
[-0.34088269]]
輸入店鋪面積,距離最近的車站距離,預測營業額: [[453.1880841]] 萬日元
R2的值: [[0.94523585]]
4、使用Excel求解
由上面三種方法求到的結果對比,可以清晰地看出用最小二乘法和Excel求出的結果一致,而用梯度下降法求解有一定的誤差
六、總結
最小二乘法:能透過最小化誤差的平方和尋找資料的最佳函式匹配,但是使用有一定侷限性,在迴歸過程中,迴歸的關聯式不可能全部透過每個迴歸資料點。
梯度下降法:是透過梯度方向和步長,直接求解目標函式的最小值時的引數,越接近最優值時,步長應該不斷減小,否則會在最優值附近來回震盪。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/69945560/viewspace-2684793/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- 梯度下降法、座標下降法、牛頓迭代法梯度
- 【機器學習之數學】02 梯度下降法、最速下降法、牛頓法、共軛方向法、擬牛頓法機器學習梯度
- java多執行緒程式設計問題以及解決辦法Java執行緒程式設計
- 梯度下降法原理及小結梯度
- 梯度下降法實現最簡單線性迴歸問題python實現梯度Python
- Java網路程式設計,有助於解決實際問題, (轉)Java程式設計
- 梯度下降法原理與模擬分析||系列(1)梯度
- 機器學習梯度下降法,最通俗易懂的解釋機器學習梯度
- 梯度下降法中導數的求解梯度
- 機器學習之梯度下降法機器學習梯度
- 1. 梯度下降法梯度
- 解決問題的能力 > 10倍程式設計師程式設計師
- 程式設計師解決問題的 60 個策略程式設計師
- 程式設計師解決問題的60個策略程式設計師
- 深入淺出--梯度下降法及其實現梯度
- 幽默:程式設計中困難的不是解決問題,而是確定要解決的問題 - Paul程式設計
- rootkits病毒的原理介紹以及解決辦法
- Python爬蟲程式設計常見問題解決方法Python爬蟲程式設計
- 機器學習方法(一)——梯度下降法機器學習梯度
- 什麼是梯度下降法?梯度
- 你遇到過的相容性問題以及解決辦法
- UG程式設計常遇到的問題及解決方法程式設計
- 關於PHP程式設計師解決問題的能力PHP程式設計師
- 程式設計謎題:提升你解決問題的訓練場程式設計
- 解決mac系統下無法手動設定ip的問題Mac
- Webpack的理解以及解決了的問題Web
- 隨機梯度下降法的數學基礎隨機梯度
- 使用ABAP併發程式設計解決一個實際應用場景中的效能瓶頸問題程式設計
- JAVA程式設計題-用java解決兔子問題Java程式設計
- Authentication failure 以及xxx is not in the sudoers file 問題的解決辦法AI
- handlder引起的記憶體洩漏問題以及解決辦法記憶體
- WSL中配置EDA環境:遇到的問題以及解決辦法
- 解決程式設計難題的實用方法指南 - praeclarum程式設計
- 機器學習之隨機梯度下降法機器學習隨機梯度
- 【一】瞭解計算機的原理以及Python計算機Python
- 使用梯度下降法實現多項式迴歸梯度
- 機器學習-牛頓法詳解機器學習
- vue中常見的問題以及解決方法Vue