座標下降與梯度下降
本文是對座標上升、座標下降及梯度下降的關係的個人總結,歡迎大家討論。
1.座標上升法:座標上升與座標下降可以看做是一對,座標上升是用來求解max最優化問題,座標下降用於求min最優化問題,但是兩者的執行步驟類似,執行原理相同。
例如要求接一個max_f(x1,x2,...,xn)的問題,其中各個xi是自變數,如果應用座標上升法求解,其執行步驟就是:
1.首先給定一個初始點,如 X_0=(x1,x2,...,xn);
2.for dim=1:n
固定xi;(其中i是除dim以外的其他維度)
以x_dim為自變數求取使得f取得最大值的x_dim;
end
3.迴圈執行步驟2,直到f的值不再變化或變化很小。
總結:其關鍵點就是每次只變換一個維度xi,而其他維度都用當前值進行固定,如此迴圈迭代,最後得到最優解。
2.座標下降法與上述過程類似,不過在第2步求取最優x_dim的值時,變為使得f最小的x_dim;
3.梯度下降法又稱為最速下降法,他也是下降法,不過和座標下降法的主要區別就是多了一個下降方向的選取,在座標下降中下降方向是沿著每一維的座標軸方向進行的,也就是方向是類似於(0,0,1,0,0)、(0,0,0,1,0)(假設是5維)這種形式的,而梯度下降法中,下降方向變換為函式在當前點的梯度方向,當維度很高時,梯度下降的優勢就要比座標下降明顯很多。
梯度下降法的一個出發點是: f沿著f的梯度反方向下降最快。 這一點用文字而言,比較好理解,就是沿著f的梯度反方向搜尋前進直到最優就是了。如果用步驟來描述的話就是:
1.給定一個初始值,如 X_0=(x1,x2,...,xn);
2.求f在此點的梯度 f'(X_0);
3.確定下一點的位置: X_1 = X_0 - a·f'(X_0);(a>0且一般都比較小,相當於在f的梯度反方向走了較 小的一步)
4.求f(X_1),如果與f(X_0)的差在一定範圍內,則停止,否則令X_0=X_1,迴圈2,3,4.
相關文章
- 梯度下降法、座標下降法、牛頓迭代法梯度
- 梯度下降與excel梯度Excel
- 梯度下降梯度
- 【機器學習】梯度下降機器學習梯度
- 最小二乘與梯度下降梯度
- 機器學習之梯度下降機器學習梯度
- 實現梯度下降梯度
- 【機器學習】梯度下降 II機器學習梯度
- 機器學習之梯度下降法機器學習梯度
- 003.01 梯度下降梯度
- 1. 梯度下降法梯度
- 【機器學習基礎】——梯度下降機器學習梯度
- 梯度下降演算法梯度演算法
- 機器學習——梯度下降演算法機器學習梯度演算法
- 機器學習方法(一)——梯度下降法機器學習梯度
- 什麼是梯度下降法?梯度
- 梯度下降法原理與模擬分析||系列(1)梯度
- 機器學習之隨機梯度下降法機器學習隨機梯度
- 有監督學習——梯度下降梯度
- 梯度下降法原理及小結梯度
- 梯度下降求解最小二乘梯度
- 梯度下降(Gradient Descent)小結梯度
- 邏輯迴歸:損失函式與梯度下降邏輯迴歸函式梯度
- 梯度下降法中導數的求解梯度
- 梯度下降優化演算法概述梯度優化演算法
- 梯度下降演算法 Gradient Descent梯度演算法
- 大白話5分鐘帶你走進人工智慧-第十一節梯度下降之手動實現梯度下降和隨機梯度下降的程式碼(6)人工智慧梯度隨機
- 深入淺出--梯度下降法及其實現梯度
- 梯度下降、過擬合和歸一化梯度
- 機器學習入門筆記——如何理解梯度下降機器學習筆記梯度
- 機器學習筆記(1): 梯度下降演算法機器學習筆記梯度演算法
- (轉載)機器學習知識點(十二)座標下降法(Coordinate descent)機器學習
- 梯度下降背後的數學原理幾何?梯度
- 從零實現DNN 探究梯度下降的原理DNN梯度
- 隨機梯度下降法的數學基礎隨機梯度
- 機器學習--線性迴歸--梯度下降的實現機器學習梯度
- 機器學習中的數學(1):迴歸、梯度下降機器學習梯度
- Lasso迴歸演算法: 座標軸下降法與最小角迴歸法小結演算法