【機器學習】【邏輯迴歸】代價函式為什麼用最大似然估計而不是最小二乘法?
版權宣告:本文為博主原創文章,未經博主允許不得轉載,轉載請註明文章來源,聯絡方式:vipsummer@139.com https://blog.csdn.net/u012421852/article/details/79620810
為了搞清楚為什麼,就要先搞清楚,邏輯迴歸的對數似然函式和最小二乘法函式分別是什麼。
邏輯迴歸的對數似然函式公式
邏輯迴歸的最小二乘法的代價函式公式
可以證明邏輯迴歸的最小二乘法的代價函式不是關於分佈引數θ的凸函式,求解過程中,會得到區域性最優,不容易求解全域性最優θ。邏輯迴歸的最小二乘法的代價函式如下所示:
答1:證明LR的對數似然函式是凸函式
關於邏輯迴歸的對數似然函式的基本概念和詳細求解流程可以會看以前部落格:對數似然函式
可以證明邏輯迴歸的對數似然函式是關於θ的凸函式,且有最大值。證明過程詳細如下所示:
答2:由邏輯迴歸是一種分類演算法決定
因為邏輯迴歸不是一種迴歸,而是一種分類演算法。而邏輯迴歸的假設函式是屬於指數分佈族,且邏輯迴歸的樣本給予滿足伯努利分佈而進行訓練的。最大似然估計的出發點就是使得當前樣本發生的可能性最大化,反向支援邏輯迴歸樣本滿足伯努利分佈。而最小二乘法只是讓預測值和觀測值更擬合,而最大似然估計是保證計算出的特徵值發生的概率正確率最大化,最大似然更滿足邏輯迴歸是一種分類器。
(end)
---------------------
作者:CV_ML_DP
來源:CSDN
原文:https://blog.csdn.net/u012421852/article/details/79620810
版權宣告:本文為博主原創文章,轉載請附上博文連結!
相關文章
- 線性迴歸,邏輯迴歸的學習(包含最小二乘法及極大似然函式等)邏輯迴歸函式
- 【小白學AI】線性迴歸與邏輯迴歸(似然引數估計)AI邏輯迴歸
- 機器學習:邏輯迴歸機器學習邏輯迴歸
- 機器學習必知概念:貝葉斯估計、最大似然估計、最大後驗估計機器學習
- 機器學習整理(邏輯迴歸)機器學習邏輯迴歸
- 機器學習之邏輯迴歸機器學習邏輯迴歸
- 機器學習 | 線性迴歸與邏輯迴歸機器學習邏輯迴歸
- 機器學習之邏輯迴歸:計算概率機器學習邏輯迴歸
- 機器學習之邏輯迴歸:計算機率機器學習邏輯迴歸計算機
- 損失函式:最小二乘法與極大似然估計法函式
- 不求甚解的深度學習教程(1)-邏輯迴歸基本概念以及代價函式深度學習邏輯迴歸函式
- 人工智慧-機器學習-邏輯迴歸人工智慧機器學習邏輯迴歸
- 【機器學習基礎】邏輯迴歸——LogisticRegression機器學習邏輯迴歸
- 最大似然估計詳解
- 邏輯迴歸為什麼使用sigmod邏輯迴歸
- 邏輯迴歸 損失函式邏輯迴歸函式
- 機器學習之邏輯迴歸:模型訓練機器學習邏輯迴歸模型
- 機器學習之使用Python完成邏輯迴歸機器學習Python邏輯迴歸
- 【6%】100小時機器學習——邏輯迴歸機器學習邏輯迴歸
- 機器學習筆記-多類邏輯迴歸機器學習筆記邏輯迴歸
- 【機器學習】邏輯迴歸過程推導機器學習邏輯迴歸
- 從零開始學機器學習——邏輯迴歸機器學習邏輯迴歸
- 機器學習 - 似然函式:概念、應用與程式碼例項機器學習函式
- 2.3邏輯迴歸損失函式邏輯迴歸函式
- 手擼機器學習演算法 - 邏輯迴歸機器學習演算法邏輯迴歸
- 機器學習入門 - 快速掌握邏輯迴歸模型機器學習邏輯迴歸模型
- 最大似然估計可能因 "流形過度擬合 "而失敗
- 從極大似然估計的角度理解深度學習中loss函式深度學習函式
- 邏輯迴歸損失函式(cost function)邏輯迴歸函式Function
- 機器學習演算法--邏輯迴歸原理介紹機器學習演算法邏輯迴歸
- 把ChatGPT調教成機器學習專家,以邏輯迴歸模型的學習為例ChatGPT機器學習邏輯迴歸模型
- 邏輯迴歸:損失函式與梯度下降邏輯迴歸函式梯度
- 機器學習系列文章:引數方法(最大似然、分類)機器學習
- 最大似然函式和最大後驗概率區別函式
- [DataAnalysis]機器學習演算法——線性模型(邏輯迴歸+LDA)機器學習演算法模型邏輯迴歸LDA
- 機器學習不是研究因果邏輯的 - yudapearl機器學習
- 從零開始學習邏輯迴歸邏輯迴歸
- 機器學習-邏輯迴歸:從技術原理到案例實戰機器學習邏輯迴歸