628
技術社區[雲棲]
機器學習----線性回歸模型
簡單線性回歸如:
y= ax+b
對於多變量的情形
通常,通過機器學習訓練模型計算的值和真實值可能存在一定的誤差:
因此,我們使用最大似然估計就可以得到損失函數:
利用高斯的對數似然化簡:
致此,我們就得到了損失函數。
通常,我們想要使我們的目標函數值最小,這樣我們模型預測的值就更加精確。
二,梯度下降和最小二乘法
1.最小二乘法:
在目標函數的導數為零的點為極值點,
得到:
2.梯度下降:
梯度下降又分為批量梯度下降和隨機梯度下降,二者的區別在於,批量梯度下降是對全樣本量的迭代,而隨機梯度下降是單個樣本下降迭代。
三,線性回歸過擬合和正則項
在我們的模型訓練過程中,可能存在在模型訓練時產生的效果很好,但在應用中可能得不到我們想法的效果,可能存在模型過擬合的情況,為了避免過擬合的發生,我們在目標函數中添加一個正則項。
通常,我們有多種擬合方式,以下列舉3種,
第三種則集中了前兩者的優點。
參考:
劉建平Pinard:https://www.cnblogs.com/pinard/p/6004041.html
鄒博:機器學習PPT
最後更新:2017-08-30 12:02:48