閱讀628 返回首頁    go 技術社區[雲棲]


機器學習----線性回歸模型

一,線性模型描述
image

簡單線性回歸如:
y= ax+b
image
對於多變量的情形
image
通常,通過機器學習訓練模型計算的值和真實值可能存在一定的誤差:
image
image
因此,我們使用最大似然估計就可以得到損失函數:
image
利用高斯的對數似然化簡:
image
致此,我們就得到了損失函數。
通常,我們想要使我們的目標函數值最小,這樣我們模型預測的值就更加精確。
二,梯度下降和最小二乘法
1.最小二乘法:
在目標函數的導數為零的點為極值點,
image
得到:
image
2.梯度下降:
梯度下降又分為批量梯度下降和隨機梯度下降,二者的區別在於,批量梯度下降是對全樣本量的迭代,而隨機梯度下降是單個樣本下降迭代。
image

三,線性回歸過擬合和正則項
在我們的模型訓練過程中,可能存在在模型訓練時產生的效果很好,但在應用中可能得不到我們想法的效果,可能存在模型過擬合的情況,為了避免過擬合的發生,我們在目標函數中添加一個正則項。
通常,我們有多種擬合方式,以下列舉3種,
image
image

第三種則集中了前兩者的優點。

參考:
劉建平Pinard:https://www.cnblogs.com/pinard/p/6004041.html
鄒博:機器學習PPT

最後更新:2017-08-30 12:02:48

  上一篇:go  【獨家】中國無人駕駛新晉黑馬:極客十年終創業,訊飛基金重磅天使
  下一篇:go  Library Cache優化與SQL遊標