閱讀339 返回首頁    go 阿裏雲 go 技術社區[雲棲]


深度學習網絡大殺器之Dropout——深入解析Dropout

首發地址:https://yq.aliyun.com/articles/68901


更多深度文章,請關注雲計算頻道:https://yq.aliyun.com/cloud


過擬合深度神經網DNN)中的一個常見問題:模型隻學會訓練集這些年提出的許多擬合問題解決方案;其中dropout並取得良好的結果

7e31586d15d887ae0901452e2e1b1c6cb94f882e

上圖為Dropout表示,左邊是應用Dropout之前的網絡,右邊是應用了Dropout的同一個網絡。

Dropout的思想是訓DNN,而不是訓練單個DNNDNNs以概率P神經元其它神經元以概率q=1-p舍去的神經元的輸出都被設置為零。

引述

在標準神經網絡中,每個參數的導數告訴應該如何改變,以致損失函數最後被減少因此神經元可以通過這種方式修正其他單的錯誤。但這可能導致複雜的協調,反過來導致過擬合,因為這些協調沒有推廣到未知數據。Dropout通過使其他隱藏單元存在不可靠來防止共擬合。

簡而言之:Dropout在實踐很好工作因為在訓階段阻止神經元的共適應。

Dropout

Dropout

假設:

h(x)=xW+bdixdh維輸出空間上的線性投影;

a(h)是

在訓練階段中,將假設的投影作為修改的激活函數:

650f8f00ffeb3ef346a61ee248670abe173c4acb

其中D=(X1,...,Xdh)dhXi伯努利隨機變量具有以下概率質量分布:

32363b313f65d3bf4231c5c57eace39d6fb7cb2c

k

Dropouti

8899c12575bca1550dfd8127fd7eb0a2912a8f2a

其中P(Xi=0)=p

q

q

訓練階段fdb59b52bfa583cf08eaf7980e26e8fad453d148

測試階段d6a2b220ee68540890eaf0dc537188c738600fb7

Inverted Dropout

dropout

Dropout的比例因子為223ab9380c566fb9a74ff8a0a127e1174593bdf8,因此:

訓練階段:6ebd718f4256f50134f7428bc5df4d3cc9ddceae

測試階段6ccbf2b63a56155b6403093e8771952bb3e3515b

Inverted Dropout過程

Dropout

nhnp

h

f580cf9006a568171c48ac7ec10f1d8997bf7d81

因為每一個神經元建模為伯努利隨機變量,且所有這些隨機變量是獨立同分布的,舍去神經元的總數也是隨機變量,稱為二項式:

023627f0453afe34e4bebb9ee10dfb7678d87989

nk由概率質量分布給出:

55460b3bb5d23fc5fbc732366679150a56a67fec

當使用dropout,定義了一個固定的舍去概率p對於選定的層,成比例數量的神經元被舍棄

3be3ad14ec1d82ebafe981d1d3fc40ef6132e020

圖可以看出,無論p是多少舍去的平均神經元數量均衡為np

933a160e2ead33c8ea51c1c7d41a69d3bb369eda

此外可以注意到,p = 0.5附近的分布對稱。

Dropout

Dropout通常使用L2以及其他參數約束技術有助於保持較小的模型參數

L2附加項,其中λ是一種超參數F(W;x)是模型εy和預測值y^誤差函數。

e596c69e772f833df283a96e806dde994d8b979d

通過梯度下降進行反向傳播,減少了更新量。

a762ce896975e697de82661ee4e69a11f6e92fad

Inverted Dropout

Dropout壓製L2起到作用

明確縮放因子上述等式變為:

337e71fd721fded5b9298cad73ba6c3310057d6c

可以看出使用Inverted Dropout,學習率是由因子q q[0,1]q變化:

71cf583c223c9f4e2d7a3021640ae747b9f5dacd

q推動因素r(q)有效的學習速率

有效學習速率相對於所選的學習速率而言更高:基於此約束參數值的規化可以幫助簡化學習速率選擇過程。

Dropout存在兩個版本:直接(不常用)和反轉

dropout可以使用伯努利隨機變量建模

np的概率是低np神經元被舍棄

Inverted Dropout提高學習率

Inverted Dropout應該與限製參數值的其他歸一化技術一起使用,以便簡化學習速率選擇過程

Dropout有助於防止深層神經網絡中的過度擬合


作者介紹:Paolo Galeone


bafcc5518a0f203dc66a08af1dd9a6ce1e386173


Bloghttps://pgaleone.eu/

Linkedinhttps://it.linkedin.com/in/paolo-galeone-6782b311b

Twitterhttps://twitter.com/paolo_galeone


本文由北郵@愛可可-愛生活 老師推薦,阿裏雲雲棲社區組織翻譯。

Analysis of DropoutPaolo Galeone

最後更新:2017-07-12 22:10:00

  上一篇:go  7月12日雲棲精選夜讀:遊戲行業DDoS 6年談 什麼樣的架構才可以對DDoS免疫?
  下一篇:go  沒有任何公式——直觀的理解變分自動編碼器VAE