反向傳播演算法
反向傳播演算法對於訓練大型類神經網路至關重要。本文將說明演算法的運作方式。
請向下捲動...
簡單的類神經網路
畫面右側顯示一個類神經網路,其中包含一個輸入項目、一個輸出節點,以及兩個隱藏層 (每個節點為兩個節點)。
鄰近圖層中的節點會與網路參數 (權重) 相互連結 wij。
激勵函式
每個節點都有輸入總數 x、啟動函式 f(x)和輸出結果。 y=f(x)f(x) 必須是非線性函式,否則類神經網路只能學習線性模型。
常用的啟動函式為 Sigmoid 函式: f(x)=11+e−x。
錯誤函式
其目標是自動根據資料學習網路的權重,讓預測的輸出 youtputytarget 更接近目標輸入的 xinput。
為評估離目標有多遠,我們會使用錯誤函式 E。常用的錯誤函式為 E(youtput,ytarget)=12(youtput−ytarget)2。
轉送傳播
我們先使用輸入範例 (xinput,ytarget) 並更新網路的輸入層。
為保持一致性,我們會將輸入視為任何其他節點,但未啟用啟動函式。因此,輸出內容等同於輸入的內容,例如 y1=xinput。
轉送傳播
現在,我們要更新第一個隱藏層。我們會使用前一個圖層中的節點 y ,並使用權重計算下一個圖層中的節點輸入 x 。
轉送傳播
接著,我們會更新第一個隱藏層中的節點輸出內容。為此,我們使用啟用函式 f(x)。
轉送傳播
透過這 2 個公式,我們會傳播到其餘網路,並取得網路的最終輸出內容。
衍生錯誤
反向傳播演算法在將預測輸出內容與特定範例的輸出結果進行比較後,決定了每個網路權重的更新頻率。因此,我們需要計算每個權重之間的錯誤變化。 dEdwij
取得衍生錯誤後,我們可以使用簡單的更新規則來更新權重:
其中 α 為正常數,稱為學習率,因此我們必須進行微調。
[注意事項] 更新規則非常簡單:如果權重隨著權重增加 (dEdwij<0) 減少,請增加權重,否則如果權重增加時錯誤增加 (dEdwij>0),請降低權重。
其他衍生項目
為協助進行運算 dEdwij,我們還為每個節點額外儲存兩個衍生變數: 錯誤的變化方式:
- 節點的輸入總數 dEdx
- 節點 dEdy的輸出內容。
背傳播
讓我們開始回溯錯誤錯誤衍生工具。
由於我們有這個特定輸入範例的預測輸出內容,因此可以計算錯誤隨著該輸出內容的變化情形。
基於我們的錯誤函式 E=12(youtput−ytarget)2 ,我們擁有:
背傳播
現在,我們可以 dEdy 使用 dEdx 鏈結。
其中 ddxf(x)=f(x)(1−f(x)) 是 f(x) 為 Sigmoid 啟用函式時。
背傳播
一旦我們取得關於節點總輸入的錯誤衍生錯誤,就可以取得該節點的權重衍生錯誤。
背傳播
使用鏈規則,也可以從上一個圖層取得 dEdy 。我們已建立完整圓圈。
背傳播
我們要做的,請重複先前的三個公式,直到計算出所有錯誤衍生工具。