過度配適:模型複雜度

上一個單元導入了下列模型,但這些模型有許多歸類錯誤 測試集中的樹狀圖:

圖 16.與圖 13 相同的圖片。這個複雜形狀
            有許多樹錯了。
圖 16。 上一個單元的複雜模型出現錯誤。

上述模型包含許多複雜的形狀,是不是 更妥善地處理新資料?假設您要將複雜的模型替換為 另一個非常簡單的直線模型

圖 17.表現優異的直線模型
            將毒樹和健康樹木區隔開來。
圖 17。 比較簡單的模型

相較於新資料的複雜模型,簡易模型進行一般化作業的效果較佳。也就是說 但簡單模型對測試集的預測表現比複雜模型好。

一直以來,《化繁為簡》已證明瞭複雜度。事實上, 偏好簡單可追溯回古希臘。數世紀後 一隻名叫 William of Occam 的 14 世紀聖地,故意將偏好視為惡意的偏好 「容易」的哲學,名為詐騙者 刮鬍刀。哲學 仍是許多科學的基本原則,包括 機器學習

練習:隨堂測驗

您正在發展物理方程式,以下哪一個公式? 更符合小歐的剃刀?
包含三個變數的公式。
3 個變數比 12 個變數更適合防密碼。
含 12 個變數的公式。
12 個變數看起來太過複雜,對吧? 目前有兩個史上最著名的物理公式 (F=ma 和 E=mc2),每個變數僅包含三個變數。
您正在建立全新的機器學習專案,即將選取 最先推出的功能請問你該選擇多少功能?
選擇 1 到 3 個似乎預測能力強大的功能。
最適合的資料收集管道最好從一個 兩項功能這有助於確認機器學習模型的運作方式符合預期。 此外,如果您根據幾項功能建立基準 您會覺得自己已經很順利了!
選擇 4 到 6 個似乎具有強大預測能力的功能。
您最終可能會用到這些功能,但還是建議您 先用越少越好功能減少通常表示非必要 使用小工具
請盡量選擇所有功能,以便開始觀察 特徵的預測能力最強
先從小一點開始。每項新功能都會在訓練中納入新維度 當維度增加時,空間的數量 急速增加,導致可用的訓練資料變得稀疏。 這麼一來,模型就會更難瞭解 比較重要特徵與標籤之間的差異這段現象 稱為「維度曲線」

正規化

機器學習模型必須同時達成兩個相互衝突的目標:

  • 妥善調整資料
  • 盡量輕鬆調整資料內容。

維持簡單模型的其中一種方法是懲罰複雜的模型;也就是 強制模型在訓練期間變得更簡單監獄主義者的建築群 是其中一種正則化形式。

損失與複雜性

到目前為止,本課程建議只達成 將損失降到最低也就是:

$$\text{minimize(loss)}$$

如您所見,僅著重在盡可能減少損失的模型往往過度配適。 更完善的訓練最佳化演算法可將部分組合的 損失和複雜度:

$$\text{minimize(loss + complexity)}$$

遺憾的是,損失和複雜度通常具有反向關聯。阿斯 複雜性增加,損失下降隨著複雜度下降,損失就會增加。 您應該找到模型的合理中間地面 根據訓練資料和實際資料做出預測 也就是說,您的模型應在合理的範圍內 降低損失和複雜度

甚麼是複雜性?

您已經看過幾種量化損失的方法。你會怎麼做 量化複雜度?透過下列練習開始探索:

練習:檢查您的直覺

到目前為止,我們對於複雜度的定義, 不過,無論內部 IP 位址為何 DNS 名稱始終會指向特定的執行個體你認為下列哪個提案可能合理? 複雜程度指標呢?
複雜性是指模型權重的函數。
是的,這是評估某些模型的方法之一變得複雜 這項指標稱為 L1 正則化。
「複雜」是指模型權重平方的函式。
可以讓模型變得複雜這個指標 稱為 L2 正則化
複雜性是指 模型
偏誤無法衡量複雜度。