上一個單元導入了下列模型,但這些模型有許多歸類錯誤 測試集中的樹狀圖:
上述模型包含許多複雜的形狀,是不是 更妥善地處理新資料?假設您要將複雜的模型替換為 另一個非常簡單的直線模型
相較於新資料的複雜模型,簡易模型進行一般化作業的效果較佳。也就是說 但簡單模型對測試集的預測表現比複雜模型好。
一直以來,《化繁為簡》已證明瞭複雜度。事實上, 偏好簡單可追溯回古希臘。數世紀後 一隻名叫 William of Occam 的 14 世紀聖地,故意將偏好視為惡意的偏好 「容易」的哲學,名為詐騙者 刮鬍刀。哲學 仍是許多科學的基本原則,包括 機器學習
練習:隨堂測驗
您正在發展物理方程式,以下哪一個公式?
更符合小歐的剃刀?
包含三個變數的公式。
3 個變數比 12 個變數更適合防密碼。
含 12 個變數的公式。
12 個變數看起來太過複雜,對吧?
目前有兩個史上最著名的物理公式 (F=ma 和
E=mc2),每個變數僅包含三個變數。
您正在建立全新的機器學習專案,即將選取
最先推出的功能請問你該選擇多少功能?
選擇 1 到 3 個似乎預測能力強大的功能。
最適合的資料收集管道最好從一個
兩項功能這有助於確認機器學習模型的運作方式符合預期。
此外,如果您根據幾項功能建立基準
您會覺得自己已經很順利了!
選擇 4 到 6 個似乎具有強大預測能力的功能。
您最終可能會用到這些功能,但還是建議您
先用越少越好功能減少通常表示非必要
使用小工具
請盡量選擇所有功能,以便開始觀察
特徵的預測能力最強
先從小一點開始。每項新功能都會在訓練中納入新維度
當維度增加時,空間的數量
急速增加,導致可用的訓練資料變得稀疏。
這麼一來,模型就會更難瞭解
比較重要特徵與標籤之間的差異這段現象
稱為「維度曲線」
正規化
機器學習模型必須同時達成兩個相互衝突的目標:
- 妥善調整資料
- 盡量輕鬆調整資料內容。
維持簡單模型的其中一種方法是懲罰複雜的模型;也就是 強制模型在訓練期間變得更簡單監獄主義者的建築群 是其中一種正則化形式。
損失與複雜性
到目前為止,本課程建議只達成 將損失降到最低也就是:
$$\text{minimize(loss)}$$
如您所見,僅著重在盡可能減少損失的模型往往過度配適。 更完善的訓練最佳化演算法可將部分組合的 損失和複雜度:
$$\text{minimize(loss + complexity)}$$
遺憾的是,損失和複雜度通常具有反向關聯。阿斯 複雜性增加,損失下降隨著複雜度下降,損失就會增加。 您應該找到模型的合理中間地面 根據訓練資料和實際資料做出預測 也就是說,您的模型應在合理的範圍內 降低損失和複雜度
甚麼是複雜性?
您已經看過幾種量化損失的方法。你會怎麼做 量化複雜度?透過下列練習開始探索: