2024 年 8 月に、機械学習集中講座の改良された新しいバージョンがリリースされます。今後の情報にご注目ください。
このモジュールでは、多くの次元を持つ特徴ベクトルで学習したモデルの特別な要件に焦点を当てます。
スパース性の正則化
特徴クロスに戻りましょう
- 注意点: スパースな特徴クロスは特徴空間を大幅に増加させる場合がある
- 考えられる問題:
- モデルサイズ(RAM)が膨大になる可能性がある
- 「ノイズ」係数(過学習の原因)
L1 正則化
- 重みの L0 ノルムにペナルティをかける
- L1 正則化に緩和する:
- abs(weights) の合計にペナルティをかける
- 凸問題
- L2 とは異なるスパース性を促進する