Basitlik için Normalleştirme: Lambda

Model geliştiricileri, normalleştirme teriminin değerini lambda (normalleştirme oranı olarak da adlandırılır) olarak bilinen skaler ile çarparak terimin genel etkisini ayarlar. Diğer bir deyişle, model geliştiricileri aşağıdakileri yapmayı amaçlar:

$$\text{minimize(Loss(Data|Model)} + \lambda \text{ complexity(Model))}$$

L2 normalleştirmesi gerçekleştirmek model üzerinde aşağıdaki etkiye sahiptir

  • Ağırlık değerlerini 0'a doğru (tam olarak 0'a doğru değil) teşvik eder
  • Normal (çan şeklinde veya Gauss) dağılımla ağırlıkların ortalamasını 0'a doğru teşvik eder.

Lambda değerinin artırılması normalleştirme etkisini güçlendirir. Örneğin, yüksek bir lambda değerine ait ağırlık histogramı Şekil 2'de gösterildiği gibi görünebilir.

Ortalaması sıfır ve normal dağılım olmak üzere bir modelin ağırlıklarıyla ilgili histogram.

Şekil 2. Ağırlık histogramı.

Lambda değerinin azaltılması, Şekil 3'te gösterildiği gibi daha düz bir histogram elde etme eğilimindedir.

Ortalaması sıfır olan bir modelin ağırlıklarına ilişkin, düz dağılım ile normal dağılım arasında bir yerde olan histogram.

3. Şekil. Daha düşük bir lambda değeri tarafından üretilen ağırlıkların histogramı.

Lambda değeri seçerken amaç, basitlik ile eğitim-veri uyumu arasında doğru dengeyi kurmaktır:

  • Lambda değeriniz çok yüksekse modeliniz basit olacaktır ancak verilerinizin yetersiz uyum sağlama riskiyle karşı karşıya kalırsınız. Modeliniz, faydalı tahminlerde bulunmak için eğitim verileri hakkında yeterince bilgi edinemez.

  • Lambda değeriniz çok düşükse modeliniz daha karmaşık hale gelir ve verilerinizi fazladan sığdırma riskiyle karşı karşıya kalırsınız. Modeliniz, eğitim verilerinin kendine özgü özellikleri hakkında çok fazla bilgi edinecek ve yeni verilere genelleştirilemez.

Lambda'nın ideal değeri, yeni, daha önce görülmemiş verilere geneller oluşturan bir model üretir. Maalesef bu ideal lambda değeri veriye bağlıdır. Bu yüzden manuel veya otomatik olarak bazı ayarları yapılıyor.