Regresyon problemlerinde, işaretli hatayı tahmin ile etiket arasındaki fark olarak tanımlamak mantıklıdır. Ancak diğer sorun türlerinde bu strateji genellikle kötü sonuçlara yol açar. Gradyan artırmada kullanılan daha iyi bir strateji şudur:
- Sinir ağlarında kullanılan kayıp işlevlerine benzer bir kayıp işlevi tanımlayın. Örneğin, sınıflandırma problemi için entropi (log kaybı olarak da bilinir).
- Zayıf modeli, güçlü model çıktısına göre kaybın gradyanını tahmin edecek şekilde eğitin.
Resmi olarak, etiket ve tahmin olan bir kayıp işlevi verildiğinde, adımında zayıf modeli eğitmek için kullanılan sözde yanıt şu şekildedir:
Bu örnekte:
- , güçlü modelin tahminidir.
Önceki örnek bir regresyon problemidir: Hedef, sayısal bir değeri tahmin etmektir. Regresyon söz konusu olduğunda, karesi alınmış hata yaygın bir kayıp işlevidir:
Bu durumda gradyan:
Başka bir deyişle, gradyan, örneğimizdeki 2 faktörlü işaretli hatadır. Küçülme nedeniyle sabit faktörlerin önemli olmadığını unutmayın. Bu eşdeğerliğin yalnızca kareli hata kaybı olan regresyon problemleri için geçerli olduğunu unutmayın. Diğer gözetimli öğrenme sorunları (ör. sınıflandırma, sıralama, yüzdelik kayıp içeren regresyon) için gradyan ile imzalı hata arasında eşdeğerlik yoktur.
Newton yöntemi adımı ile yaprak ve yapı optimizasyonu
Newton yöntemi, gradyan azalma gibi bir optimizasyon yöntemidir. Ancak, optimize etmek için yalnızca fonksiyonun gradyanını kullanan gradyan azalma yönteminin aksine Newton yöntemi, optimizasyon için hem gradyanı (ilk türev) hem de fonksiyonun ikinci türevini kullanır.
Gradyan azalma adımı aşağıdaki gibidir:
ve Newton'un yöntemi aşağıdaki gibidir:
Newton'un yöntemi, isteğe bağlı olarak gradyan güçlendirilmiş ağaçların eğitimine iki şekilde entegre edilebilir:
- Bir ağaç eğitildikten sonra her yaprağa Newton adımı uygulanır ve yaprağın değeri geçersiz kılınır. Ağaç yapısına dokunulmaz; yalnızca son değer değişir.
- Ağacın büyümesi sırasında koşullar, Newton formülünün bir bileşenini içeren bir puana göre seçilir. Ağacın yapısı etkilenir.
- YDF her zaman yaprak üzerinde bir Newton adımı uygular (1. seçenek).
use_hessian_gain=True
ile 2. seçeneği etkinleştirebilirsiniz.