Tüm kayıp eğrileriniz modelinizi ilk kez eğittiğinizde aşağıdaki gibi görünseydi makine öğrenimi çok daha basit olurdu:
Maalesef kayıp eğrilerinin yorumlanması genellikle zordur. Bu sayfadaki alıştırmaları çözmek için kayıp eğrileri hakkındaki sezgilerinizi kullanın.
1. Alıştırma: Salınım gösteren kayıp eğrisi
Şekil 21'de gösterilen kayıp eğrisini iyileştirmek için üç şey yapabilirsiniz.
Kötü örnekleri tespit etmek için verilerinizi bir veri şemasıyla karşılaştırın ve ardından kötü örnekleri eğitim veri kümesinden kaldırın.
Evet, bu tüm modeller için iyi bir uygulamadır.
Öğrenme hızını düşürün.
Evet, eğitim sorunuyla ilgili hata ayıklama yaparken genellikle öğrenme hızını azaltmak iyi bir fikirdir.
Eğitim kümesini güvenilir örneklerin çok küçük bir sayısına indirin.
Bu teknik yapay gibi görünse de aslında iyi bir fikirdir. Modelin güvenilir örneklerden oluşan küçük bir grupta birleştiğini varsayarak kademeli olarak daha fazla örnek ekleyebilirsiniz. Böylece, hangi örneklerin kayıp eğrisinin dalgalanmasına neden olduğunu keşfedebilirsiniz.
Eğitim veri kümesindeki örnek sayısını artırın.
Bu cazip bir fikir olsa da sorunu çözme olasılığı çok düşüktür.
Öğrenme hızını artırın.
Genel olarak, bir modelin öğrenme eğrisi bir sorun gösterdiğinde öğrenme hızını artırmaktan kaçının.
2. alıştırma. Keskin bir sıçrama gösteren kayıp eğrisi
Aşağıdaki ifadelerden hangi ikisi, Şekil 22'de gösterilen patlama şeklindeki kaybın olası nedenlerini tanımlar?
Giriş verileri bir veya daha fazla NaN içeriyor (örneğin, sıfıra bölme işleminin neden olduğu bir değer).
Bu durum, sandığınızdan daha sık görülür.
Giriş verileri çok sayıda aykırı değer içeriyor.
Bazen, grupların yanlış karıştırılması nedeniyle bir grupta çok fazla aykırı değer bulunabilir.
Öğrenme hızı çok düşük.
Çok düşük bir öğrenme hızı eğitim süresini uzatabilir ancak bu, garip kayıp eğrisinin nedeni değildir.
Normalleştirme oranı çok yüksek.
Doğru, çok yüksek bir normalleştirme bir modelin birleşmesini önleyebilir; ancak Şekil 22'de gösterilen garip kayıp eğrisine neden olmaz.
3. alıştırma. Test kaybı, eğitim kaybından farklı
Aşağıdaki ifadelerden hangisi, eğitim ve test veri kümelerinin kayıp eğrileri arasındaki bu farkın nedenini en iyi şekilde tanımlar?
Model, eğitim veri kümesine fazla uyum sağlıyor.
Evet, muhtemelen. Olası çözümler:
- Modeli daha basit hale getirin (ör. özellik sayısını azaltarak).
- Normalleştirme oranını artırın.
- Eğitim veri kümesinin ve test veri kümesinin istatistiksel olarak eşdeğer olduğundan emin olun.
Öğrenme hızı çok yüksek.
Öğrenme hızı çok yüksek olsaydı eğitim veri kümesinin kayıp eğrisi muhtemelen bu şekilde davranmazdı.
4. alıştırma. Kayıp eğrisi takılıyor
Şekil 24'te gösterilen düzensiz kayıp eğrisinin en olası açıklaması aşağıdaki ifadelerden hangisi?
Eğitim kümesi, tekrarlanan örnek dizileri içeriyor.
Bu bir olasılıktır. Örnekleri yeterince karıştırdığınızdan emin olun.
Normalleştirme oranı çok yüksek.
Bunun nedeni olma olasılığı düşüktür.
Eğitim veri kümesi çok fazla özellik içeriyor.
Bunun nedeni olma olasılığı düşüktür.