Maschinelles Lernen wäre viel einfacher, wenn alle Verlustkurven beim ersten Training Ihres Modells so aussehen würden:
Abbildung 20: Eine ideale Verlustkurve.
Leider sind Verlustkurven oft schwer zu interpretieren. Nutzen Sie Ihr Bauchgefühl in Bezug auf Verlustkurven, um die Übungen auf dieser Seite zu lösen.
Übung 1: Oszillierende Verlustkurve
Abbildung 21. Oszillierende Verlustkurve.
Was könnten Sie drei Dinge tun, um die in Abbildung 21 dargestellte Verlustkurve zu verbessern?
Reduzieren Sie die Lernrate.
Ja, die Lernrate zu reduzieren, ist oft eine gute Idee, wenn Sie ein Trainingsproblem beheben.
Prüfen Sie Ihre Daten anhand eines Datenschemas, um fehlerhafte Beispiele zu erkennen, und entfernen Sie diese dann aus dem Trainingssatz.
Ja, das ist für alle Modelle empfehlenswert.
Erhöhen Sie die Anzahl der Beispiele im Trainingssatz.
Das ist eine verlockende Idee, aber es ist äußerst unwahrscheinlich, dass das Problem dadurch behoben wird.
Erhöhen Sie die Lernrate.
Steigern Sie die Lernrate im Allgemeinen nicht, wenn die Lernkurve eines Modells auf ein Problem hinweist.
Reduzieren Sie den Trainingssatz auf eine winzige Anzahl vertrauenswürdiger Beispiele.
Auch wenn diese Technik künstlich klingt, ist sie eigentlich eine gute Idee. Angenommen, das Modell konvergiert auf die kleine Gruppe vertrauenswürdiger Beispiele, können Sie nach und nach weitere Beispiele hinzufügen und so herausfinden, welche Beispiele die Verlustkurve zum Oszillieren bringen.
Übung 2 Verlustkurve mit einem scharfen Sprung
Abbildung 22. Starker Anstieg der Verluste.
Welche zwei der folgenden Aussagen nennen mögliche Gründe für den in Abbildung 22 dargestellten explodierenden Verlust?
Die Kalibrierungsrate ist zu hoch.
Eine sehr hohe Regularisierung kann zwar verhindern, dass ein Modell konvergiert, führt aber nicht zu der seltsamen Verlustkurve in Abbildung 22.
Die Lernrate ist zu niedrig.
Eine sehr niedrige Lernrate kann die Trainingszeit verlängern, ist aber nicht die Ursache für die ungewöhnliche Verlustkurve.
Die Eingabedaten enthalten eine Reihe von Ausreißern.
Manchmal enthält ein Batch aufgrund einer unsachgemäßen Zufallsmixung viele Ausreißer.
Die Eingabedaten enthalten mindestens einen NaN-Wert, z. B. einen Wert, der durch eine Division durch Null verursacht wurde.
Das kommt häufiger vor als Sie vielleicht denken.
Übung 3 Testverlust weicht vom Trainingsverlust ab
Abbildung 23. Starker Anstieg der Validierungsverluste.
Welche der folgenden Aussagen beschreibt am besten den Grund für diesen Unterschied zwischen den Verlustkurven der Trainings- und Testsätze?
Die Lernrate ist zu hoch.
Wäre die Lernrate zu hoch, hätte sich die Verlustkurve für den Trainingssatz wahrscheinlich nicht so verhalten.
Das Modell passt sich zu stark an das Trainings-Dataset an.
Ja, das ist wahrscheinlich der Fall. Mögliche Lösungen:
Vereinfachen Sie das Modell, indem Sie gegebenenfalls die Anzahl der Features reduzieren.
Erhöhen Sie die Kalibrierungsrate.
Achten Sie darauf, dass der Trainings- und der Testsatz statistisch äquivalent sind.
Übung 4 Verlustkurve bleibt hängen
Abbildung 24. Chaotischer Verlust nach einer bestimmten Anzahl von Schritten.
Welche der folgenden Aussagen ist die wahrscheinlichste Erklärung für die unregelmäßige Verlustkurve in Abbildung 24?
Die Kalibrierungsrate ist zu hoch.
Das ist unwahrscheinlich.
Der Trainingsdatensatz enthält zu viele Features.
Das ist unwahrscheinlich.
Das Trainingsset enthält sich wiederholende Beispielsequenzen.
Das ist eine Möglichkeit. Achten Sie darauf, dass Sie die Beispiele ausreichend mischen.
[null,null,["Zuletzt aktualisiert: 2024-11-14 (UTC)."],[[["This document helps you understand and interpret Machine Learning loss curves through a series of exercises and visual examples."],["You will learn how to identify common issues like oscillating loss, exploding loss, overfitting, and erratic behavior in your models."],["Solutions are provided for each exercise, along with explanations for various loss curve patterns."],["Techniques to address these issues are discussed, including adjusting learning rate, cleaning training data, and applying regularization."],["A glossary of key Machine Learning terminology related to loss curves and model training is included for quick reference."]]],[]]