Hier ist eine kurze Zusammenfassung der Inhalte, die Sie im Kurs gelernt haben:
- Ein Entscheidungsbaum ist ein Modell,
aus einer Sammlung von
Bedingungen organisiert
in Form eines Baums angelegt. Die Bedingungen lassen sich
Kategorien:
- Eine achsenorientierte Ausrichtung auf ein einziges Merkmal. Ein Schrägstrich umfasst mehrere Funktionen.
- Ein Binärprogramm Bedingung zwei mögliche Ergebnisse. Ein nicht binär Bedingung enthält mehr als zwei mögliche Ergebnisse.
- Das Training eines Entscheidungsbaums beinhaltet die Suche nach der für jeden Knoten. Der Splitter-Ablauf verwendet Metriken wie Informationen oder Gini ermittelt, welches die beste .
- Ein Entscheidungswald ist aus mehreren Entscheidungsbäumen. Vorhersage eines Entscheidungswalds ist die Aggregation der Vorhersagen seiner Entscheidungsbäume.
- Ein Random Forest ist ein Gruppe von Entscheidungsbäumen, in denen jeder Entscheidungsbaum mit einem zufälliges Rauschen.
- Bagging ist eine Technik, bei der Jeder Entscheidungsbaum in der Random Forests wird mit einer anderen Teilmenge trainiert. an Beispielen.
- Für Random-Gesamtstrukturen ist kein Validierungs-Dataset erforderlich. Stattdessen werden die meisten nutzen Wälder eine Technik namens out-of-bag-evaluation um die Qualität des Modells zu bewerten.
- Ein Gradienten-Booster (Entscheidung) Baum ist eine Art Entscheidungswald, der durch iterative Anpassungen aus Eingaben trainiert wird Entscheidungsbäume. Ein Wert mit dem Namen shrinkage steuert die Geschwindigkeit, den ein Baum mit Gradient-Boosting (Entscheidungsfindung) lernt, und in welchem Ausmaß überpassen.
Verweise
- Greedy Functions-Approximation: A Gradient Boosting Maschine, J. Friedman.
- Die Elemente der Statistik Lernen, Trevor Hastie. Kapitel 10.
- Generalisierte Boosted-Modelle: Eine Anleitung für das GBM Paket, G) Ridgeway