Zusammenfassung

Hier ist eine kurze Zusammenfassung der Inhalte, die Sie im Kurs gelernt haben:

  • Ein Entscheidungsbaum ist ein Modell, aus einer Sammlung von Bedingungen organisiert in Form eines Baums angelegt. Die Bedingungen lassen sich Kategorien:
  • Das Training eines Entscheidungsbaums beinhaltet die Suche nach der für jeden Knoten. Der Splitter-Ablauf verwendet Metriken wie Informationen oder Gini ermittelt, welches die beste .
  • Ein Entscheidungswald ist aus mehreren Entscheidungsbäumen. Vorhersage eines Entscheidungswalds ist die Aggregation der Vorhersagen seiner Entscheidungsbäume.
  • Ein Random Forest ist ein Gruppe von Entscheidungsbäumen, in denen jeder Entscheidungsbaum mit einem zufälliges Rauschen.
  • Bagging ist eine Technik, bei der Jeder Entscheidungsbaum in der Random Forests wird mit einer anderen Teilmenge trainiert. an Beispielen.
  • Für Random-Gesamtstrukturen ist kein Validierungs-Dataset erforderlich. Stattdessen werden die meisten nutzen Wälder eine Technik namens out-of-bag-evaluation um die Qualität des Modells zu bewerten.
  • Ein Gradienten-Booster (Entscheidung) Baum ist eine Art Entscheidungswald, der durch iterative Anpassungen aus Eingaben trainiert wird Entscheidungsbäume. Ein Wert mit dem Namen shrinkage steuert die Geschwindigkeit, den ein Baum mit Gradient-Boosting (Entscheidungsfindung) lernt, und in welchem Ausmaß überpassen.

 

Verweise