Entscheidungsbäume bieten folgende Vorteile:
- Sie sind einfacher zu konfigurieren als neuronale Netze. Entscheidungsforste haben weniger Hyperparameter. Außerdem bieten die Hyperparameter in Entscheidungsforsten gute Standardwerte.
- Sie unterstützen nativ numerische, kategorische und fehlende Features. Das bedeutet, dass Sie viel weniger Code für die Vorverarbeitung schreiben müssen als bei der Verwendung eines neuronalen Netzes. So sparen Sie Zeit und reduzieren Fehlerquellen.
- Sie liefern oft direkt gute Ergebnisse, sind robust gegenüber fehlerhaften Daten und haben auswertbare Eigenschaften.
- Sie können mit kleinen Datasets (< 1 Million Beispiele) viel schneller als neuronale Netze inferieren und trainiert werden.
Entscheidungsforste erzielen bei Wettbewerben im Bereich maschinelles Lernen hervorragende Ergebnisse und werden in vielen industriellen Aufgaben häufig eingesetzt.
In diesem Kurs werden Entscheidungsbäume und Entscheidungswälder vorgestellt. Entscheidungsbäume sind eine Familie von interpretierbaren Algorithmen für maschinelles Lernen, die sich besonders für tabellarische Daten eignen. Entscheidungsforste können Folgendes tun:
Vorbereitung
Für diesen Kurs wird davon ausgegangen, dass Sie die folgenden Kurse abgeschlossen oder entsprechendes Wissen haben:
- Crashkurs „Maschinelles Lernen“
- Problembeschreibung für maschinelles Lernen
- Datenvorbereitung und Feature Engineering
Viel Spaß beim Lernen!