Einführung

Entscheidungsbäume bieten folgende Vorteile:

  • Sie sind einfacher zu konfigurieren als neuronale Netze. Entscheidungsforste haben weniger Hyperparameter. Außerdem bieten die Hyperparameter in Entscheidungsforsten gute Standardwerte.
  • Sie unterstützen nativ numerische, kategorische und fehlende Features. Das bedeutet, dass Sie viel weniger Code für die Vorverarbeitung schreiben müssen als bei der Verwendung eines neuronalen Netzes. So sparen Sie Zeit und reduzieren Fehlerquellen.
  • Sie liefern oft direkt gute Ergebnisse, sind robust gegenüber fehlerhaften Daten und haben auswertbare Eigenschaften.
  • Sie können mit kleinen Datasets (< 1 Million Beispiele) viel schneller als neuronale Netze inferieren und trainiert werden.

Entscheidungsforste erzielen bei Wettbewerben im Bereich maschinelles Lernen hervorragende Ergebnisse und werden in vielen industriellen Aufgaben häufig eingesetzt.

In diesem Kurs werden Entscheidungsbäume und Entscheidungswälder vorgestellt. Entscheidungsbäume sind eine Familie von interpretierbaren Algorithmen für maschinelles Lernen, die sich besonders für tabellarische Daten eignen. Entscheidungsforste können Folgendes tun:

YDF-Code
In diesem Kurs wird die Funktionsweise von Entscheidungsbäumen erläutert, ohne sich auf bestimmte Bibliotheken zu konzentrieren. In den Textfeldern werden jedoch Codebeispiele gezeigt, die auf der Entscheidungsbaumbibliothek YDF basieren, aber in andere Entscheidungsbaumbibliotheken umgewandelt werden können.

Vorbereitung

Für diesen Kurs wird davon ausgegangen, dass Sie die folgenden Kurse abgeschlossen oder entsprechendes Wissen haben:

Viel Spaß beim Lernen!