Entscheidungsbäume

Entscheidungswaldmodelle bestehen aus Entscheidungsbäumen. Entscheidungsstruktur Algorithmen (wie Random Forests) nutzen zumindest teilweise von Entscheidungsbäumen lernen.

In diesem Abschnitt des Kurses untersuchen Sie ein kleines Beispiel-Dataset wie ein einzelner Entscheidungsbaum trainiert wird. In den nächsten Abschnitten erfahren Sie, Entscheidungsbäume werden kombiniert, um Entscheidungswälder zu trainieren.

YDF-Code

Verwenden Sie in YDF den CART-Learner, um einzelne Entscheidungsbaummodelle zu trainieren:

# https://ydf.readthedocs.io/en/latest/py_api/CartLearner
import ydf
model = ydf.CartLearner(label="my_label").train(dataset)

Das Modell

Ein Entscheidungsbaum ist ein Modell, das aus einer Sammlung von „Fragen“ besteht. organisiert in Form eines Baums angelegt. Die Fragen werden in der Regel condition, split oder test. Wir verwenden den Begriff „Zustand“, in diesem Kurs. Jeder Nicht-Blattknoten enthält eine Bedingung und jeder Blattknoten enthält eine Vorhersage treffen.

Bei botanischen Bäumen wachsen die Wurzeln in der Regel unten. Die Entscheidung Bäume werden normalerweise durch den Stamm (der erste Knoten) oben dargestellt.

Ein Entscheidungsbaum mit zwei Bedingungen und drei Blättern. Die erste
Bedingung (die Wurzel) ist num_legs >= 3; ist die zweite Bedingung:
Augenanzahl >= 3. Die drei Blätter sind Pinguin, Spinne,
und Hund.

<ph type="x-smartling-placeholder"></ph> Abbildung 1: Ein einfacher Entscheidungsbaum zur Klassifizierung. Die grüne Legende ist kein Teil des Entscheidungsbaums.

 

Die Inferenz eines Entscheidungsbaummodells wird durch Routing eines Beispiels aus dem der Wurzel (oben) zu einem der Blattknoten (unten) gemäß dem . Der Wert des erreichten Blattes ist die Vorhersage des Entscheidungsbaums. Die Gruppe der besuchten Knoten wird als Inferenzpfad bezeichnet. Beispiel: sollten Sie sich die folgenden Featurewerte vorstellen:

num_legs num_eyes
4 2

Die Vorhersage wäre dog. Der Inferenzpfad wäre:

  1. num_legs ≥ 3 → Ja
  2. num_Augen ≥ 3 → Nein

Dieselbe Abbildung wie in Abbildung 1, aber diese Abbildung zeigt den
  Inferenzpfad für zwei Bedingungen, der im Blatt für Hunde endet.

<ph type="x-smartling-placeholder"></ph> Abbildung 2: Der Inferenzpfad, der im Beispiel im Blatt *Hund* gipfelt *{num_legs : 4, num_eyes : 2}*.

 

Im vorherigen Beispiel enthalten die Blätter des Entscheidungsbaums Klassifizierungen. Vorhersagen d. h., jedes Blatt enthält eine Tierart aus einer Reihe möglicher Arten gibt.

Ähnlich können Entscheidungsbäume numerische Werte vorhersagen, indem sie Blätter mit regressive Vorhersagen (numerische Werte) Die folgende Entscheidung sagt einen numerischen Niedlichkeitswert eines Tiers zwischen 0 und 10 voraus.

Entscheidungsbaum, in dem jedes Blatt einen anderen Gleitkommawert enthält
  Nummer.

<ph type="x-smartling-placeholder"></ph> Abbildung 3: Ein Entscheidungsbaum, der numerische Vorhersagen trifft.