Diagram Illustration

Inhalt

Sie müssen eine Entscheidung treffen und möchten die verschiedenen Optionen, die Ihnen zur Verfügung stehen, auf übersichtliche Art und Weise darstellen? Dann ist ein Entscheidungsbaum genau das Richtige für Sie. Im Nachfolgenden verraten wir Ihnen alles, was Sie zum Thema Entscheidungsbäume wissen müssen, darunter Definitionen, Anwendungsfälle und Anleitungen zum Erstellen Ihrer eigenen Entscheidungsbäume.

Was ist ein Entscheidungsbaum?

Ein Entscheidungsbaum ist eine grafische Darstellung der möglichen Ergebnisse bzw. Auswirkungen einer Reihe zusammenhängender Entscheidungen. Entscheidungsbäume ermöglichen es Unternehmen oder Einzelpersonen, verschiedene Lösungsansätze und Entscheidungsmöglichkeiten im Hinblick auf Kosten, Wahrscheinlichkeit und Vorteile miteinander zu vergleichen. Sie können als Ausgangspunkt für informelle Diskussionen oder zum Entwickeln eines mathematischen Algorithmus zum Vorhersagen der besten Option verwendet werden.

Ein Entscheidungsbaum beginnt in der Regel mit einem einzelnen Knoten, vom dem Verzweigungen ausgehen, welche die jeweiligen Auswirkungen bzw. Ergebnisse der betreffenden Entscheidung darstellen. Jedes Ergebnis ist mit weiteren Knoten verbunden, die wiederum weitere mögliche Auswirkungen nach sich ziehen. So entsteht eine baumartige Form.

Es gibt drei verschiedene Arten von Knoten: Zufallsknoten, Entscheidungsknoten und Endknoten. Ein Zufallsknoten wird als Kreis dargestellt und zeigt, wie wahrscheinlich bestimmte Ergebnisse bzw. Auswirkungen sind. Ein Entscheidungsknoten wird in Form eines Quadrats dargestellt und repräsentiert eine zu treffende Entscheidung, während ein Endknoten das Endergebnis einer Reihe aufeinanderfolgender Entscheidungen zeigt.

Entscheidungsbaum

Entscheidungsbäume können auch mit Flussdiagramm-Symbolen gezeichnet werden, was oft als leserfreundlicher und leichter verständlich empfunden wird.

Entscheidungsbaum-Symbole

Form Name Bedeutung
Entscheidungsknoten Entscheidungsknoten Repräsentiert eine zu treffende Entscheidung
Zufallsknoten – Entscheidungsbaum Zufallsknoten Repräsentiert mehrere ungewisse Ergebnisse
Alternative Verzweigungen Jede Verzweigung steht für ein mögliches Ergebnis oder eine mögliche Maßnahme
Abgelehnte Alternative Repräsentiert eine Option, die nicht gewählt wurde
Endknoten – Entscheidungsbaum Endknoten Repräsentiert ein Endergebnis

So zeichnet man einen Entscheidungsbaum

Legen Sie zunächst fest, wie Sie Ihren Entscheidungsbaum erstellen wollen. Sie können das Diagramm von Hand auf Papier oder eine Tafel zeichnen oder speziell für diesen Zweck entwickelte Software verwenden. In beiden Fällen müssen Sie diese Schritte befolgen:

1. Beginnen Sie mit der wichtigsten Entscheidung. Zeichnen Sie ein kleines Kästchen ein, um diesen Punkt darzustellen, und ziehen Sie dann von diesem Kästchen aus eine Linie für jede mögliche Lösung oder Maßnahmen. Letztere sollten entsprechend beschriftet werden.

So zeichnet man einen Entscheidungsbaum

2. Bauen Sie den Entscheidungsbaum aus, indem Sie Zufalls- und Entscheidungsknoten folgendermaßen hinzufügen:

  • Zeichnen Sie ein weiteres Kästchen ein, falls eine weitere Entscheidung notwendig ist.
  • Zeichnen Sie einen Kreis ein, wenn das Ergebnis ungewiss ist (Kreise stehen für Zufallsknoten).
  • Ist das Problem gelöst, brauchen Sie (fürs Erste) nichts weiter hinzuzufügen.

Entscheidungsbaum

Verbinden Sie jeden Entscheidungsknoten mit möglichen Lösungen. Ziehen Sie von jedem Zufallsknoten aus Linien, die mögliche Ergebnisse bzw. Auswirkungen darstellen. Wenn Sie Ihre Optionen numerisch analysieren möchten, sollten Sie die Wahrscheinlichkeit jedes Ergebnisses sowie die Kosten jeder Maßnahme vermerken.

3. Bauen Sie den Entscheidungsbaum so lange weiter aus, bis jede Linie an einen Endpunkt gelangt– das heißt, bis es keine weiteren Entscheidungen zu treffen gibt und keine weiteren Ergebnisse bzw. Auswirkungen mehr möglich sind. Ordnen Sie dann jedem möglichen Ergebnis einen bestimmten Wert zu. Dabei kann es sich um eine abstrakte Bewertung oder um einen finanziellen Wert handeln. Fügen Sie Dreiecke hinzu, um die Endpunkte zu repräsentieren.

So zeichnet man einen Entscheidungsbaum

Nun, da Sie einen Entscheidungsbaum erstellt haben, können Sie mit der Analyse der betreffenden Entscheidung beginnen.

Fallbeispiel: Analyse von Entscheidungsbäumen

Indem Sie den Nutzen oder Mehrwert jeder möglichen Entscheidung innerhalb des Diagramms berechnen, können Sie Ihre Risiken auf ein Minimum reduzieren und gleichzeitig die Wahrscheinlichkeit eines positiven Ergebnisses maximieren.

Um den voraussichtlichen Nutzen einer Entscheidung zu ermitteln, wägen Sie einfach die Kosten dieser Entscheidung gegen die erwarteten positiven Auswirkungen ab. Die erwarteten positiven Auswirkungen einer Entscheidung entsprechen dem Gesamtwert sämtlicher potenzieller Ergebnisse der jeweiligen Entscheidung, wobei jeder Einzelwert mit der Wahrscheinlichkeit, mit der das betreffende Ergebnis eintreten wird, multipliziert wird. Für das oben genannte Beispiel würden wir diese Werte wie folgt berechnen:

Entscheidungsbaumanalyse

Bei der Ermittlung des bestmöglichen Ergebnisses ist es äußerst wichtig, die Präferenzen des Entscheidungsträgers zu berücksichtigen. Zum Beispiel bevorzugen manche eventuell Optionen, die nur mit geringen Risiken verbunden sind, während andere wiederum bereit sind, größere Risiken einzugehen, wenn die Aussicht auf einen größeren Nutzen besteht.

Wenn Sie zusätzlich zu Ihrem Entscheidungsbaum ein Wahrscheinlichkeitsmodell verwenden, können Sie die bedingte Wahrscheinlichkeit eines Ereignisses (das heißt, wie gut die Chancen stehen, dass ein Ereignis eintritt, falls zunächst ein anderes Ereignis eintritt) berechnen. Starten Sie hierzu einfach mit dem ersten Ereignis und bauen Sie Ihr Diagramm aus, bis Sie beim gewünschten Zielereignis angekommen sind. Multiplizieren Sie dann die Wahrscheinlichkeit sämtlicher im Diagramm eingetragenen Ereignisse miteinander.

In diesem Sinne können Entscheidungsbäume wie herkömmliche Baumdiagramme verwendet werden. Letztere stellen die Wahrscheinlichkeit bestimmter Ereignisse dar – zum Beispiel, dass eine Münze zweimal hintereinander auf Kopf bzw. Zahl landet.

Baumdiagramm

Vor- und Nachteile

Entscheidungsbäume erfreuen sich aus vielerlei Gründen nach wie vor großer Beliebtheit:

  • Sie sind leicht verständlich
  • Sie sind sowohl mit als auch ohne konkrete Daten nützlich und Daten können ohne viel Vorbereitung erhoben werden
  • Neue Optionen lassen sich problemlos zu bestehenden Entscheidungsbäumen hinzufügen
  • Sie ermöglichen es, aus verschiedenen Entscheidungsmöglichkeiten die beste auszuwählen
  • Sie lassen sich problemlos mit anderen Entscheidungsfindungs-Tools kombinieren

Auf der anderen Seite kann es durchaus vorkommen, dass Entscheidungsbäume zu komplex werden. In solchen Fällen empfiehlt es sich, stattdessen Einflussdiagramme zu verwenden, da diese es ermöglichen, Informationen kürzer und knapper darzustellen als Entscheidungsbäume. Das liegt daran, dass sie sich auf kritische Entscheidungen, Inputs und Ziele konzentrieren.

Einflussdiagramm

Entscheidungsbäume im Bereich des maschinellen Lernens und des Data-Mining

Ein Entscheidungsbaum kann auch beim Entwickeln automatisierter Prognosemodelle helfen, die in den Bereichen maschinelles Lernen, Data-Mining und Statistik Anwendung finden. Diese Methode, die als Entscheidungsbaum-Lernen bezeichnet wird, berücksichtigt unterschiedliche Aspekte eines Elements, um dessen Wert einzuschätzen.

Bei diesen Entscheidungsbäumen repräsentieren Knoten keine Entscheidungen, sondern Daten. Man spricht in diesem Zusammenhang auch von Klassifikationsbäumen. Jede Verzweigung enthält eine Reihe von Attributen bzw. Klassifizierungsregeln, die mit einer bestimmten Klassenbezeichnung am Ende der Verzweigung zusammenhängen.

Diese Regeln, die auch als Entscheidungsregeln bezeichnet werden, können in Form einer „Wenn-dann“-Klausel ausgedrückt werden, wobei jede Entscheidung bzw. jeder Datenwert einer Klausel entspricht, wie zum Beispiel: „Wenn Bedingungen 1, 2 und 3 erfüllt werden, dann tritt Ereignis X mit einer Wahrscheinlichkeit von Y ein.“

Jeder weitere Datensatz hilft dem Modell, präziser vorherzusagen, zu welchem Wertesatz innerhalb einer begrenzten Sammlung an Wertesätzen das betreffende Subjekt gehört. Diese Informationen können anschließend in einen größeren Entscheidungsbaum eingefüttert werden.

In manchen Fällen handelt es sich bei dem Prognosewert um eine tatsächliche Zahl mit Realitätsbezug, wie etwa um einen Preis. Entscheidungsbäume, die kontinuierliche und unendliche viele mögliche Auswirkungen bzw. Ergebnisse darstellen, nennt man Regressionsbäume.

Um eine möglichst hohe Genauigkeit zu erzielen, werden mitunter mehrere Entscheidungsbäume – sogenannte Entscheidungswälder – verwendet:

  • Bagging erstellt durch erneutes Sampling der Quelldaten mehrere Entscheidungsbäume, die dann automatisch gegeneinander gewichtet werden, um zu einem Ergebnis zu kommen.
  • Ein Random Forest-Klassifikator besteht aus mehreren Entscheidungsbäumen, um so die Klassifikationsrate zu steigern.
  • Boosted Trees können für Regressions- und Klassifikationsbäume verwendet werden.
  • Die Bäume innerhalb eines sogenannten Rotation Forest (auch als zufällige Unterräume bezeichnet) basieren auf einem Verfahren, bei dem das Prinzip der Hauptkomponentenanalyse auf einen zufälligen Datenbereich angewendet wird.

Ein optimaler Entscheidungsbaum repräsentiert möglichst viele Daten mit möglichst wenigen Ebenen oder Fragen. Einige Algorithmen, die mit dem Ziel entwickelt wurden, optimierte Entscheidungsbäume zu erstellen, sind etwa CART, ASSISTANT, CLS und ID3/4/5. Entscheidungsbäume können auch auf Basis von Assoziationsregeln erstellt werden. Hierbei wird die Zielvariable rechts dargestellt.

Unabhängig von der Methode muss auf jeder Ebene ermittelt werden, wie die Daten aufgespaltet werden sollen. Gängige Methoden in diesem Zusammenhang bestehen etwa im Messen des Gini-Koeffizienten, des Informationsgewinns und der Varianzreduktion.

Die Anwendung von Entscheidungsbäumen im Bereich des maschinellen Lernens hat verschiedene Vorteile:

  • Mit jedem weiteren Datenpunkt sinken die Kosten, die bei der Datenprognose mithilfe des Entscheidungsbaums anfallen
  • Sowohl für kategorische als auch für numerische Daten geeignet
  • Kann Probleme mit mehreren Outputs modellieren
  • Verwendet ein White-Box-Modell (sodass Ergebnisse sich leicht erklären lassen)
  • Die Zuverlässigkeit eines Entscheidungsbaums lässt sich messen und bewerten
  • Entscheidungsbäume liefern in der Regel zuverlässige Ergebnisse, selbst wenn sie den Annahmen der Quelldaten widersprechen

Allerdings bergen Entscheidungsbäume auch eine Reihe von Nachteilen:

  • Im Falle kategorischer Daten mit mehreren Ebenen werden im Rahmen des Informationengewinns die Attribute mit den meisten Ebenen vorrangig gewertet.
  • Berechnungen werden zunehmend schwieriger, wenn Unsicherheiten oder eine hohe Anzahl an miteinander verbundenen Auswirkungen bzw. Ergebnissen vorliegt.
  • Verbindungen zwischen Knoten sind auf „UND“-Klauseln begrenzt, während Entscheidungsdiagramme auch „ODER“-Klauseln zulassen.