Qué es un diagrama de árbol de decisión


¿Necesitas analizar una decisión compleja? Intenta usar un árbol de decisión. Sigue leyendo para conocer todo sobre los árboles de decisión: qué son, cómo se usan y cómo crear uno.

¿Quieres crear un diagrama? Prueba Lucidchart, es fácil rápido y completamente gratis.
Crea un Diagrama
¿Quieres crear un diagrama? Prueba Lucidchart, es fácil rápido y completamente gratis.

¿Qué es un árbol de decisión?

Un árbol de decisión es un mapa de los posibles resultados de una serie de decisiones relacionadas. Permite que un individuo o una organización comparen posibles acciones entre sí según sus costos, probabilidades y beneficios. Se pueden usar para dirigir un intercambio de ideas informal o trazar un algoritmo que anticipe matemáticamente la mejor opción.

Un árbol de decisión, por lo general, comienza con un único nodo y luego se ramifica en resultados posibles. Cada uno de esos resultados crea nodos adicionales, que se ramifican en otras posibilidades. Esto le da una forma similar a la de un árbol.

Hay tres tipos diferentes de nodos: nodos de probabilidad, nodos de decisión y nodos terminales. Un nodo de probabilidad, representado con un círculo, muestra las probabilidades de ciertos resultados. Un nodo de decisión, representado con un cuadrado, muestra una decisión que se tomará, y un nodo terminal muestra el resultado definitivo de una ruta de decisión.

árbol de decisión

Los árboles de decisión también se pueden dibujar con símbolos de diagramas de flujo,que a algunas personas les parecen más fáciles de leer y comprender.

Símbolos de los árboles de decisión

Figura Nombre Significado
nodo de decisión Nodo de decisión Indica una decisión que se tomará
nodo de probabilidad de árbol de decisión Nodo de probabilidad Muestra múltiples resultados inciertos
Ramificaciones alternativas Cada ramificación indica un posible resultado o acción
Alternativa rechazada Muestra una alternativa que no estaba seleccionada
nodo terminal de árbol de decisión Nodo terminal Indica un resultado definitivo

Cómo dibujar un árbol de decisión

Para dibujar un árbol de decisión, primero debes elegir un medio. Puedes dibujarlo a mano en un papel o una pizarra, o puedes usar un software de árboles de decisión. En cualquier caso, te mostramos los pasos que debes seguir:

1. Comienza con la decisión principal. Dibuja un pequeño recuadro para representar este punto, luego dibuja una línea desde el recuadro hacia la derecha para cada posible solución o acción. Etiquétalas correctamente.

cómo dibujar un árbol de decisión

2. Agrega nodos de decisión y probabilidad para expandir el árbol del siguiente modo:

  • Si otra decisión es necesaria, dibuja otro recuadro.
  • Si el resultado es incierto, dibuja un círculo (los círculos representan nodos de probabilidad).
  • Si el problema está resuelto, déjalo en blanco (por ahora).

árbol de decisión

Desde cada nodo de decisión, dibuja soluciones posibles. Desde cada nodo de probabilidad, dibuja líneas que representen los resultados posibles. Si deseas analizar tus opciones de forma numérica, incluye la probabilidad de cada resultado y el costo de cada acción.

3. Continúa con la expansión hasta que cada línea alcance un extremo, lo que significa que no hay más decisiones que tomar o resultados probables que considerar. Luego, asigna un valor a cada resultado posible. Puede ser una puntuación abstracta o un valor financiero. Agrega triángulos para indicar los extremos.

cómo dibujar un árbol de decisión

Con un árbol de decisión completo, ya estás listo para comenzar a analizar la decisión que enfrentas.

Ejemplo de análisis de un árbol de decisión

Al calcular la utilidad o el valor esperado de cada decisión en el árbol, puedes minimizar el riesgo y maximizar la probabilidad de obtener un resultado deseado.

Para calcular la utilidad esperada de una decisión, solo debes restar el costo de esa decisión a los beneficios esperados. Los beneficios esperados son iguales al valor total de todos los resultados que puedan derivar de esa decisión, y cada valor se multiplica por la probabilidad de que ocurra. A continuación te mostraremos cómo nosotros calcularíamos estos valores para el ejemplo descrito anteriormente:

análisis de árbol de decisión

Al identificar cuál es el resultado más deseable, es importante tener en cuenta las preferencias de utilidad del encargado de tomar la decisión. Por ejemplo, algunos prefieren opciones de bajo riesgo, mientras que otros están dispuestos a correr riesgos si el beneficio es mayor.

Al usar tu árbol de decisión acompañado por un modelo de probabilidad, puedes emplearlo para calcular la probabilidad condicional de un evento o la probabilidad de que suceda, en el caso de que otro evento ocurra. Para hacerlo, simplemente empieza con el evento inicial, luego sigue la ruta desde ese evento hasta el evento objetivo, y multiplica la probabilidad de cada uno de esos eventos juntos.

De este modo, un árbol de decisión se puede emplear como un diagrama de árbol tradicional, que traza las probabilidades de determinados eventos, como lanzar una moneda dos veces.

diagrama de árbol

Ventajas y desventajas

Los árboles de decisión siguen siendo populares por razones como las siguientes:

  • Son muy fáciles de entender
  • Pueden ser útiles con o sin datos fehacientes, y cualquier dato requiere una preparación mínima
  • Se pueden agregar nuevas opciones a los árboles existentes
  • Su valor al seleccionar la mejor de numerosas opciones
  • Se combinan fácilmente con otras herramientas de toma de decisiones

Sin embargo, los árboles de decisión pueden volverse excesivamente complejos. En esos casos, un diagrama de influencia más compacto puede ser una buena alternativa. Los diagramas de influencia se enfocan en los objetivos, las entradas y las decisiones fundamentales.

diagrama de influencia

Árboles de decisión en minería de datos y aprendizaje automático

Un árbol de decisión también puede usarse para ayudar a crear modelos predictivos automatizados, que puedan emplearse en el aprendizaje automático, la minería de datos y las estadísticas. Conocido como "el aprendizaje basado en árboles de decisión", este método toma en consideración las observaciones sobre un elemento para predecir su valor.

En estos árboles de decisión, los nodos representan datos en lugar de decisiones. Este tipo de árbol también se conoce como "árbol de clasificación". Cada ramificación contiene un conjunto de atributos o reglas de clasificación asociadas a una etiqueta de clase específica, que se halla al final de la ramificación.

Estas reglas, también conocidas como "reglas de decisión", se pueden expresar en una cláusula "Si... entonces...". Cada valor de datos o decisión forma una cláusula, de tal manera que, por ejemplo, "si las condiciones 1, 2 y 3 se cumplen, entonces el resultado X será el resultado definitivo con certeza Y".

Cada dato adicional ayuda a que el modelo prediga de forma más precisa a qué conjunto finito de valores pertenece el asunto en cuestión. Esa información se puede usar posteriormente como una entrada en un modelo más grande de toma de decisiones.

A veces la variable predicha será un número real, como un precio. Los árboles de decisión con resultados posibles, infinitos y continuos se llaman "árboles de regresión".

Para una mayor precisión, se suelen combinar múltiples árboles con métodos de ensamblado:

  • Bagging (Ensamblado) crea múltiples árboles de decisión haciendo un remuestreo de los datos de origen, luego hace que los árboles voten para llegar a un consenso.
  • Un clasificador de selva aleatoria consiste en múltiples árboles diseñados para aumentar la tasa de clasificación.
  • Los árboles ampliados se pueden usar en árboles de clasificación y de regresión.
  • Los árboles en una Selva aleatoria (Rotation Forest) se entrenan mediante el uso del análisis de componentes principales (ACP) en una porción aleatoria de los datos.

Un árbol de decisión se considera ideal cuando representa la mayor cantidad de datos con el menor número de niveles o preguntas. Los algoritmos diseñados para crear árboles de decisión optimizados incluyen CART, ASSISTANT, CLS y ID3/4/5. Un árbol de decisión también se puede generar mediante la creación de reglas de asociación, ubicando la variable objetivo a la derecha.

Cada método debe determinar cuál es la mejor forma de dividir los datos en cada nivel. Los métodos comunes para hacerlo incluyen la medición de la impureza de Gini, la obtención de información y la reducción de variaciones.

Emplear los árboles de decisión en el aprendizaje automático tiene numerosas ventajas:

  • El costo del uso del árbol para predecir los datos disminuye con cada punto de datos adicional.
  • Funciona para los datos numéricos o categóricos.
  • Puede modelar problemas con múltiples resultados.
  • Usa un modelo de caja blanca (lo que hace que los resultados sean fáciles de explicar).
  • La fiabilidad de un árbol se puede cuantificar y poner a prueba.
  • Tiende a ser preciso independientemente de si viola las suposiciones de los datos de origen.

Pero también tienen algunas desventajas:

  • Cuando se presentan datos categóricos con múltiples niveles, la información obtenida se inclina a favor de los atributos con mayoría de niveles.
  • Los cálculos pueden volverse complejos al lidiar con la falta de certezas y numerosos resultados relacionados.
  • Las conjunciones entre nodos se limitan a AND, mientras que los gráficos de decisión admiten nódulos relacionados mediante OR.