Este es un breve resumen de lo que aprendiste en el curso:
- Un árbol de decisión es un modelo.
compuesto por una colección
condiciones organizadas
jerárquicamente en la forma de árbol. Las condiciones se dividen en diversas
categorías:
- Una alineación entre ejes condition incluye un solo atributo. Una oblicua condition incluye múltiples funciones.
- Un binario condición tiene dos valores posibles resultados. Un objeto no binario condition tiene más de dos resultados posibles.
- Entrenar un árbol de decisiones implica buscar la mejor condición en cada nodo. La rutina splitter utiliza métricas como la información de aumento o Gini para determinar la mejor estado.
- Un bosque de decisión es un modo compuesto por varios árboles de decisión. La predicción de un bosque de decisiones es la agregación de las predicciones de sus árboles de decisión.
- Un bosque aleatorio es un de árboles de decisión en el que cada árbol de decisión se entrena con un ruido aleatorio específico.
- El bolso es una técnica que consiste en cada árbol de decisión del bosque aleatorio se entrena en función de un subconjunto de ejemplos.
- Los bosques aleatorios no requieren un conjunto de datos de validación. En cambio, los más aleatorios los bosques utilizan una técnica llamada out-of-bag-evaluation para evaluar la calidad del modelo.
- Un gradiente aumentado (decisión) árbol es un tipo de bosque de decisiones entrenado mediante ajustes iterativos a partir de entradas árboles de decisión. Un valor denominado La reducción controla la tasa a que aprende un árbol (decisión) potenciado por gradiente y el grado en el que podría sobreajustarse.
Referencias
- Aproximación de función codiciosa: un boosting del gradiente Máquina, J. Friedman.
- Los elementos de la estadística Aprendizaje, Trevor Hastie. Capítulo 10.
- Modelos mejorados generalizados: Una guía sobre gbm paquete, P. Ridgeway