Aqui está um breve resumo do que você aprendeu no curso:
- Uma árvore de decisão é um modelo
composta por uma coleção de
condições organizadas
hierarquicamente, na forma de uma árvore. As condições se enquadram em várias
categorias:
- Uma instância alinhada ao eixo envolve apenas um recurso. Uma oblíqua envolve vários atributos.
- Um binário tem duas possibilidades: resultados melhores. Um usuário não binário condição tem mais de dois resultados possíveis.
- O treinamento de uma árvore de decisão envolve a busca da melhor condição em cada nó. A rotina splitter usa métricas como informações ganhar ou Gini para determinar o melhor condição.
- Uma floresta de decisão é um modo composto de várias árvores de decisão. A previsão de uma floresta de decisão é a agregação das previsões das árvores de decisão.
- Uma floresta aleatória é uma conjunto de árvores de decisão em que cada árvore de decisão é treinada com uma ruído aleatório específico.
- Bagagem é uma técnica em que cada árvore de decisão na floresta aleatória é treinada em um subconjunto diferente de exemplos.
- Florestas aleatórias não exigem um conjunto de dados de validação. Em vez disso, a estratégia mais aleatória florestas usam uma técnica chamada out-of-bag-evaluation para avaliar a qualidade do modelo.
- Um gradiente otimizado (decisão) árvore é um tipo de floresta de decisão treinada com ajustes iterativos de entrada árvores de decisão. Um valor chamado reduceage controla a taxa em como uma árvore de gradiente otimizado (decisão) aprende e o grau em que pode sofrer overfitting.
Referências
- Aproximação da função gananciosa: um aumento de gradiente máquina, J) Friedman.
- Os elementos da estatística Aprendizado, Trevor Hastie. Capítulo 10.
- Modelos aprimorados generalizados: um guia para o gbm pacote, G) Ridgeway