Resumo do curso

Aqui está um breve resumo do que você aprendeu no curso:

  • Uma árvore de decisão é um modelo composta por uma coleção de condições organizadas hierarquicamente, na forma de uma árvore. As condições se enquadram em várias categorias:
  • O treinamento de uma árvore de decisão envolve a busca da melhor condição em cada nó. A rotina splitter usa métricas como informações ganhar ou Gini para determinar o melhor condição.
  • Uma floresta de decisão é um modo composto de várias árvores de decisão. A previsão de uma floresta de decisão é a agregação das previsões das árvores de decisão.
  • Uma floresta aleatória é uma conjunto de árvores de decisão em que cada árvore de decisão é treinada com uma ruído aleatório específico.
  • Bagagem é uma técnica em que cada árvore de decisão na floresta aleatória é treinada em um subconjunto diferente de exemplos.
  • Florestas aleatórias não exigem um conjunto de dados de validação. Em vez disso, a estratégia mais aleatória florestas usam uma técnica chamada out-of-bag-evaluation para avaliar a qualidade do modelo.
  • Um gradiente otimizado (decisão) árvore é um tipo de floresta de decisão treinada com ajustes iterativos de entrada árvores de decisão. Um valor chamado reduceage controla a taxa em como uma árvore de gradiente otimizado (decisão) aprende e o grau em que pode sofrer overfitting.

 

Referências