Como em qualquer modelo de aprendizado de máquina, uma das principais preocupações ao treinar uma rede neural
convolucional é o overfitting: um modelo tão ajustado aos detalhes dos
dados de treinamento que não consegue generalizar para novos exemplos. Duas técnicas para
evitar o ajuste excessivo ao criar uma CNN são:
Aumento de dados: aumentar artificialmente a diversidade e o número de
exemplos de treinamento realizando transformações aleatórias em imagens existentes para
criar um conjunto de novas variantes (consulte a Figura 7). O aumento de dados é especialmente
útil quando o conjunto de dados de treinamento original é relativamente pequeno.
Regularização de dropout: remoção aleatória de unidades da rede neural
durante uma etapa de gradiente de treinamento.
Figura 7. Aumento de dados
em uma única imagem de cachorro (extraída do conjunto de dados"Dogs vs. Cats"
disponível no Kaggle). Esquerda: imagem original do cachorro do conjunto de treinamento.
Certo: nove novas imagens geradas a partir da imagem original usando transformações
aleatórias.
[null,null,["Última atualização 2025-01-18 UTC."],[[["Overfitting in convolutional neural networks can be mitigated by using techniques like data augmentation and dropout regularization."],["Data augmentation involves creating variations of existing training images to increase dataset diversity and size, which is particularly helpful for smaller datasets."],["Dropout regularization randomly removes units during training to prevent the model from becoming overly specialized to the training data."],["When dealing with large datasets, the need for dropout regularization diminishes and the impact of data augmentation is reduced."]]],[]]