Optimisation du modèle

Une fois que votre modèle fonctionne, il est temps d'optimiser sa qualité. Suivez les étapes ci-dessous.

Ajouter des fonctionnalités utiles

Vous pouvez améliorer les performances du modèle en ajoutant des caractéristiques qui encodent des informations qui ne sont pas encore encodées par vos caractéristiques existantes. Vous pouvez trouver des corrélations linéaires entre des caractéristiques et des étiquettes individuelles à l'aide de matrices de corrélation. Pour détecter les corrélations non linéaires entre les caractéristiques et les étiquettes, vous devez entraîner le modèle avec et sans la caractéristique, ou la combinaison de caractéristiques, et rechercher une augmentation de la qualité du modèle. Vous devez justifier l'inclusion de cette caractéristique par une augmentation de la qualité du modèle.

Régler les hyperparamètres

Vous avez trouvé les valeurs d'hyperparamètres qui font fonctionner votre modèle. Toutefois, ces valeurs d'hyperparamètres peuvent toujours être ajustées. Vous pouvez ajuster les valeurs manuellement par essai et erreur, mais le réglage manuel prend beaucoup de temps. Envisagez plutôt d'utiliser un service de réglage automatisé des hyperparamètres, tel que le réglage des hyperparamètres Cloud ML.

Régler la profondeur et la largeur du modèle

Lors du débogage de votre modèle, vous avez uniquement augmenté sa profondeur et sa largeur. En revanche, lors de l'optimisation du modèle, vous augmentez ou diminuez la profondeur et la largeur en fonction de vos objectifs. Si la qualité de votre modèle est satisfaisante, réduisez la durée du surapprentissage et l'entraînement en diminuant la profondeur et la largeur. Plus précisément, essayez de réduire de moitié la largeur au niveau de chaque couche successive. La qualité de votre modèle va également diminuer. Vous devez donc trouver un équilibre entre surapprentissage et apprentissage.

À l'inverse, si vous avez besoin d'une meilleure qualité de modèle, essayez d'augmenter la profondeur et la largeur. Pour voir un exemple, consultez cet exercice sur le réseau de neurones. N'oubliez pas que les augmentations de profondeur et de largeur sont pratiquement limitées par l'augmentation de la durée d'entraînement et du surapprentissage. Pour comprendre le surapprentissage, consultez la section Généralisation: Risque du surapprentissage.

La profondeur et la largeur étant des hyperparamètres, vous pouvez utiliser les réglages d'hyperparamètres pour les optimiser.