Cette page a été traduite par l'API Cloud Translation. Tester vos connaissances sur les systèmes de ML de production Revenir au parcours Vous utilisez le machine learning pour créer un modèle de classification qui prédit l'apparence des licornes. Votre ensemble de données détaille 10 000 apparitions de licornes et 10 000 absences de licornes. L'ensemble de données contient l'emplacement, l'heure de la journée, l'altitude, la température, l'humidité, la couverture arborée, la présence d'un arc-en-ciel et plusieurs autres caractéristiques. Après avoir lancé votre prédicteur d'apparence licorne, vous devrez maintenir votre modèle à jour en le réentraînant sur de nouvelles données. Comme vous collectez trop de nouvelles données pour l'entraînement, vous décidez de limiter les données d'entraînement en les échantillonnant sur une période donnée. Vous devez également tenir compte des tendances quotidiennes et annuelles dans l’apparence des licornes. Quelle période choisissez-vous ? Un jour, car une période plus longue générerait beaucoup de données et l'entraînement de votre modèle prendrait trop de temps. Une semaine, pour que votre ensemble de données ne soit pas trop volumineux, mais que vous puissiez tout de même lisser les modèles. Un an, pour vous assurer que votre modèle n'est pas biaisé par des tendances annuelles. Vous lancez votre prédicteur d'apparence licorne. Ça fonctionne bien ! Vous partez en vacances et, au bout de trois semaines, vous constatez que la qualité de votre modèle a chuté de manière significative. Partez du principe qu'il est peu probable que le comportement des licornes change de manière significative en trois semaines. Quelle en est la raison probable ? Décalage entraînement/inférence: le format des données d'inférence a progressivement changé après le début de l'inférence du modèle. Vous avez utilisé la justesse comme métrique pendant l'entraînement. Votre modèle est obsolète. Aucune des propositions ci-dessus Vous examinez les prédictions du modèle pour l'Antarctique et découvrez que ses prédictions sont médiocres depuis sa mise en production. Lequel des éléments suivants pourrait être la source du problème ? Vous n'aviez pas assez d'exemples d'entraînement pour l'Antarctique. Vous avez utilisé l'entraînement dynamique au lieu de l'entraînement statique. Votre modèle est devenu obsolète. Toutes les propositions ci-dessus. Votre prédicteur d'apparence licorne fonctionne depuis un an. Vous avez résolu de nombreux problèmes, et le niveau de qualité est désormais élevé. Vous remarquez cependant un problème mineur, mais persistant. La qualité de votre modèle a légèrement dérivé dans les zones urbaines. Quelle peut en être la cause ? La haute qualité de vos prédictions conduit les utilisateurs à trouver facilement des licornes, ce qui affecte le comportement d'apparence des licornes. Les zones urbaines sont difficiles à modéliser. Les apparitions de licornes sont signalées plusieurs fois dans les zones densément peuplées, ce qui fausse vos données d'entraînement. Tout au long de vos procédures de dépannage, vous avez considérablement amélioré la qualité des prédictions du modèle "unicorn", ce qui a entraîné une multiplication par dix de l'utilisation. Cependant, les utilisateurs se plaignent maintenant que le modèle est extrêmement lent. les requêtes d'inférence prennent généralement plus de 30 secondes pour renvoyer des prédictions. Lequel des changements suivants pourrait aider à résoudre ce problème ? Faire passer le modèle de l'entraînement dynamique à l'entraînement statique. Faire passer le modèle de l'inférence dynamique à l'inférence statique Valider la qualité du modèle avant l'inférence Aucune des solutions ci-dessus ne peut vous aider. Envoyer les réponses error_outline Une erreur s'est produite lors de la notation du quiz. Veuillez réessayer.