Prédictions à partir de modèles hébergés

Earth Engine fournit ee.Model en tant que connecteur aux modèles hébergés sur Vertex AI. Earth Engine envoie des données d'image ou de tableau en tant que requêtes de prédiction en ligne à un modèle entraîné déployé sur un point de terminaison Vertex AI. Les sorties du modèle sont ensuite disponibles sous forme d'images ou de tableaux Earth Engine.

Modèles TensorFlow

TensorFlow est une plate-forme de machine learning (ML) Open Source compatible avec les méthodes de ML avancées telles que le deep learning. L'API Earth Engine fournit des méthodes permettant d'importer et/ou d'exporter des images, des données d'entraînement et de test au format TFRecord. Consultez la page des exemples de ML pour découvrir des démonstrations qui utilisent TensorFlow avec des données d'Earth Engine. Consultez la page TFRecord pour en savoir plus sur la façon dont Earth Engine écrit des données dans des fichiers TFRecord.

ee.Model

Le package ee.Model gère les interactions avec les modèles de machine learning hébergés.

Modèles hébergés sur Vertex AI

Vous pouvez créer une instance ee.Model avec ee.Model.fromVertexAi. Il s'agit d'un objet ee.Model qui empaquette les données Earth Engine dans des tenseurs, les transfère en tant que requêtes de prédiction à Vertex AI, puis réassemble les réponses dans Earth Engine.

Earth Engine est compatible avec TensorFlow (par exemple, au format SavedModel), PyTorch et les modèles AutoML. Pour préparer un modèle à l'hébergement, enregistrez-le, importez-le dans Vertex AI, puis déployez-le sur un point de terminaison.

Formats d'entrée

Pour interagir avec Earth Engine, les entrées et les sorties d'un modèle hébergé doivent être compatibles avec un format d'échange compatible. Le format d'échange TensorProto est utilisé par défaut, en particulier les TensorProtos sérialisés au format base64 (référence). Cela peut se faire de manière programmatique, comme indiqué sur la page des exemples de ML, après l'entraînement et avant l'enregistrement, ou en chargeant, en ajoutant la transformation d'entrée et de sortie, puis en réenregistrant. Les autres formats de charge utile acceptés incluent le format JSON avec RAW_JSON et les tableaux multidimensionnels avec ND_ARRAYS. Pour en savoir plus, consultez notre documentation sur le format de la charge utile.

Autorisations IAM du point de terminaison

Pour utiliser un modèle avec ee.Model.fromVertexAi(), vous devez disposer d'autorisations suffisantes. Plus précisément, vous (ou toute personne qui utilise le modèle) devez disposer au moins du rôle d'utilisateur Vertex AI pour le projet Cloud dans lequel le modèle est hébergé. Vous contrôlez les autorisations de votre projet Cloud à l'aide des commandes Identity and Access Management (IAM) (Gestion de l'identité et des accès).

Régions

Lorsque vous déployez votre modèle sur un point de terminaison, vous devez spécifier la région dans laquelle le déployer. La région us-central1 est recommandée, car elle offre probablement les meilleures performances en raison de sa proximité avec les serveurs Earth Engine. Toutefois, presque toutes les régions fonctionnent. Consultez la documentation sur les emplacements Vertex AI pour en savoir plus sur les régions Vertex AI et les fonctionnalités qu'elles prennent en charge.

Si vous migrez depuis AI Platform, notez que Vertex AI ne dispose pas de point de terminaison global et que ee.Model.fromVertexAi() ne dispose pas de paramètre region.

Coûts

Pour en savoir plus sur les coûts, consultez la page des tarifs associée à chaque produit.

Vous pouvez utiliser le simulateur de coût pour générer une estimation des coûts en fonction de l'utilisation prévue.

Documentation complémentaire

Pour en savoir plus sur l'utilisation d'un modèle hébergé avec Earth Engine, consultez la page Prédiction d'images pour la prédiction d'images ou la page Prédiction de propriétés.