Como implementar um modelo

Ao implementar um modelo, comece de maneira simples. A maior parte do trabalho no ML está no lado dos dados. Portanto, executar um pipeline completo para um modelo complexo é mais difícil do que iterar no próprio modelo. Depois de configurar o pipeline de dados e implementar um modelo simples que usa alguns recursos, é possível iterar na criação de um modelo melhor.

Modelos simples fornecem uma boa linha de base, mesmo que você não os inicie. Na verdade, usar um modelo simples provavelmente é melhor do que você imagina. Começar de forma simples ajuda a determinar se um modelo complexo é justificado ou não.

Treinar seu próprio modelo em vez de usar um modelo já treinado

Os modelos treinados existem para diversos casos de uso e oferecem muitas vantagens. Porém, os modelos treinados só funcionam quando o rótulo e os atributos correspondem exatamente ao seu conjunto de dados. Por exemplo, se um modelo treinado usar 25 atributos e o conjunto de dados incluir apenas 24 deles, o modelo treinado provavelmente fará previsões ruins.

Normalmente, os profissionais de ML usam subseções correspondentes de entradas de um modelo treinado para ajuste ou aprendizado por transferência. Se não existir um modelo treinado para seu caso de uso específico, considere usar subseções de um modelo treinado ao treinar seu próprio modelo.

Para informações sobre modelos treinados, consulte

Monitoramento

Durante a definição do problema, considere a infraestrutura de monitoramento e alerta que sua solução de ML precisa.

Implantação do modelo

Em alguns casos, um modelo recém-treinado pode ser pior do que o modelo atualmente em produção. Se estiver, evite que ela seja lançada para produção e receba um alerta de que sua implantação automatizada falhou.

Desvio de treinamento para exibição

Se algum dos atributos de entrada usados para inferência tiver valores que estejam fora do intervalo de distribuição dos dados usados no treinamento, convém ser alertado, porque é provável que o modelo faça previsões ruins. Por exemplo, se o modelo foi treinado para prever temperaturas em cidades equatoriais no nível do mar, o sistema de veiculação deve alertá-lo sobre dados recebidos com latitudes e longitudes e/ou altitudes fora do intervalo usado no treinamento. Por outro lado, o sistema de exibição deve alertá-lo se o modelo estiver fazendo previsões que estejam fora do intervalo de distribuição visto durante o treinamento.

Servidor de inferência

Se você estiver fornecendo inferências por meio de um sistema RPC, monitore o próprio servidor RPC e receba um alerta se ele parar de fornecer inferências.