Como implementar um modelo

Ao implementar um modelo, comece com algo simples. A maior parte do trabalho em ML está nos dados Portanto, executar um pipeline completo para um modelo complexo é mais difícil iterando o próprio modelo. Depois de configurar o pipeline de dados e implementar um modelo simples que usa alguns recursos, você pode iterar para criar um modelo melhor.

Modelos simples oferecem uma boa linha de base, mesmo que você não os lance. Na verdade, usar um modelo simples é melhor do que você imagina. Como começar de forma simples ajuda a determinar se um modelo complexo é justificado ou não.

Treinar seu próprio modelo versus usar um modelo já treinado

Os modelos treinados existem para uma variedade de casos de uso e oferecem e vantagens. No entanto, os modelos treinados só realmente funcionam quando o rótulo e atributos correspondem exatamente ao seu conjunto de dados. Por exemplo, se um modelo treinado usa 25 atributos e seu conjunto de dados inclui apenas 24 deles, os atributos treinados o modelo provavelmente vai fazer previsões ruins.

Em geral, os profissionais de ML usam subseções correspondentes de entradas de um treinado para ajuste de detalhes ou aprendizado por transferência. Se um modelo treinado não existir para seu caso de uso específico, considere usando subseções de um modelo treinado ao treinar o seu próprio.

Para informações sobre modelos treinados, consulte

Monitoramento

Durante a estruturação do problema, considere a infraestrutura de monitoramento e alerta às necessidades da solução de ML.

Implantação do modelo

Em alguns casos, um modelo recém-treinado pode ser pior do que o modelo atual a produção. Se estiver, é melhor evitar que ele seja lançado em produção e receber um alerta de que a implantação automatizada falhou.

Desvio de treinamento para exibição

Se algum dos atributos de entrada usados para inferência tiver valores que não estejam intervalo de distribuição dos dados usados no treinamento, porque é provável que as previsões do modelo sejam ruins. Por exemplo, se sua foi treinado para prever temperaturas em cidades equatoriais no nível do mar, o sistema de serviço deve alertá-lo sobre dados recebidos com latitudes e longitudes e/ou altitudes fora do intervalo em que o modelo foi treinado. Da mesma forma, o sistema de serviço deve alertar se o modelo estiver fazendo previsões que estão fora do intervalo de distribuição visto durante treinamento.

Servidor de inferência

Se estiver fazendo inferências por meio de um sistema RPC, monitore a o próprio servidor de RPC e recebe um alerta se parar de fornecer inferências.