Omówienie potoków ML

Gratulacje! Twój model jest gotowy do wdrożenia w produkcyjnym potoku ML. W tej sekcji kursu przedstawiamy wytyczne dotyczące testowania potoków systemów uczących się. Ta sekcja nie przedstawia jednak tych wskazówek, ponieważ w środowisku piaskownicy taka wersja demonstracyjna nie jest dostępna.

Dowiesz się:

  • Napisanie odpowiednich testów do uruchomienia i produkcji.
  • Wykrywanie trybów awarii w potoku ML za pomocą testów.
  • Ocena jakości modelu w wersji produkcyjnej.

Czym jest potok ML?

Potok ML składa się z kilku komponentów, co przedstawia schemat. Omówimy te komponenty później. Na razie obserwuj, że „Model” (czarna ramka) to niewielka część infrastruktury potoku niezbędnej do działania systemów uczących się.

Schemat typowego potoku systemów uczących się. Schemat przedstawia kilka pól, po jednym dla każdego komponentu potoku. Pole „model” jest widoczne na środku schematu. Pozostałe pola są rozmieszczone wokół okna „model”. Te pola są oznaczone etykietą: zbieranie danych, weryfikacja danych, zarządzanie zasobami maszynowymi, infrastruktura obsługująca, wyodrębnianie funkcji, narzędzia do analizy, narzędzia do zarządzania procesami, konfiguracja i monitorowanie.
Ilustracja 1. Schemat typowego potoku systemów uczących się

Rola testowania w potokach ML

Idealny przepływ pracy w obszarze programowania oprogramowania jest zgodny z programowaniem opartym na testach (TDD). Jednak w systemach uczących się rozpoczęcie testowania nie jest proste. Testy zależą od danych, modelu i problemu. Na przykład przed wytrenowaniem modelu nie można napisać testu pozwalającego zweryfikować stratę. Zamiast tego odkryjesz możliwe do osiągnięcia straty podczas tworzenia modelu, a następnie przetestujesz nowe wersje pod kątem osiągalnej straty.

Potrzebujesz testów:

  • Weryfikuję dane wejściowe.
  • Sprawdzanie poprawności funkcji.
  • Sprawdzanie jakości nowych wersji modeli.
  • Weryfikuję infrastrukturę udostępniania.
  • Testuję integrację między komponentami potoku.