Uogólnienie odnosi się do możliwości adaptacji nowego modelu do nowych, wcześniej niewidocznych danych, które zostały pobrane z tego samego rozkładu co model użyty do utworzenia modelu.
Uogólnienie
Ogólny obraz
- Cel: przewidywanie nowych danych pochodzących z (ukrytej) rzeczywistej dystrybucji.
- Problem: prawda nie jest rzeczywista.
- Wykorzystujemy tylko próbki.
Ogólny obraz
- Cel: przewidywanie nowych danych pochodzących z (ukrytej) rzeczywistej dystrybucji.
- Problem: prawda nie jest rzeczywista.
- Wykorzystujemy tylko próbki.
- Jeśli model h dobrze pasuje do naszej obecnej próbki, jak wierzymy, że będzie on dobrze przewidzieć w przypadku innych nowych próbek?
Skąd wiadomo, że nasz model jest dobry?
- Teoretycznie:
- Interesujące pole: teoria uogólnienia
- Opiera się na pomysłów na prostotę / złożoność modelu
- Intuicja: oficjalna zasada Ockhama
- Im bardziej złożony model, tym bardziej prawdopodobne, że dobry wynik empiryczny jest nie tylko ze względu na szczegóły naszego przykładu.
Skąd wiadomo, że nasz model jest dobry?
- Empiracja:
- Pytanie: czy nasz model dobrze sprawdza się w nowej próbce danych?
- Ocena: pobierz nową próbkę danych nazywanej zestawem testowym
- Dobra skuteczność zbioru testowego to dobry wskaźnik ogólnej skuteczności nowych danych:
- Jeśli zestaw testowy jest wystarczająco duży
- Jeśli nie oszukamy, będąc testem ciągłym
Drobny druk ML
Oto 3 podstawowe założenia:
- Przykłady losujemy niezależnie i identycznie (np.) od rozkładu.
- Rozkład jest stacjonarny: nie zmienia się z czasem.
- Zawsze pobieramy dane z tej samej dystrybucji: w tym zestawy do trenowania, walidacji i testowania.