Puoi scegliere una delle seguenti strategie di inferenza:
inferenza offline, ossia l'esecuzione di tutte le possibili previsioni in un batch, utilizzando MapReduce o qualcosa di simile. Puoi quindi scrivere le previsioni in una tabella SSTable o Bigtable e inserirle in una tabella di cache/ricerca.
inferenza online, ossia previsioni on demand utilizzando un server.
Scopri di più sull'inferenza statica e dinamica nel seguente video (2 minuti).
Inferenza statica e dinamica
Paradigmi dei sistemi ML: l'inferenza
Inferenza offline
Effettua tutte le previsioni possibili in un gruppo, utilizzando un mapReduce o simili.
Scrivi in una tabella, quindi inseriscili in una tabella di cache/ricerca.
Inferenza online
Esegui previsioni on demand, utilizzando un server.
Paradigmi dei sistemi ML: l'inferenza
Inferenza offline
Effettua tutte le previsioni possibili in un gruppo, utilizzando un mapReduce o simili.
Scrivi in una tabella, quindi inseriscili in una tabella di cache/ricerca.
Vantaggio: non devi preoccuparti molto del costo dell'inferenza.
Vantaggio: è probabile che tu stia utilizzando la quota batch.
Vantaggio: puoi eseguire la verifica successiva delle previsioni sui dati prima di eseguire il push.
Paradigmi dei sistemi ML: l'inferenza
Inferenza offline
Effettua tutte le previsioni possibili in un gruppo, utilizzando un mapReduce o simili.
Scrivi in una tabella, quindi inseriscili in una tabella di cache/ricerca.
Vantaggio: non devi preoccuparti molto del costo dell'inferenza.
Vantaggio: è probabile che tu stia utilizzando la quota batch.
Vantaggio: puoi eseguire la verifica successiva delle previsioni sui dati prima di eseguire il push.
Svantaggio: possiamo prevedere solo ciò che sappiamo, pessimo per le long tail.
Svantaggio: latenza dell'aggiornamento probabilmente misurata in ore o giorni.
Paradigmi dei sistemi ML: l'inferenza
Inferenza online
Esegui previsioni on demand, utilizzando un server.
Vantaggio: puoi prevedere qualsiasi nuovo articolo quando arriverà, ottimo per le long tail.
Paradigmi dei sistemi ML: l'inferenza
Inferenza online
Esegui previsioni on demand, utilizzando un server.
Vantaggio: puoi prevedere qualsiasi nuovo articolo quando arriverà, ottimo per le long tail.
Svantaggio: ad alta intensità di calcolo, sensibile alla latenza. Può limitare la complessità del modello.
Svantaggio: le esigenze di monitoraggio sono più impegnative.
Riepilogo delle lezioni video
Ecco i pro e i contro dell'inferenza offline:
Pro: non devi preoccuparti molto del costo dell'inferenza.
Pro: probabilmente puoi utilizzare una quota batch o un elemento MapReduce enorme.
Pro: puoi eseguire la verifica successiva delle previsioni prima di applicarle.
Contro: possiamo prevedere solo cose di cui siamo a conoscenza, pessime per le long tail.
Svantaggio: la latenza degli aggiornamenti viene probabilmente misurata in ore o giorni.
Ecco i pro e i contro dell'inferenza online:
Pro: puoi fare una previsione sui nuovi articoli che arrivano, ottimo per le long
tail.
Contro: ad alta intensità di calcolo, sensibile alla latenza, può limitare la complessità del modello.