Questa pagina contiene i termini del glossario dell'IA generativa. Per tutti i termini del glossario, fai clic qui.
A
valutazione automatica
Utilizzo di software per valutare la qualità dell'output di un modello.
Quando l'output del modello è relativamente semplice, uno script o un programma può confrontare l'output del modello con una risposta standard. Questo tipo di valutazione automatica è talvolta chiamato valutazione programmatica. Metriche come ROUGE o BLEU sono spesso utili per la valutazione programmatica.
Quando l'output del modello è complesso o non ha una sola risposta corretta, a volte la valutazione automatica viene eseguita da un programma di ML separato chiamato valutatore automatico.
È diverso dalla valutazione umana.
valutazione autore
Un meccanismo ibrido per valutare la qualità dell'output di un modello di IA generativa che combina valutazione umana con valutazione automatica. Un autore automatico è un modello di ML addestrato su dati creati da valutazioni umane. Idealmente, uno strumento di valutazione automatica impara a imitare un valutatore umano.Sono disponibili autoritratti predefiniti, ma i migliori sono ottimizzati in base all'attività che stai valutando.
modello autoregressivo
Un modello che deducono una previsione in base alle proprie predizioni precedenti. Ad esempio, i modelli linguistici autoregressivi prevedono il successivo token in base ai token previsti in precedenza. Tutti i modelli linguistici di grandi dimensioni basati su Transformer sono autoregressivi.
Al contrario, i modelli di immagini basati su GAN in genere non sono autoregressivi, poiché generano un'immagine in un unico passaggio in avanti e non in modo iterativo. Tuttavia, alcuni modelli di generazione di immagini sono autoregressivi perché generano un'immagine in più passaggi.
C
Chain-of-Thought Prompting
Una tecnica di progettazione di prompt che incoraggia un modello linguistico di grandi dimensioni (LLM) a spiegare il suo ragionamento passo passo. Ad esempio, considera il seguente prompt, prestando particolare attenzione alla seconda frase:
Quante forze g vengono sperimentate da un conducente in un'auto che passa da 0 a 96 km/h in 7 secondi? Nella risposta, mostra tutti i calcoli pertinenti.
La risposta dell'LLM probabilmente:
- Mostra una sequenza di formule di fisica, inserendo i valori 0, 60 e 7 nei punti appropriati.
- Spiega perché ha scelto queste formule e il significato delle varie variabili.
La Chain-of-Thought Prompting costringe l'LLM a eseguire tutti i calcoli, che potrebbero portare a una risposta più corretta. Inoltre, i prompt della catena di pensiero consentono all'utente di esaminare i passaggi dell'LLM per determinare se la risposta ha senso o meno.
chat
I contenuti di un dialogo con un sistema di ML, in genere un modello linguistico di grandi dimensioni. L'interazione precedente in una chat (ciò che hai digitato e la risposta del modello linguistico di grandi dimensioni) diventa il contesto per le parti successive della chat.
Un chatbot è un'applicazione di un modello linguistico di grandi dimensioni.
Embedding del linguaggio contestualizzato
Un embedding che si avvicina alla "comprensione" di parole e frasi come farebbe un madrelingua. Gli embedding linguistici contestualizzati possono comprendere sintassi, semantica e contesto complessi.
Ad esempio, considera gli embedding della parola inglese cow. Gli embeddings meno recenti, come word2vec, possono rappresentare le parole in inglese in modo che la distanza nello spazio di embedding da cow a bull sia simile alla distanza da ewe (pecora femmina) a ram (pecora maschio) o da female a male. Gli embedding linguistici contestualizzati possono fare un passo avanti riconoscendo che a volte gli anglofoni utilizzano la parola cow per indicare una mucca o un toro.
finestra di contesto
Il numero di token che un modello può elaborare in un determinato prompt. Maggiore è la finestra di contesto, più informazioni può utilizzare il modello per fornire risposte coerenti e coese al prompt.
D
prompt diretto
Sinonimo di prompt zero-shot.
distillazione
Il processo di riduzione delle dimensioni di un modello (noto come insegnante) in un modello più piccolo (noto come allievo) che emula le previsioni del modello originale nel modo più fedele possibile. La distillazione è utile perché il modello più piccolo presenta due vantaggi chiave rispetto al modello più grande (l'insegnante):
- Tempo di inferenza più rapido
- Riduzione del consumo di memoria ed energia
Tuttavia, le previsioni dello studente in genere non sono buone quanto quelle dell'insegnante.
La distillazione addestra il modello studente a minimizzare una funzione di perdita in base alla differenza tra gli output delle previsioni dei modelli studente e insegnante.
Confronta e contrapponi la distillazione con i seguenti termini:
Per saperne di più, consulta LLM: ottimizzazione, distillazione e progettazione dei prompt nel corso introduttivo al machine learning.
E
evals
Utilizzato principalmente come abbreviazione di valutazioni LLM. Più in generale, evals è un'abbreviazione per qualsiasi forma di valutazione.
valutazione
Il processo di misurazione della qualità di un modello o di confronto tra modelli diversi.
Per valutare un modello di machine learning supervisionato, in genere lo si confronta con un set di convalida e un set di test. La valutazione di un LLM tipicamente prevede valutazioni più ampie di qualità e sicurezza.
F
oggettività
Nel mondo del machine learning, una proprietà che descrive un modello il cui output si basa sulla realtà. La veridicità è un concetto piuttosto che una metrica. Ad esempio, supponiamo di inviare il seguente prompt a un modello linguistico di grandi dimensioni:
Qual è la formula chimica del sale da cucina?
Un modello che ottimizza l'oggettività risponderebbe:
NaCl
È facile presumere che tutti i modelli debbano essere basati su dati di fatto. Tuttavia, alcuni prompt, come il seguente, dovrebbero indurre un modello di IA generativa a ottimizzare la creatività anziché la veridicità.
Raccontami una filastrocca su un astronauta e una farfalla.
È improbabile che il limerick risultante sia basato sulla realtà.
È il contrario della groundedness.
prompting few-shot
Un prompt contenente più di un esempio (alcuni) che dimostri come deve rispondere il modello linguistico di grandi dimensioni. Ad esempio, il seguente prompt lungo contiene due esempi che mostrano a un modello linguistico di grandi dimensioni come rispondere a una query.
Parti di un prompt | Note |
---|---|
Qual è la valuta ufficiale del paese specificato? | La domanda a cui vuoi che l'LLM risponda. |
Francia: euro | Un esempio. |
Regno Unito: GBP | Un altro esempio. |
India: | La query effettiva. |
In genere, i prompt few-shot producono risultati più auspicabili rispetto ai prompt zero-shot e ai prompt one-shot. Tuttavia, la progettazione dei prompt few-shot richiede un prompt più lungo.
Il prompt few-shot è una forma di apprendimento few-shot applicata all'apprendimento basato su prompt.
Per saperne di più, consulta la sezione Progettazione dei prompt nel Machine Learning Crash Course.
ottimizzazione
Un secondo passaggio di addestramento specifico per l'attività eseguito su un modello preaddestrato per perfezionarne i parametri per un caso d'uso specifico. Ad esempio, la sequenza di addestramento completa per alcuni modelli linguistici di grandi dimensioni è la seguente:
- Preaddestramento: addestramento di un modello linguistico di grandi dimensioni su un vasto set di dati generale, come tutte le pagine di Wikipedia in lingua inglese.
- Ottimizzazione: addestrare il modello preaddestrato a eseguire un'attività specifica, come rispondere a query mediche. La messa a punto in genere prevede centinaia o migliaia di esempi incentrati sull'attività specifica.
Un altro esempio è la sequenza di addestramento completa per un modello di immagini di grandi dimensioni:
- Preaddestramento: addestrare un modello di immagini di grandi dimensioni su un vasto set di dati di immagini generali, come tutte le immagini di Wikimedia Commons.
- Ottimizzazione: addestrare il modello preaddestrato a eseguire un'attività specifica, come la generazione di immagini di orche.
La messa a punto può comportare qualsiasi combinazione delle seguenti strategie:
- Modifica di tutti i parametri esistenti del modello preaddestrato. Questa operazione è talvolta chiamata ottimizzazione completa.
- Modificare solo alcuni dei parametri esistenti del modello preaddestrato (in genere, i livelli più vicini al livello di output), mantenendo invariati gli altri parametri esistenti (in genere, i livelli più vicini al livello di input). Consulta l'ottimizzazione efficiente dei parametri.
- Aggiunta di altri livelli, in genere sopra i livelli esistenti più vicini al livello di output.
La messa a punto fine è una forma di apprendimento tramite trasferimento. Di conseguenza, la messa a punto fine potrebbe utilizzare una funzione di perdita o un tipo di modello diverso da quelli utilizzati per addestrare il modello preaddestrato. Ad esempio, potresti perfezionare un modello di immagini di grandi dimensioni preaddestrato per produrre un modello di regressione che restituisce il numero di uccelli in un'immagine di input.
Confronta e contrapponi la messa a punto fine con i seguenti termini:
Per ulteriori informazioni, consulta Ottimizzazione fine nel Machine Learning Crash Course.
frazione di successi
Una metrica per valutare il testo generato di un modello ML. La frazione di successi è il numero di output di testo generati "correttamente" diviso per il numero totale di output di testo generati. Ad esempio, se un modello linguistico di grandi dimensioni ha generato 10 blocchi di codice, di cui cinque sono andati a buon fine, la frazione di successi sarà del 50%.
Sebbene la frazione di successi sia ampiamente utile in tutte le statistiche, nel machine learning questa metrica è utile principalmente per misurare attività verificabili come la generazione di codice o i problemi di matematica.
G
Gemini
L'ecosistema che comprende l'IA più avanzata di Google. Gli elementi di questo ecosistema includono:
- Vari modelli Gemini.
- L'interfaccia di conversazione interattiva di un modello Gemini. Gli utenti digitano i prompt e Gemini risponde.
- Varie API Gemini.
- Vari prodotti aziendali basati su modelli Gemini, ad esempio Gemini per Google Cloud.
Modelli Gemini
I modelli multimodali basati su Transformer all'avanguardia di Google. I modelli Gemini sono progettati appositamente per essere integrati con gli agenti.
Gli utenti possono interagire con i modelli Gemini in diversi modi, ad esempio tramite un'interfaccia di dialogo interattiva e tramite SDK.
testo generato
In generale, il testo prodotto da un modello di ML. Quando si valutano i modelli linguistici di grandi dimensioni, alcune metriche confrontano il testo generato con il testo di riferimento. Ad esempio, supponiamo che tu stia tentando di determinare l'efficacia di un modello ML per le traduzioni dal francese al fiammingo. In questo caso:
- Il testo generato è la traduzione in olandese generata dal modello di ML.
- Il testo di riferimento è la traduzione in olandese creata da un traduttore umano (o da un software).
Tieni presente che alcune strategie di valutazione non prevedono il testo di riferimento.
IA generativa
Un campo trasformativo emergente senza definizione formale. Detto questo, la maggior parte degli esperti concorda sul fatto che i modelli di IA generativa possono creare ("generare") contenuti che presentano tutte le seguenti caratteristiche:
- complesso
- coerenti
- originale
Ad esempio, un modello di IA generativa può creare testi o immagini sofisticati.
Anche alcune tecnologie precedenti, tra cui le LSTM e le RNN, possono generare contenuti originali e coerenti. Alcuni esperti considerano queste tecnologie precedenti come IA generativa, mentre altri ritengono che la vera IA generativa richieda un output più complesso di quanto possano produrre queste tecnologie precedenti.
È diverso dal machine learning predittivo.
risposta ottimale
Una risposta nota per essere buona. Ad esempio, dato il seguente prompt:
2 + 2
La risposta ideale è:
4
H
valutazione umana
Un processo in cui le persone valutano la qualità dell'output di un modello di ML, ad esempio persone bilingue che valutano la qualità di un modello di traduzione ML. La valutazione da parte di persone fisiche è particolarmente utile per giudicare i modelli che non hanno una sola risposta corretta.
È diversa dalla valutazione automatica e dalla valutazione dell'autorater.
human-in-the-loop (HITL)
Un idioma poco definito che può significare una delle seguenti opzioni:
- Una norma che prevede di esaminare l'output dell'IA generativa in modo critico o scettico. Ad esempio, le persone che scrivono questo glossario sul machine learning sono stupite da ciò che possono fare i modelli linguistici di grandi dimensioni, ma sono consapevoli degli errori che commettono.
- Una strategia o un sistema per garantire che le persone contribuiscano a definire, valutare e perfezionare il comportamento di un modello. Il coinvolgimento di un essere umano consente a un'IA di trarre vantaggio sia dall'intelligenza artificiale sia dall'intelligenza umana. Ad esempio, un sistema in cui un'IA genera codice che viene poi esaminato dai software engineer è un sistema con intervento umano.
I
Apprendimento contestuale
Sinonimo di prompt few-shot.
Ottimizzazione delle istruzioni
Una forma di ottimizzazione fine che migliora la capacità di un modello di AI generativa di seguire le istruzioni. L'ottimizzazione delle istruzioni prevede l'addestramento di un modello su una serie di prompt di istruzioni, che in genere coprono un'ampia gamma di attività. Il modello sintonizzato sulle istruzioni risultante tende quindi a generare risposte utili ai prompt zero-shot in una serie di attività.
Confrontare e contrapporre:
L
LLM
Abbreviazione di modello linguistico di grandi dimensioni.
Valutazioni LLM (evals)
Un insieme di metriche e benchmark per valutare il rendimento dei modelli linguistici di grandi dimensioni (LLM). A livello generale, le valutazioni LLM:
- Aiutare i ricercatori a identificare le aree in cui gli LLM devono essere migliorati.
- Sono utili per confrontare diversi LLM e identificare il migliore per una determinata attività.
- Contribuisci ad assicurare che gli LLM siano sicuri ed etici.
LoRA
Abbreviazione di Low-Rank Adaptability.
Adattabilità a basso ranking (LoRA)
Una tecnica di ottimizzazione efficiente dei parametri per la ottimizzazione fine che "blocca" i parametri preaddestrati del modello (in modo che non possano più essere modificati) e poi inserisce un piccolo insieme di parametri addestrabili nel modello. Questo insieme di pesi addestrabili (noti anche come "matrici di aggiornamento") è notevolmente più piccolo del modello di base ed è quindi molto più veloce da addestrare.
LoRa offre i seguenti vantaggi:
- Migliora la qualità delle previsioni di un modello per il dominio in cui viene applicata la messa a punto fine.
- Esegue la messa a punto più velocemente rispetto alle tecniche che richiedono la messa a punto di tutti i parametri di un modello.
- Riduce il costo computazionale dell'inferenza consentendo la pubblicazione simultanea di più modelli specializzati che condividono lo stesso modello di base.
M
traduzione automatica
Utilizzo di software (in genere un modello di machine learning) per convertire il testo da una lingua umana a un'altra, ad esempio dall'inglese al giapponese.
Precisione media a k (mAP@k)
La media statistica di tutti i punteggi di precisione media a k in un set di dati di convalida. Un utilizzo della precisione media a k è valutare la qualità dei consigli generati da un sistema di consigli.
Anche se la frase "media media" sembra ridondante, il nome della metrica è appropriato. Dopotutto, questa metrica trova la media di più valori di precisione media a k.
una combinazione di esperti
Uno schema per aumentare l'efficienza delle reti neurali utilizzando solo un sottoinsieme dei relativi parametri (noto come esperto) per elaborare un determinato token di input o esempio. Una rete di smistamento inoltra ogni token o esempio di input agli esperti appropriati.
Per maggiori dettagli, consulta uno dei seguenti documenti:
- Reti neurali estremamente grandi: il livello di combinazione di esperti con gating sparso
- Mixture-of-Experts con routing in base alla scelta dell'esperto
MMIT
Abbreviazione di adattato alle istruzioni multimodali.
applicazione in cascata del modello
Un sistema che sceglie il modello ideale per una query di inferenza specifica.
Immagina un gruppo di modelli, da molto grandi (molti parametri) a molto più piccoli (molto meno parametri). I modelli di grandi dimensioni consumano più risorse di calcolo al momento dell'inferenza rispetto ai modelli più piccoli. Tuttavia, i modelli molto grandi possono in genere dedurre richieste più complesse rispetto ai modelli più piccoli. La gerarchia dei modelli determina la complessità della query di inferenza e poi sceglie il modello appropriato per eseguire l'inferenza. Lo scopo principale della gerarchia dei modelli è ridurre i costi di inferenza selezionando in genere modelli più piccoli e solo un modello più grande per query più complesse.
Immagina che un modello di piccole dimensioni venga eseguito su uno smartphone e una versione più grande su un server remoto. Una buona struttura a cascata dei modelli riduce i costi e la latenza consentendo al modello più piccolo di gestire le richieste semplici e chiamando solo il modello remoto per gestire le richieste complesse.
Vedi anche modello router.
router modello
L'algoritmo che determina il modello ideale per la deduzione nella cascading dei modelli. Un router di modelli è in genere un modello di machine learning che apprende gradualmente a scegliere il modello migliore per un determinato input. Tuttavia, a volte un router modello potrebbe essere un algoritmo più semplice e non di machine learning.
MOE
Abbreviazione di mescola di esperti.
MT
Abbreviazione di traduzione automatica.
No
Nessuna risposta esatta (NORA)
Un prompt con più risposte appropriate. Ad esempio, il seguente prompt non ha una risposta giusta:
Raccontami una barzelletta sugli elefanti.
Valutare i prompt senza una risposta corretta può essere complicato.
NORA
Abbreviazione di nessuna risposta corretta.
O
prompting one-shot
Un prompt contenente un esempio che mostra come deve rispondere il modello linguistico di grandi dimensioni. Ad esempio, il seguente prompt contiene un esempio che mostra a un modello linguistico di grandi dimensioni come rispondere a una query.
Parti di un prompt | Note |
---|---|
Qual è la valuta ufficiale del paese specificato? | La domanda a cui vuoi che l'LLM risponda. |
Francia: euro | Un esempio. |
India: | La query effettiva. |
Confronta e contrapponi i prompt una tantum con i seguenti termini:
P
Ottimizzazione efficiente dei parametri
Un insieme di tecniche per ottimizzare un grande modello linguistico preaddestrato (PLM) in modo più efficiente rispetto all'ottimizzazione completa. L'ottimizzazione in termini di parametri in genere ottimizza molti meno parametri rispetto all'ottimizzazione completa, ma in genere produce un modello linguistico di grandi dimensioni che ha un rendimento uguale (o quasi) a quello di un modello linguistico di grandi dimensioni creato con l'ottimizzazione completa.
Confronta l'ottimizzazione efficiente dei parametri con:
L'ottimizzazione efficiente dei parametri è nota anche come ottimizzazione fine efficiente dei parametri.
PLM
Abbreviazione di modello linguistico preaddestrato.
modello post-addestrato
Termine definito in modo approssimativo che in genere si riferisce a un modello preaddestrato sottoposto a qualche elaborazione post-trattamento, ad esempio una o più delle seguenti:
modello preaddestrato
In genere, un modello già addestrato. Il termine può anche indicare un vettore di embedding addestrato in precedenza.
Il termine modello linguistico preaddestrato si riferisce in genere a un modello linguistico di grandi dimensioni già addestrato.
preaddestramento
L'addestramento iniziale di un modello su un set di dati di grandi dimensioni. Alcuni modelli pre-addestrati sono giganti goffi e in genere devono essere perfezionati tramite un addestramento aggiuntivo. Ad esempio, gli esperti di ML potrebbero preaddestrare un modello linguistico di grandi dimensioni su un vasto set di dati di testo, come tutte le pagine in inglese di Wikipedia. Dopo la pre-addestramento, il modello risultante può essere ulteriormente perfezionato tramite una delle seguenti tecniche:
- distillazione
- ottimizzazione
- ottimizzazione delle istruzioni
- ottimizzazione efficiente dei parametri
- prompt-tuning
prompt
Qualsiasi testo inserito come input in un modello linguistico di grandi dimensioni per condizionare il modello a comportarsi in un determinato modo. I prompt possono essere brevi come una frase o lunghi a piacere (ad esempio l'intero testo di un romanzo). I prompt rientrano in più categorie, tra cui quelle mostrate nella tabella seguente:
Categoria di prompt | Esempio | Note |
---|---|---|
Domanda | A quale velocità può volare un piccione? | |
Istruzione | Scrivi una poesia divertente sull'arbitraggio. | Un prompt che chiede al modello linguistico di grandi dimensioni di fare qualcosa. |
Esempio | Tradurre il codice Markdown in HTML. Ad esempio:
Markdown: * elemento dell'elenco HTML: <ul> <li>elemento dell'elenco</li> </ul> |
La prima frase di questo prompt di esempio è un'istruzione. Il resto del prompt è l'esempio. |
Ruolo | Spiegare perché la discesa del gradiente viene utilizzata nell'addestramento del machine learning a un dottore in fisica. | La prima parte della frase è un'istruzione; la frase "a un dottorato in fisica" è la parte relativa al ruolo. |
Input parziale da completare dal modello | Il Primo ministro del Regno Unito abita a | Un prompt di input parziale può terminare bruscamente (come in questo esempio) o con un trattino basso. |
Un modello di IA generativa può rispondere a un prompt con testo, codice, immagini, embedding, video e quasi tutto.
apprendimento basato su prompt
Una funzionalità di alcuni modelli che consente loro di adattare il loro comportamento in risposta a input di testo arbitrari (prompt). In un tipico paradigma di apprendimento basato su prompt, un modello linguistico di grandi dimensioni risponde a un prompt generando testo. Ad esempio, supponiamo che un utente inserisca il seguente prompt:
Riassumere la terza legge di moto di Newton.
Un modello in grado di apprendere in base ai prompt non è addestrato specificamente per rispondere al prompt precedente. Piuttosto, il modello "sa" molti fatti sulla fisica, molto sulle regole generali del linguaggio e molto su cosa costituiscono risposte generalmente utili. Queste informazioni sono sufficienti per fornire una risposta (si spera) utile. Ulteriori feedback umani ("Questa risposta era troppo complicata" o "Che cos'è una reazione?") consentono ad alcuni sistemi di apprendimento basati su prompt di migliorare gradualmente l'utilità delle loro risposte.
progettazione dei prompt
Sinonimo di prompt engineering.
ingegneria del prompt
L'arte di creare prompt che generano le risposte desiderate da un modello linguistico di grandi dimensioni. Gli esseri umani eseguono il prompt engineering. Scrivere prompt ben strutturati è un aspetto essenziale per garantire risposte utili da un modello linguistico di grandi dimensioni. L'ingegneria dei prompt dipende da molti fattori, tra cui:
- Il set di dati utilizzato per preaddestrare e possibilmente ottimizzare il modello linguistico di grandi dimensioni.
- La temperatura e altri parametri di decodifica utilizzati dal modello per generare le risposte.
Per ulteriori dettagli su come scrivere prompt utili, consulta Introduzione alla progettazione dei prompt.
Progettazione del prompt è un sinonimo di prompt engineering.
ottimizzazione dei prompt
Un meccanismo di ottimizzazione efficiente dei parametri che apprende un "prefisso" che il sistema antepone al prompt effettivo.
Una variante della regolazione del prompt, a volte chiamata regolazione del prefisso, consiste nell'anteporre il prefisso a ogni livello. Al contrario, la maggior parte della regolazione dei prompt aggiunge solo un prefisso al livello di input.
R
testo di riferimento
La risposta di un esperto a un prompt. Ad esempio, se viene visualizzato il seguente prompt:
Traduci la domanda "Come ti chiami?" dall'inglese al francese.
La risposta di un esperto potrebbe essere:
Comment vous appelez-vous?
Diverse metriche (ad esempio ROUGE) misurano il grado di corrispondenza tra il testo di riferimento e il testo generato di un modello di ML.
Apprendimento per rinforzo con feedback umano (RLHF)
Utilizzo del feedback di valutatori umani per migliorare la qualità delle risposte di un modello. Ad esempio, un meccanismo RLHF può chiedere agli utenti di valutare la qualità della risposta di un modello con un'emoji 👍 o 👎. Il sistema può quindi modificare le sue risposte future in base a questo feedback.
Prompt del ruolo
Componente facoltativo di un prompt che identifica un pubblico di destinazione per la risposta di un modello di IA generativa. Senza un prompt per il ruolo, un modello linguistico di grandi dimensioni fornisce una risposta che può essere o meno utile per la persona che pone le domande. Con un prompt sul ruolo, un modello linguistico di grandi dimensioni può rispondere in modo più appropriato e utile per un pubblico di destinazione specifico. Ad esempio, la parte della richiesta relativa al ruolo dei seguenti prompt è in grassetto:
- Riassumi questo articolo per un dottorato in economia.
- Descrivere il funzionamento delle maree a un bambino di dieci anni.
- Spiega la crisi finanziaria del 2008. Parla come faresti con un bambino piccolo o un golden retriever.
S
Ottimizzazione dei prompt flessibili
Una tecnica per ottimizzare un modello linguistico di grandi dimensioni per una determinata attività, senza bisogno di una ottimizzazione fine che richiede molte risorse. Anziché riaddestrare tutti i pesi del modello, la regolazione del prompt graduale aggiusta automaticamente un prompt per raggiungere lo stesso obiettivo.
Dato un prompt di testo, la regolazione del prompt graduale tipicamente aggiunge al prompt ulteriori embedding di token e utilizza la propagazione inversa per ottimizzare l'input.
Un prompt "duro" contiene token effettivi anziché incorporamenti di token.
T
temperatura
Un iperparametro che controlla il grado di casualità dell'output di un modello. Temperature più elevate generano un output più casuale, mentre temperature più basse generano un output meno casuale.
La scelta della temperatura migliore dipende dall'applicazione specifica e dalle proprietà preferite dell'output del modello. Ad esempio, probabilmente aumenteresti la temperatura quando crei un'applicazione che genera output creativo. Al contrario, probabilmente abbasserai la temperatura quando crei un modello che classifica immagini o testo per migliorare la accuratezza e la coerenza del modello.
La temperatura viene spesso utilizzata con softmax.
Z
prompting zero-shot
Un prompt che non fornisce un esempio di come vuoi che il modello linguistico di grandi dimensioni risponda. Ad esempio:
Parti di un prompt | Note |
---|---|
Qual è la valuta ufficiale del paese specificato? | La domanda a cui vuoi che l'LLM risponda. |
India: | La query effettiva. |
Il modello linguistico di grandi dimensioni potrebbe rispondere con uno dei seguenti elementi:
- Rupia
- INR
- ₹
- Rupia indiana
- La rupia
- La rupia indiana
Tutte le risposte sono corrette, anche se potresti preferire un determinato formato.
Confronta e contrapponi i prompt senza esempi con i seguenti termini: